Videos del asesinato de Charlie Kirk se propagan sin control en redes sociales
Las principales plataformas incumplen sus propias normas de moderación de contenidos. Investigadores señalan que los vídeos gráficos del tiroteo circulan sin advertencias y se reproducen automáticamente. Los hechos ocurrieron ayer en la Universidad del Valle de Utah.
Una propagación imparable
Minutos después de que el activista político conservador Charlie Kirk fuera disparado en un acto en la Universidad del Valle de Utah, vídeos impactantes del incidente comenzaron a circular en TikTok, Instagram y X. La mayoría de los vídeos vistos por WIRED no contenían advertencias de contenido y muchos comenzaban a reproducirse automáticamente. Investigadores que rastrean la difusión de estos vídeos afirman que las principales plataformas sociales están incumpliendo en la aplicación de sus propias normas de moderación de contenidos.
El vacío político de la moderación
El vídeo del asesinato de Kirk parece caer en un vacío político, situándose entre el «contenido gráfico» permitido y la categoría de «violencia glorificada» que viola las normas de las plataformas. Alex Mahadevan, director de MediaWise en el Poynter Institute, calificó la situación de «increíble», subrayando la imposibilidad de retirar o advertir sobre todos estos vídeos sin un sólido programa de confianza y seguridad.
La respuesta de las plataformas
TikTok declaró que no permite «contenido sangriento, espantoso, perturbador o extremadamente violento» y que ha implementado salvaguardias adicionales. Meta, por su parte, está aplicando una etiqueta de advertencia «Marcar como sensible» y restringiendo el acceso a mayores de 18 años. Un portavoz de Meta afirmó que la compañía tiene a 15.000 personas revisando contenidos. X permite compartir material gráfico si está debidamente etiquetado y no es excesivamente sangriento, pero no respondió a las solicitudes de comentarios sobre este caso específico.
Un paisaje digital en transformación
En los últimos dos años, plataformas sociales como X, TikTok, Facebook e Instagram han reducido sus esfuerzos de moderación de contenidos, eliminando en algunos casos el trabajo de moderadores humanos que actuaban como una línea crucial de defensa. Aunque muchas plataformas utilizan herramientas de IA para detectar y etiquetar contenidos potencialmente dañinos, no siempre comparten los detalles específicos sobre cómo se despliegan estas herramientas.
El daño de una imagen
La continua propagación de estos vídeos gráficos tiene implicaciones profundas para la sociedad. Alex Mahadevan advirtió que esto es «psicológicamente dañino para nuestra sociedad de formas que aún no comprendemos». Señaló que la exposición directa al vídeo del asesinato, en lugar de solo leer sobre el hecho, está contribuyendo a un proceso de radicalización, como lo demuestran publicaciones en X de usuarios que afirman haberse radicalizado tras ver las imágenes.