Videos del asesinato de Charlie Kirk se propagan sin control en redes sociales
Las principales plataformas incumplen sus propias normas de moderación de contenidos. Investigadores documentan la rápida difusión de grabaciones gráficas del tiroteo. Los sistemas automatizados de etiquetado fallan en proteger a los usuarios.
La difusión del horror
Minutos después de que el activista político conservador Charlie Kirk fuera asesinado en la Universidad del Valle de Utah, videos impactantes del incidente comenzaron a circular en TikTok, Instagram y X. La mayoría de los videos visualizados por WIRED no contenían advertencias de contenido y muchos comenzaban a reproducirse automáticamente. Alex Mahadevan, director de MediaWise en el Instituto Poynter, afirma: «Es increíble cómo algunos de estos videos todavía están subidos».
Fallos en la moderación
Los investigadores señalan que las plataformas están incumpliendo sus propias normas de moderación en un momento de alta tensión política. El video del asesinato de Kirk explota un vacío político, situándose entre el «contenido gráfico» permitido y la «violencia glorificada» que viola las normas. Martin Degeling, investigador que audita sistemas algorítmicos, comenta: «No creo que sea posible prevenir la distribución inicial, pero las plataformas pueden hacerlo mejor».
La respuesta de las plataformas
TikTok confirmó que no permite contenido «sangriento, espantoso, perturbador o extremadamente violento» y ha implementado salvaguardias adicionales. Meta aplica una etiqueta de «Marcar como sensible» y restringe el contenido a mayores de 18 años. X no respondió a las solicitudes de comentarios sobre si considera el video «excesivamente sangriento» según sus estándares.
Desinformación añadida
En X, el chatbot de IA Grok generó de manera incorrecta que Kirk había sobrevivido al tiroteo. La plataforma no respondió a preguntas sobre esta desinformación. Bluesky, por su parte, está suspendiendo cuentas que alientan la violencia y eliminando videos de primer plano del evento.
Un paisaje digital transformado
Durante los últimos dos años, plataformas como X, TikTok, Facebook e Instagram han reducido sus esfuerzos de moderación de contenidos, eliminando en algunos casos el trabajo de moderadores humanos que actuaban como línea crucial de defensa. Muchas plataformas utilizan herramientas de IA para detectar y etiquetar contenido potencialmente dañino, pero las empresas no siempre comparten especificidades sobre su implementación.
El daño colateral de la viralización
La continua propagación de estos videos tiene implicaciones profundas para la sociedad. Mahadevan advierte: «Todo esto es psicológicamente dañino para nuestra sociedad de formas que aún no entendemos». Se observan publicaciones en X de usuarios que afirman haberse radicalizado tras ver el video del asesinato, no solo leer sobre él. La exposición involuntaria a contenido gráfico violento a través de algoritmos de feed representa un desafío crítico para la seguridad digital de los usuarios.