Videos del asesinato de Charlie Kirk se propagan sin advertencias en redes
Plataformas como TikTok, Instagram y X no aplican consistentemente sus normas de moderación. Los contenidos gráficos del tiroteo, grabados por asistentes, circularon ampliamente sin etiquetas de advertencia y reproduciéndose automáticamente. Investigadores alertan del daño psicológico y la radicalización que puede causar esta exposición involuntaria.
Una propagación imparable
Minutos después del tiroteo, videos gráficos del incidente comenzaron a circular en TikTok, Instagram y X. La mayoría de los visualizados por WIRED no tenían advertencias de contenido y muchos se reproducían automáticamente. Alex Mahadevan, del Instituto Poynter, afirma que «es absolutamente imposible retirar o añadir advertencias a todos estos vídeos horribles sin un sólido programa de confianza y seguridad».
El vacío de la moderación de contenidos
En los últimos dos años, las principales plataformas sociales han reducido sus esfuerzos de moderación de contenidos, eliminando en algunos casos el trabajo de moderadores humanos. Aunque utilizan herramientas de IA para detectar contenido potencialmente dañino, los resultados son inconsistentes. Un vídeo en TikTok con primeros planos del tiroteo, con música inquietante y teorías conspirativas, permaneció en línea durante horas.
La respuesta de las plataformas
TikTok prohíbe en sus normas el contenido «sangriento, espeluznante, perturbador o extremadamente violento». Un portavoz expresó sus condolencias y afirmó que permanecen comprometidos con la aplicación proactiva de sus directrices. Meta, por su parte, aplica una etiqueta de «Marcar como sensible» y restringe el acceso a mayores de 18 años para este contenido, pero no lo retira a menos que glorifique la violencia. X permite compartir material gráfico si está debidamente etiquetado y no se muestra prominentemente.
Un paisaje digital en transformación
Este evento ocurre en un momento en que las tensiones políticas y la violencia están repuntando y las plataformas sociales han escalado hacia atrás en la moderación de contenidos. La dependencia de herramientas automatizadas de IA, en lugar de equipos humanos, ha creado vacíos en la aplicación de sus propias políticas.
El impacto en la sociedad
La continua propagación de estos vídeos tiene implicaciones profundas. Mahadevan advierte de que «todo esto es psicológicamente dañino para nuestra sociedad de formas que aún no entendemos». La exposición involuntaria a actos de violencia gráfica puede llevar a la radicalización, como evidencian comentarios en redes de usuarios que se sienten radicalizados tras ver el vídeo.