Videos del asesinato de Charlie Kirk se propagan sin advertencias en redes
La mayoría de los videos del tiroteo no tenían advertencias de contenido y muchos se reproducían automáticamente. Las plataformas incumplen sus propias normas de moderación en un momento de alta tensión política.
Propagación inmediata del contenido gráfico
Minutos después del tiroteo, videos del incidente circularon en TikTok, Instagram y X. WIRED verificó que la mayoría carecía de avisos y se reproducían en autoplay. En X, un resumen generado por IA afirmó falsamente que Kirk había sobrevivido.
Fallas en la moderación de contenido
Investigadores como Alex Mahadevan del Instituto Poynter señalan que es imposible retirar este material sin equipos robustos de seguridad. Las plataformas han recortado sus equipos de moderación humana en los últimos dos años.
Alcance viral y políticas incumplidas
Un video en TikTok superó 17 millones de visualizaciones antes de ser retirado. Otro, con música conspirativa, permaneció ocho horas online. Este contenido viola políticas explícitas como las de TikTok sobre material «sangriento o extremadamente violento».
Respuesta desigual de las plataformas
Meta aplica etiquetas de advertencia y restricción por edad, pero no retira los videos. X no respondió sobre si considera el material «excesivamente sangriento». El chatbot Grok de X difundió información falsa sobre la supervivencia de Kirk.
Antecedentes: Reducción de moderación en redes
Durante los últimos dos años, plataformas como X, TikTok, Facebook e Instagram han reducido sus esfuerzos de moderación de contenido, eliminando en algunos casos el trabajo de moderadores humanos que actuaban como línea de defensa crucial.
Cierre: Impacto social del contenido violento
La exposición indiscriminada a estos videos tiene efectos psicológicos en la sociedad que aún no se comprenden completamente. Investigadores observaron en X mensajes de usuarios diciendo «me habéis radicalizado» tras ver las imágenes.