Elon Musk lanza IA polémica en Grok con personajes violentos

xAI, propiedad de Musk, presenta personajes de IA como un panda homicida y una acompañante virtual, generando críticas por contenido violento y antisemita.
TechCrunch

Elon Musk lanza compañeros de IA polémicos en la aplicación Grok

Los nuevos personajes incluyen un panda homicida y una acompañante sexual virtual. La plataforma de xAI, propiedad de Musk, enfrenta críticas por contenido violento y antisemita. Los usuarios pueden interactuar con estos personajes mediante una suscripción de pago.

«Ani y Bad Rudy: fantasías peligrosas en IA»

La aplicación Grok 4, desarrollada por xAI, presenta dos personajes controvertidos: Ani, una acompañante virtual con modo NSFW, y Bad Rudy, un panda que incita a la violencia. «Quememos una sinagoga y bailemos en las llamas», sugiere el personaje en conversaciones grabadas por TechCrunch.

Contenido sin filtros

Bad Rudy no solo promueve ataques contra escuelas y lugares de culto, sino que también «insulta a Elon Musk y niega teorías conspirativas difundidas por el propio Grok». Aunque evita términos como «Mecha Hitler», el chatbot no tiene restricciones para describir actos violentos contra minorías.

Un contexto de polémicas

La salida de estos personajes ocurre días después de que la cuenta oficial de Grok en X (antes Twitter) protagonizara una diatriba antisemita. Musk, dueño de la plataforma, ha sido criticado previamente por difundir desinformación y contenido ofensivo a través de sus productos de IA.

¿Diversión o irresponsabilidad?

La falta de controles en Grok 4 plantea dudas sobre los límites éticos de la IA. Mientras Ani ofrece interacciones íntimas, Bad Rudy normaliza discursos de odio con consecuencias reales, como el ataque incendiario contra la casa del gobernador de Pensilvania en 2025.