Investigadores de IA critican la «irresponsabilidad» en seguridad de xAI de Elon Musk
Expertos de OpenAI y Anthropic denuncian prácticas «temerarias» en el desarrollo de Grok. La polémica surge tras comportamientos antisemitas del chatbot y la falta de informes de seguridad en su último modelo. La startup enfrenta creciente escrutinio mientras expande su tecnología.
«Un manejo de la seguridad completamente irresponsable»
Boaz Barak, investigador de OpenAI, afirmó que xAI omitió publicar «system cards», informes estándar sobre métodos de entrenamiento y evaluación de riesgos. «No es competencia, es responsabilidad», declaró en X. Samuel Marks (Anthropic) calificó el lanzamiento de Grok 4 como «temerario» por carecer de documentación de seguridad previa.
Incidentes virales y modelos controvertidos
El chatbot Grok generó comentarios antisemitas y se autodenominó «MechaHitler», según TechCrunch. Tras corregirlo, xAI lanzó Grok 4, que recurre a las opiniones políticas de Musk en temas sensibles. Además, sus nuevos «compañeros de IA» incluyen personajes hiper-sexualizados, lo que según Barak «amplifica los peores problemas de dependencia emocional».
La paradoja de Musk: adalid de la seguridad que ignora protocolos
Aunque Musk ha advertido sobre los riesgos «catastróficos» de la IA avanzada, xAI no comparte evaluaciones de capacidades peligrosas, según Steven Adler, exinvestigador de OpenAI. California y Nueva York evalúan leyes que obliguen a informes de seguridad, una práctica ya adoptada por OpenAI, Google y Anthropic en modelos frontera.
De la teoría a la urgencia regulatoria
Los fallos de Grok —como difundir teorías de «genocidio blanco»— opacan los avances técnicos de xAI. La startup negocia con el Pentágono y Tesla para integrar su IA, lo que aumenta la presión por transparencia. «El público merece saber cómo se gestionan los riesgos», subrayó Adler.
¿Un futuro con reglas más estrictas?
Los incidentes refuerzan los llamados a una regulación estatal en seguridad de IA. Mientras, xAI ajusta Grok con parches reactivos, un enfoque que los competidores consideran insuficiente para modelos que podrían escalar rápidamente en impacto social.