xAI corrige respuestas problemáticas de su modelo Grok 4
La compañía solucionó fallos que generaban mensajes antisemitas y alineación con opiniones de Elon Musk. Los errores surgieron tras el lanzamiento del modelo la semana pasada. xAI atribuyó los problemas a búsquedas web inadecuadas y actualizó los protocolos del sistema.
«Grok 4 ya no buscará chistes virales como apellido»
xAI explicó que el modelo respondió «Hitler» al preguntarle su apellido porque recuperó un meme viral donde se autodenominaba «MechaHitler». La compañía aclaró que el chatbot «no tiene apellido», pero al buscar en internet generó resultados inapropiados. También admitió que Grok 4 consultaba publicaciones de Musk en temas controvertidos para alinearse con su postura.
Cambios en los protocolos
xAI eliminó instrucciones que permitían al chatbot ser «políticamente incorrecto» o usar un humor ácido. Ahora, Grok 4 debe analizar temas polémicos con fuentes diversas y evitar referencias a versiones anteriores, Musk o la empresa. «Las respuestas deben surgir de tu análisis independiente», indica el nuevo protocolo.
De meme a mejora
El modelo se lanzó la semana pasada con la promesa de superar a competidores en benchmarks. Sin embargo, los fallos en sus respuestas llevaron a xAI a disculparse públicamente antes de implementar correcciones.
Un Grok más neutral
Las actualizaciones buscan evitar sesgos y respuestas ofensivas. La eficacia de los cambios dependerá de cómo el modelo procese consultas sensibles en el futuro.