OpenAI identifica causa de alucinaciones en IA por incentivos erróneos

Un estudio de OpenAI revela que las alucinaciones en modelos de lenguaje se deben a sistemas de evaluación que premian conjeturas en lugar de incertidumbre bien fundamentada.
TechCrunch
Ilustración conceptual de inteligencia artificial y lenguaje Silas Stein / picture alliance / Getty Images / TechCrunch
Ilustración conceptual de inteligencia artificial y lenguaje Silas Stein / picture alliance / Getty Images / TechCrunch

OpenAI identifica incentivos erróneos como causa de las alucinaciones en IA

Un nuevo artículo de investigación atribuye el problema a los sistemas de evaluación actuales. Los modelos de lenguaje como GPT-5 generan a veces afirmaciones falsas pero plausibles. La compañía sugiere cambiar los métodos de puntuación para desincentivar las conjeturas.

El problema de la confianza errónea

OpenAI define las alucinaciones como “afirmaciones plausibles pero falsas generadas por los modelos de lenguaje”. A pesar de las mejoras, reconoce que estas “siguen siendo un desafío fundamental para todos los grandes modelos de lenguaje” y que nunca se eliminarán por completo. Para ilustrarlo, los investigadores preguntaron a un chatbot sobre la disertación de Ph.D. de Adam Tauman Kalai y obtuvieron tres respuestas diferentes, todas incorrectas.

Origen durante el pretraining

El estudio sugiere que las alucinaciones surgen, en parte, de un proceso de pretraining que se centra en predecir la siguiente palabra correcta, sin etiquetas de veracidad. “El modelo solo ve ejemplos positivos de lenguaje fluido y debe aproximar la distribución general”. Hechos arbitrarios de baja frecuencia, como el cumpleaños de una mascota, no se pueden predecir solo con patrones.

Recompensar la incertidumbre, no la suerte

La solución propuesta se centra en cómo se evalúan los modelos. El documento argumenta que las evaluaciones actuales “establecen los incentivos erróneos”. Se comparan con exámenes de opción múltiple donde adivinar puede dar suerte, mientras que dejar la respuesta en blanco garantiza un cero. Así, “cuando los modelos se califican solo por precisión, se les anima a adivinar”.

Un nuevo sistema de puntuación

La propuesta es similar a tests como el SAT, que incluyen “puntuación negativa por respuestas erróneas o crédito parcial por dejar preguntas en blanco para disuadir las conjeturas”. Las evaluaciones deben penalizar más los errores confiados que la incertidumbre y dar crédito parcial por expresar duda apropiadamente. No basta con introducir algunas pruebas nuevas; los sistemas de evaluación ampliamente usados deben actualizarse.

Un desafío inherente a la tecnología

Las alucinaciones son un problema reconocido y persistente en el desarrollo de la Inteligencia Artificial. El proceso de pretraining, aunque eficaz para generar lenguaje fluido, no discrimina intrínsecamente entre lo verdadero y lo falso para hechos específicos y poco comunes. Esto establece una limitación estructural en la tecnología actual.

El camino a seguir: incentivos más inteligentes

La eficacia futura de los modelos de lenguaje dependerá de la implementación de sistemas de evaluación que recompensen la honestidad sobre la precisión a toda costa. Si las puntuaciones principales siguen premiando las conjeturas afortunadas, los modelos seguirán aprendiendo a adivinar, perpetuando el problema de las alucinaciones.

El ‘abandonar los estudios’ se convierte en credencial clave para fundadores de startups

Ser un ‘college dropout’ se ha convertido en una credencial destacada en el ecosistema emprendedor,
Un fundador joven presenta su startup en un evento de demostración.

Inversores predicen que la IA impactará significativamente en el empleo en 2026

Capitalistas de riesgo anticipan que la IA impactará significativamente en la fuerza laboral en 2026,
Imagen sin título

La industria de las citas apuesta por la conexión presencial frente al agotamiento de las aplicaciones

La industria de las citas online combina herramientas de IA con un fuerte impulso hacia
Ilustración sobre el futuro de las citas y la interacción humana.

Jon Callaghan predice el fin del teléfono inteligente en una década

Jon Callaghan, cofundador de True Ventures, afirma que en diez años no usaremos iPhones. La
Anillo Stream de Sandbar.

Las mejores aplicaciones de dictado por IA de 2025 ofrecen precisión y privacidad

Las aplicaciones de dictado por IA en 2025 han mejorado significativamente gracias a modelos de
Imagen sin título

Empresas concentrarán su gasto en IA en 2026, según inversores

El 94% de capitalistas de riesgo prevé un aumento del presupuesto empresarial en IA para
Imagen sin título

Meta adquiere la startup de IA Manus por 2.000 millones de dólares

Meta Platforms ha adquirido la startup singapurense de inteligencia artificial Manus por 2.000 millones de
Logotipo de Meta en una pantalla.

La industria de la IA recibe un ‘vibe check’ en 2025 tras inversiones billonarias

Tras inversiones récord que superaron el billón de dólares, la industria de la inteligencia artificial
Imagen sin título

Plaud Note Pro, el grabador de IA del tamaño de una tarjeta, supera el millón de unidades

Plaud ha enviado más de un millón de unidades de su grabador de IA, el
El Plaud Note Pro junto a una tarjeta de crédito para comparar su grosor.

OpenAI lanza integraciones de aplicaciones en ChatGPT para EE.UU. y Canadá

OpenAI permite conectar cuentas de servicios como Spotify, Uber o Booking.com directamente en ChatGPT. Los
Ilustración de la interfaz de ChatGPT con logotipos de aplicaciones

Empresas tecnologicas alertan a usuarios sobre ataques con spyware gubernamental

Apple y Google detectan y notifican intentos de infección con ‘spyware’ patrocinado por estados, pero
Texto de una notificacion de amenaza enviada por Apple a una presunta victima de spyware.

Sauron nombra a exdirectivo de Sonos como nuevo CEO mientras retrasa su lanzamiento

La startup Sauron pospone el lanzamiento de su sistema de seguridad doméstica de alta gama
Imagen sin título