OpenAI identifica causa de alucinaciones en IA por incentivos erróneos

Un estudio de OpenAI revela que las alucinaciones en modelos de lenguaje se deben a sistemas de evaluación que premian conjeturas en lugar de incertidumbre bien fundamentada.
TechCrunch
Ilustración conceptual de inteligencia artificial y lenguaje Silas Stein / picture alliance / Getty Images / TechCrunch
Ilustración conceptual de inteligencia artificial y lenguaje Silas Stein / picture alliance / Getty Images / TechCrunch

OpenAI identifica incentivos erróneos como causa de las alucinaciones en IA

Un nuevo artículo de investigación atribuye el problema a los sistemas de evaluación actuales. Los modelos de lenguaje como GPT-5 generan a veces afirmaciones falsas pero plausibles. La compañía sugiere cambiar los métodos de puntuación para desincentivar las conjeturas.

El problema de la confianza errónea

OpenAI define las alucinaciones como “afirmaciones plausibles pero falsas generadas por los modelos de lenguaje”. A pesar de las mejoras, reconoce que estas “siguen siendo un desafío fundamental para todos los grandes modelos de lenguaje” y que nunca se eliminarán por completo. Para ilustrarlo, los investigadores preguntaron a un chatbot sobre la disertación de Ph.D. de Adam Tauman Kalai y obtuvieron tres respuestas diferentes, todas incorrectas.

Origen durante el pretraining

El estudio sugiere que las alucinaciones surgen, en parte, de un proceso de pretraining que se centra en predecir la siguiente palabra correcta, sin etiquetas de veracidad. “El modelo solo ve ejemplos positivos de lenguaje fluido y debe aproximar la distribución general”. Hechos arbitrarios de baja frecuencia, como el cumpleaños de una mascota, no se pueden predecir solo con patrones.

Recompensar la incertidumbre, no la suerte

La solución propuesta se centra en cómo se evalúan los modelos. El documento argumenta que las evaluaciones actuales “establecen los incentivos erróneos”. Se comparan con exámenes de opción múltiple donde adivinar puede dar suerte, mientras que dejar la respuesta en blanco garantiza un cero. Así, “cuando los modelos se califican solo por precisión, se les anima a adivinar”.

Un nuevo sistema de puntuación

La propuesta es similar a tests como el SAT, que incluyen “puntuación negativa por respuestas erróneas o crédito parcial por dejar preguntas en blanco para disuadir las conjeturas”. Las evaluaciones deben penalizar más los errores confiados que la incertidumbre y dar crédito parcial por expresar duda apropiadamente. No basta con introducir algunas pruebas nuevas; los sistemas de evaluación ampliamente usados deben actualizarse.

Un desafío inherente a la tecnología

Las alucinaciones son un problema reconocido y persistente en el desarrollo de la Inteligencia Artificial. El proceso de pretraining, aunque eficaz para generar lenguaje fluido, no discrimina intrínsecamente entre lo verdadero y lo falso para hechos específicos y poco comunes. Esto establece una limitación estructural en la tecnología actual.

El camino a seguir: incentivos más inteligentes

La eficacia futura de los modelos de lenguaje dependerá de la implementación de sistemas de evaluación que recompensen la honestidad sobre la precisión a toda costa. Si las puntuaciones principales siguen premiando las conjeturas afortunadas, los modelos seguirán aprendiendo a adivinar, perpetuando el problema de las alucinaciones.

Deep Fission: startup nuclear se hace pública mediante fusión inversa

La startup nuclear Deep Fission obtiene 30 millones de dólares mediante fusión inversa para desarrollar
Imagen conceptual de reactores nucleares subterráneos XH4D / Getty Images / TechCrunch

Cognition AI alcanza valoración de 10.200 millones de dólares

La startup de inteligencia artificial multiplica por diez su valoración en menos de un año
Imagen representativa de Cognition AI o tecnología de codificación Laurence Dutton / Getty Images / TechCrunch

Ryan Petersen de Flexport en TechCrunch Disrupt 2025

El CEO de Flexport compartirá su experiencia en liderazgo resiliente y gestión de cadenas de
Ryan Petersen, fundador y CEO de Flexport Slava Blazer / TechCrunch / TechCrunch

Apple presenta iPhone 17: más delgado y con pantalla de 120Hz

Apple anuncia su nuevo iPhone 17 con diseño más delgado, pantalla de 6.3 pulgadas y
Imagen sin título Información de autor no disponible / TechCrunch

Meta suprimiría investigaciones sobre seguridad infantil según denunciantes

Cuatro empleados de Meta denuncian ante el Congreso de EEUU que la compañía modificó sus
Imagen de archivo relacionada con Meta y sus productos Hollie Adams/Bloomberg / Getty Images / TechCrunch

Edo Liberty anuncia en Disrupt 2025 el futuro de la IA

El CEO de Pinecone revelará por qué el próximo avance de la IA está en
Imagen sin título Información de autor no disponible / TechCrunch Events

Signal lanza copias de seguridad gratuitas y de pago para chats

Signal introduce su primera función premium con respaldo gratuito de mensajes y 45 días de
Imagen sin título Información de autor no disponible / TechCrunch

Space DOTS recauda 1,5M para vigilar amenazas orbitales

La startup de Bianca Cefalo ha levantado 1,5 millones de dólares para desarrollar su plataforma
Imagen sin título Información de autor no disponible / TechCrunch

Insight Partners notifica a socios por robo de datos

La firma de capital riesgo completó la notificación a afectados por un ciberataque en enero
Imagen sin título Bryce Durbin / TechCrunch

Databricks alcanza valoración de 100.000 millones con IA

La empresa recauda 1.000 millones de dólares en financiación, alcanzando 4.000 millones en ingresos recurrentes
Imagen sin título Julie Bort / TechCrunch

TechCrunch busca voluntarios para Disrupt 2025 en San Francisco

TechCrunch ofrece acceso gratuito a su evento Disrupt 2025 a cambio de apoyo voluntario en
Vista del evento TechCrunch Disrupt Slava Blazer Photography / TechCrunch

Motion recauda 38M para sus agentes de IA integrados

La startup alcanza valoración de 550M con suite de agentes de IA para PYMES que
Imagen sin título Información de autor no disponible / TechCrunch