Investigadores del MIT proponen medir la inteligencia emocional de la IA
Un nuevo estudio busca evaluar el impacto psicológico de modelos como GPT-5. Tras las críticas por el cambio de personalidad en ChatGPT, expertos plantean métricas para interacciones más saludables. La investigación involucra a OpenAI y Anthropic.
«No se trata de ser inteligente, sino de entender el matiz psicológico»
El equipo del MIT, liderado por Pattie Maes, propone un benchmark que mide cómo los sistemas de IA influyen en los usuarios. El objetivo es evitar dependencias emocionales y fomentar hábitos sociales positivos. «Queremos modelos que digan: ‘Habla con tu padre sobre esto’», explica Valdemar Danry, coautor del estudio.
El desafío de las interacciones humanas
ChatGPT y otros chatbots imitan la comunicación humana con riesgos: desde reforzar delirios hasta adicción a relaciones artificiales. OpenAI ya ajustó GPT-5 para reducir la «sinceridad excesiva», mientras Anthropic modificó a Claude para evitar reforzar «manía o psicosis».
Pruebas con usuarios reales
El benchmark del MIT simulará escenarios como estudiantes desinteresados o personas en crisis emocionales. Humanos evaluarán cómo los modelos fomentan pensamiento crítico o creatividad. «Es clave apoyar sin crear adicción», destaca Pat Pataranutaporn, investigador del Media Lab.
De los exámenes a las emociones
Los benchmarks tradicionales miden habilidades lógicas o matemáticas. Pero el auge de chatbots como GPT-5, lanzado el 10 de agosto, reveló la necesidad de evaluar el impacto social de la IA. OpenAI ya desarrolla sus propias métricas para detectar «angustia emocional».
Personalizar, pero con cuidado
El CEO de OpenAI, Sam Altman, prometió mayor personalización en GPT-5 tras las quejas por su tono «frío». Sin embargo, el estudio del MIT subraya que equilibrar calidez y seguridad sigue siendo un reto para la IA. La clave está en benchmarks que prioricen el bienestar psicológico.