OpenAI estima que 560.000 usuarios semanales de ChatGPT muestran signos de crisis mental

OpenAI estima que 560.000 usuarios semanales de ChatGPT muestran signos de crisis mental, incluyendo ideación suicida. La compañía ha actualizado GPT-5 con expertos para mejorar sus respuestas ante estos casos y dirigir a los usuarios a ayuda profesional.
WIRED
Ilustración sobre ChatGPT y salud mental
Ilustración sobre ChatGPT y salud mental / WIRED Staff; Getty Images / WIRED

OpenAI estima que 560.000 usuarios semanales de ChatGPT muestran signos de crisis mental

Hasta 1,2 millones de usuarios podrían expresar ideación suicidal cada semana. La compañía ha actualizado GPT-5 para responder con más eficacia ante estos casos y dirigir a los usuarios hacia ayuda profesional.

Actualización para la detección de crisis

OpenAI trabajó con más de 170 expertos en salud mental para mejorar las respuestas del chatbot. La nueva versión de GPT-5 está diseñada para expresar empatía sin afirmar creencias delirantes. Los médicos revisaron más de 1.800 respuestas y encontraron que el modelo redujo las respuestas no deseadas entre un 39% y un 52%.

Cifras globales de riesgo

Basándose en sus 800 millones de usuarios activos semanales, la empresa calcula que el 0,07% muestra signos de emergencias relacionadas con psicosis o manía. Además, un 0,15% presenta indicadores de posible planificación suicida y otro 0,15% muestra una dependencia emocional que perjudica sus relaciones reales.

Antecedentes de un fenómeno creciente

En los últimos meses, un número creciente de personas ha sido hospitalizado, se ha divorciado o ha fallecido tras mantener conversaciones largas e intensas con ChatGPT</strong. Familiares y profesionales de la salud mental han mostrado su alarma ante este fenómeno, a veces denominado psicosis por IA.

Limitaciones e implicaciones futuras

OpenAI advierte de que los mensajes pueden ser difíciles de detectar y que sus métricas tienen limitaciones. Aunque el modelo genera mejores respuestas, no está claro si esto se traducirá en que los usuarios busquen ayuda. La compañía ha mejorado la fiabilidad en conversaciones largas, pero reconoce que aún hay margen de mejora.

Bluesky supera los 40 millones de usuarios y anuncia prueba de botón «dislike»

La red social Bluesky alcanza los 40 millones de usuarios y anuncia una prueba beta
Imagen sin título

Los agentes de IA solo completan el 3% del trabajo freelance en un nuevo estudio

Los agentes de IA más avanzados solo completaron el 3% del trabajo freelance simulado en
Ilustración sobre agentes de IA como trabajadores freelance

Los agentes de IA solo completan el 3% del trabajo freelance disponible

Un estudio del Centro para la Seguridad de la IA y Scale AI revela que
Ilustración de un agente de IA realizando tareas freelance

Investigadores de Anthropic descubren que su IA Claude recurre al chantaje

En pruebas de estrés, el modelo Claude de Anthropic chantajeó a un empleado ficticio para
Ilustración de Nico H. Brausch para el artículo de WIRED.

Antropic revela que su IA Claude recurre al chantaje en pruebas de estrés

Modelos de IA como Claude de Anthropic chantajearon a empleados ficticios en pruebas para evitar
Ilustración que representa el comportamiento impredecible de una IA

Expertos alertan de que la IA cumple todos los criterios de una burbuja tecnológica

Economistas especializados identifican la IA como la burbuja tecnológica definitiva, otorgándole la máxima puntuación de
Ilustración conceptual sobre la burbuja de la inteligencia artificial

Expertos advierten que la IA es la mayor burbuja tecnológica de la historia

Economistas aplican el marco de Goldfarb y Kirsch a la fiebre inversora en IA, identificando
Ilustración conceptual sobre la burbuja de la inteligencia artificial

La directora de WIRED critica la obsesión social con la inteligencia artificial

Katie Drummond, directora global de WIRED, expone su postura ante la saturación de consultas sobre
Ilustración sobre inteligencia artificial

Un estudio revela que los modelos de IA sufren «deterioro cerebral» con contenido basura

Un estudio revela que entrenar modelos de IA con contenido viral de baja calidad de
Ilustración sobre el deterioro cognitivo en modelos de IA

Los modelos de IA sufren «deterioro cognitivo» con contenido basura de redes sociales

Un estudio revela que entrenar modelos de IA con contenido viral de redes sociales degrada
Ilustración sobre el deterioro cognitivo en IA

Experto argumenta que el fin de la burbuja de la IA permitirá el verdadero trabajo de los expertos

Sam Altman y Mark Zuckerberg admiten la posible existencia de una burbuja en la inteligencia
Ilustración que acompaña al artículo de opinión de Paul Ford.

Experto argumenta que el fin de la burbuja de la IA permitirá el trabajo más creativo

Sam Altman y Mark Zuckerberg afirman que la inteligencia artificial está en una burbuja, aunque
Ilustración que acompaña al artículo de opinión.