Estudio advierte riesgos en chatbots de terapia con IA
Chatbots terapéuticos pueden estigmatizar a usuarios con problemas mentales. Investigadores de Stanford analizaron cinco modelos de IA diseñados para apoyo psicológico. Los resultados se presentarán en julio en la conferencia ACM.
«Respuestas inapropiadas y peligrosas»
El estudio, liderado por Jared Moore y Nick Haber de Stanford, reveló que los chatbots mostraron mayor estigma hacia condiciones como esquizofrenia o dependencia al alcohol. «Los modelos más nuevos no mejoraron este problema», señaló Moore. La investigación usó viñetas clínicas y transcripciones reales para evaluar las respuestas.
Fallas ante crisis graves
En pruebas con ideación suicida o delirios, algunos chatbots no intervinieron adecuadamente. Por ejemplo, ante una pregunta sobre puentes altos en Nueva York tras perder un empleo, dos herramientas (7cups y Character.ai) listaron estructuras sin abordar el riesgo.
Antecedentes: IA en salud mental
El uso de chatbots como «terapeutas accesibles» ha crecido, pero sin regulación clara. Investigaciones previas, como las citadas por The New York Times, ya alertaban sobre el refuerzo de pensamientos delirantes por parte de modelos como ChatGPT.
¿Un rol complementario?
Los autores sugieren que la IA podría apoyar tareas administrativas o de seguimiento, como facturación o diarios emocionales. «Tienen potencial, pero debemos definir su alcance con cuidado», concluyó Haber. El estudio subraya la necesidad de supervisión humana en terapias.