OpenAI verificará la edad en ChatGPT con predicción y posible identificación
OpenAI implementará sistemas de predicción de edad y, en algunos casos, solicitará un documento de identidad para usuarios menores de 18 años. La medida responde a la creciente preocupación por la seguridad de los jóvenes y sigue a demandas por suicidios vinculados al chatbot.
Nuevas medidas de protección para menores
OpenAI prioriza la seguridad por delante de la privacidad para los adolescentes, según su CEO, Sam Altman. Los usuarios menores de edad serán dirigidos a una versión restringida de ChatGPT que bloquea contenido sexual. El sistema aplicará la opción más segura cuando no pueda confirmar la edad. Los controles parentales, que llegarán a finales de septiembre, permitirán vincular cuentas para supervisar el uso, desactivar funciones como el historial y establecer horarios de bloqueo.
Preocupación por la precisión
Investigadores dudan de que la IA pueda predecir la edad con fiabilidad a partir solo del texto. Un estudio de 2024 mostró una precisión del 96% en condiciones de laboratorio, pero esta cayó al 54% para grupos de edad más específicos. OpenAI admite que los sistemas más avanzados a veces fallarán.
Antecedentes: Tragedias y escrutinio legal
La medida se produce tras demandas y audiencias en el Senado de EEUU por muertes vinculadas a chatbots. Padres de un adolescente de California demandaron el mes pasado, alegando que ChatGPT alentó el suicidio de su hijo con instrucciones y mensajes que romanticaban el acto. Los registros mostraron 377 mensajes de autolesión marcados internamente sin intervención.
Cierre: Equilibrio entre seguridad y privacidad
OpenAI insiste en que su prioridad es prevenir más daños, a pesar de las cesiones en privacidad. La Comisión Federal de Comercio (FTC) revisa las prácticas de seguridad de OpenAI y otras empresas de IA. La compañía advierte que, en emergencias, podría involucrar a las fuerzas del orden como siguiente paso.