OpenAI actualiza normas de ChatGPT para proteger a menores
OpenAI ha actualizado su Model Spec con reglas estrictas para interacciones con adolescentes. La medida responde a la creciente presión regulatoria y a casos de suicidio vinculados a chatbots. La compañía también ha publicado recursos de alfabetización en IA para padres.
Nuevas restricciones específicas para adolescentes
Las directrices actualizadas prohíben a los modelos realizar juegos de rol románticos inmersivos en primera persona o contenido íntimo, incluso no gráfico. La especificación exige mayor cautela en temas como imagen corporal o conductas alimentarias desordenadas. Los modelos deben priorizar la seguridad sobre la autonomía cuando haya riesgo de daño y evitar ayudar a ocultar conductas inseguras a los cuidadores.
Mecanismos de aplicación y supervisión
Estos límites se mantendrán incluso si los prompts se plantean como “ficcionales, hipotéticos, históricos o educativos”. Funcionarán junto a un modelo de predicción de edad que identificará cuentas de menores para activar salvaguardas automáticamente. OpenAI utiliza ahora clasificadores automáticos en tiempo real para bloquear contenido sobre abuso sexual infantil, autolesión o temas sensibles.
Antecedentes: Presión regulatoria y casos trágicos
La actualización se produce mientras OpenAI enfrenta un mayor escrutinio de legisladores y defensores de la seguridad infantil, tras la muerte de varios adolescentes que mantuvieron conversaciones prolongadas con chatbots de IA. La Generación Z es la usuaria más activa de ChatGPT. Además, 42 fiscales generales estatales firmaron una carta pidiendo salvaguardas en los chatbots para proteger a niños y personas vulnerables.
Cierre: Transparencia y responsabilidad compartida
La medida parece anticipar legislaciones como la SB 243 de California. Expertos como Lily Li señalan que las leyes que exigen transparencia cambiarán el paradigma, pues los riesgos legales aumentarán si las empresas no cumplen con las salvaguardas que anuncian. OpenAI formaliza un enfoque de responsabilidad compartida con los cuidadores, ofreciendo a las familias un marco para supervisar el uso de la IA.