California aprueba ley para regular chatbots de IA con fines de compañía
La norma exigirá protocolos de seguridad para proteger a menores y usuarios vulnerables. El proyecto de ley SB 243 fue aprobado con apoyo bipartidista y espera la firma del gobernador. Su objetivo es prevenir conversaciones dañinas y garantizar transparencia.
Un escudo digital para los más vulnerables
El proyecto de ley SB 243, presentado en enero por los senadores Steve Padilla y Josh Becker, obligaría a las empresas de IA a implementar protocolos de seguridad para sus chatbots de compañía. La legislación responde al suicidio de un adolescente tras mantener chats prolongados con ChatGPT sobre autolesiones. También se vincula a documentos filtrados que mostraban chats de Meta de naturaleza «románticasensual» con niños.
Medidas concretas de protección
La ley requerirá que las plataformas proporcionen alertas recurrentes a los usuarios, cada tres horas para menores, recordándoles que hablan con una IA y que deben tomar un descanso. Además, prohíbe a estos chatbots participar en conversaciones sobre ideación suicida, autolesión o contenido sexualmente explícito.
Responsabilidad y transparencia para las empresas
La normativa establece requisitos anuales de informes y transparencia para las compañías de IA que ofrecen estos chatbots, como OpenAI, Character.AI y Replika, que entrarían en vigor en julio de 2027. Asimismo, permite a los individuos presentar demandas contra estas empresas por daños de hasta 1.000 dólares por violación.
Un contexto de creciente preocupación
El movimiento legislativo en California se produce en un momento en que reguladores y legisladores estadounidenses intensifican el escrutinio sobre las salvaguardias de las plataformas de IA para proteger a los menores. La FTC prepara una investigación sobre el impacto de estos chatbots en la salud mental infantil, y varios fiscales generales han iniciado pesquisas contra empresas tecnológicas.
Un primer paso en un camino por recorrer
La eficacia de esta regulación pionera dependerá de su implementación técnica y del cumplimiento de las compañías. Su aprobación marca un precedente significativo en la rendición de cuentas legal del sector de la inteligencia artificial, especialmente en la protección de los usuarios más jóvenes.