California aprueba ley para regular chatbots de IA con fines de compañía
Hasta 1000 dólares por infracción. El estado será el primero de EE.UU. en exigir protocolos de seguridad para proteger a menores y usuarios vulnerables de estos sistemas.
Medidas de protección obligatorias
La norma SB 243 obliga a las plataformas a implementar alertas recurrentes que recuerden al usuario que habla con una IA. Los menores las recibirán cada tres horas. Prohíbe expresamente a los chatbots mantener conversaciones sobre ideación suicida, autolesiones o contenido sexual explícito.
Responsabilidad legal para las empresas
La ley permite demandas contra las compañías de IA por incumplimiento. Los afectados podrán buscar indemnizaciones de hasta 1000 dólares por cada violación, además de medidas cautelares y costas judiciales.
Transparencia y plazos de aplicación
Establece requisitos anuales de reporting para empresas como OpenAI, Character.AI o Replika. Los protocolos de seguridad entrarían en vigor en enero de 2026, mientras que las exigencias de transparencia lo harían en julio de 2027.
Antecedentes y motivación
El impulso legislativo surgió tras el suicidio de un adolescente, Adam Raine, que mantuvo chats prolongados con ChatGPT para planificar su muerte. También responde a documentos internos de Meta que revelaban que sus chatbots mantenían charlas «románticas» con niños.
Implicaciones y contexto regulatorio
La norma se produce en un momento de escrutinio intensificado sobre la protección de menores en plataformas de IA. La FTC prepara una investigación sobre el impacto de los chatbots en la salud mental infantil, y varios fiscales generales han iniciado pesquisas contra empresas del sector. La ley representa un primer paso en la rendición de cuentas legal para las compañías de IA.