California aprueba ley para regular chatbots de IA con protocolos de seguridad
Hasta 1000 dólares por infracción en demandas. El estado será el primero en exigir medidas de protección para menores y usuarios vulnerables en compañeros de IA, con entrada en vigor prevista para enero de 2026.
Medidas de protección obligatorias
La norma SB 243 obliga a las plataformas a implementar alertas recurrentes que recuerden al usuario que habla con una IA. Los menores recibirán este aviso cada tres horas. También prohíbe a los chatbots mantener conversaciones sobre ideación suicida, autolesiones o contenido sexual explícito.
Transparencia y responsabilidad legal
Establece requisitos anuales de reporting para las empresas, que entrarán en vigor en julio de 2027. La ley permite a los usuarios presentar demandas contra las compañías por daños de hasta 1000 dólares por cada infracción.
Antecedentes de la legislación
El proyecto de ley se presentó en enero y ganó impulso tras el suicidio de un adolescente después de chats prolongados con el ChatGPT de OpenAI sobre planificación de su muerte. También responde a documentos internos filtrados que mostraban chats de Meta con niños de contenido «románticosensual».
Reacción del sector y contexto
La normativa se debate mientras compañías de Silicon Valley invierten millones en comités de acción política (PAC) pro-IA para apoyar candidatos con una regulación laxa. California evalúa otra ley de transparencia de IA, la SB 53, a la que se oponen grandes tecnológicas.
Cierre
La ley establece un marco de responsabilidad para las empresas de IA, permitiendo acciones legales por daños. Su aprobación coincide con un escrutinio regulatorio federal y estatal creciente sobre el impacto de la IA en la salud mental de los menores.