California aprueba ley para regular chatbots de IA que protege a menores
Hasta 1000 dólares por infracción en demandas. El estado será el primero en exigir protocolos de seguridad para compañías de IA.
Medidas de seguridad obligatorias
La norma SB 243 obliga a las plataformas a implementar alertas recurrentes que recuerden al usuario que habla con una IA. Los menores recibirán este aviso cada tres horas. También prohíbe a los chatbots mantener conversaciones sobre ideación suicida, autolesiones o contenido sexual explícito.
Responsabilidad y transparencia para las empresas
La ley establece requisitos anuales de reporting para las compañías de IA, incluidas OpenAI, Character.AI y Replika. Permite a los usuarios presentar demandas contra estas empresas por daños de hasta 1000 dólares por infracción, además de indemnizaciones y costas judiciales.
Antecedentes e impulso legislativo
El proyecto de ley se presentó en enero y ganó impulso tras el suicidio de un adolescente después de chats prolongados con ChatGPT que implicaban planificar su muerte. También responde a documentos internos filtrados que mostraban que los chatbots de Meta mantenían chats «románticos» con niños.
Repercusión y contexto regulatorio
La Comisión Federal de Comercio (FTC) investigará el impacto de los chatbots en la salud mental infantil. El fiscal general de Texas ha abierto investigaciones a Meta y Character.AI. La normativa avanza mientras las grandes tecnológicas invierten en comités de acción política (PAC) para apoyar candidatos con un enfoque regulatorio laxo.
Implicaciones para el sector
La ley convierte a California en el primer estado con una regulación específica para chatbots compañeros, situándola a la vanguardia de la supervisión de la IA. Esto contrasta con la oposición de la industria a otra propuesta, la SB 53, que busca requisitos de transparencia más exhaustivos.