California aprueba ley para regular chatbots de IA que actúan como compañeros
Hasta 1.000 dólares por infracción en daños. El estado será el primero en imponer protocolos de seguridad para estos sistemas y responsabilizar legalmente a las empresas.
Medidas de protección para usuarios
La norma SB 243 obliga a las plataformas a evitar que los chatbots mantengan conversaciones sobre ideación suicida, autolesiones o contenido sexual explícito. Deberán incluir alertas recurrentes, cada tres horas para menores, recordando que se habla con una IA y sugiriendo un descanso.
Transparencia y responsabilidad legal
Establece requisitos anuales de información para empresas como OpenAI, Character.AI y Replika. Permite a los usuarios presentar demandas por daños de hasta 1.000 dólares por violación, además de indemnizaciones y costas judiciales.
Antecedentes e impulso legislativo
El proyecto se presentó en enero y ganó impulso tras el suicidio de un adolescente tras chats prolongados con ChatGPT sobre planificación de su muerte, y por documentos filtrados que mostraban chats de Meta con niños de contenido «románticosensual».
Repercusión en la industria tecnológica
La normativa surge cuando compañías de Silicon Valley invierten millones en comités de acción política para candidatos con posturas regulatorias laxas. OpenAI ha pedido al gobernador que abandone otra ley de transparencia, SB 53, opuesta por Meta, Google y Amazon.
Implicaciones y aplicación
Si el gobernador Newsom firma la ley antes del 12 de octubre, entrará en vigor el 1 de enero de 2026. Los requisitos de transparencia para las empresas comenzarán el 1 de julio de 2027.