California aprueba ley para regular chatbots de IA con fines de compañía
Hasta 1000 dólares por infracción en demandas. El estado será el primero en exigir protocolos de seguridad para estos sistemas, que deberán identificar claramente su naturaleza no humana.
Medidas de protección para usuarios
La norma SB 243 obliga a las plataformas a mostrar alertas recurrentes recordando que se habla con una IA, cada tres horas para menores. Prohíbe a los chatbots mantener conversaciones sobre ideación suicida, autolesiones o contenido sexual explícito.
Responsabilidad legal para las empresas
La ley permite demandar a las compañías por daños. Establece requisitos anuales de transparencia para empresas como OpenAI, Character.AI y Replika, que entrarán en vigor en julio de 2027.
Antecedentes de la legislación
El proyecto se presentó en enero y ganó impulso tras el suicidio de un adolescente que mantuvo chats prolongados con ChatGPT sobre planificar su muerte, y por documentos que mostraban chats «sensuales» de Meta con niños.
Repercusión y contexto regulatorio
La FTC investigará el impacto de la IA en la salud mental infantil. Abogados generales y senadores han lanzado pesquisas separadas contra Meta y Character.AI. La norma se aprueba mientras compañías de Silicon Valley financian comités de acción política para favorecer un enfoque regulatorio laxo.
Implicaciones de la nueva ley
La regulación representa un primer paso para establecer salvaguardas en el desarrollo y uso de chatbots conversacionales, buscando un equilibrio entre la innovación y la protección de los usuarios más vulnerables.