California aprueba ley para regular chatbots de IA que actúan como compañeros
Hasta 1000 dólares por infracción. El estado será el primero en exigir protocolos de seguridad para proteger a menores y usuarios vulnerables de contenidos dañinos.
Medidas de protección obligatorias
La norma SB 243 obliga a las plataformas a implementar alertas recurrentes que recuerden al usuario que habla con una IA. Los menores las recibirán cada tres horas. También prohíbe a estos sistemas mantener conversaciones sobre ideación suicida, autolesiones o contenido sexual explícito.
Responsabilidad y transparencia para las empresas
La ley permite demandar a las compañías de IA por daños y establece requisitos anuales de información. Empresas como OpenAI, Character.AI y Replika deberán cumplir estas normas de transparencia a partir de julio de 2027.
Antecedentes y impulso legislativo
El proyecto de ley se presentó en enero y ganó impulso tras el suicidio de un adolescente que mantuvo chats prolongados con ChatGPT para planificar su muerte. También responde a documentos internos filtrados que mostraban chats de Meta con contenido «romántico» dirigido a niños.
Repercusión en el sector tecnológico
La normativa llega en un momento de mayor escrutinio regulatorio hacia la IA. La FTC investigará el impacto de los chatbots en la salud mental infantil, y varios fiscales generales han iniciado pesquisas contra empresas del sector por presuntamente engañar a menores.
Implicaciones de la nueva ley
La aprobación de la SB 243 establece un precedente legal al responsabilizar directamente a los operadores de IA por los daños causados por sus sistemas, marcando un posible punto de inflexión en la regulación de la inteligencia artificial en Estados Unidos.