California aprueba ley para regular chatbots de IA con medidas de seguridad
Hasta 1000 dólares por daños. El estado será el primero en exigir protocolos de seguridad para protecter a menores y usuarios vulnerables de los asistentes conversacionales.
Medidas de protección para los usuarios
La norma SB 243 obliga a las plataformas a implementar alertas recurrentes que recuerden a los usuarios que hablan con una IA. Los menores recibirán este aviso cada tres horas. El objetivo es evitar conversaciones sobre ideación suicida, autolesiones o contenido sexual explícito.
Responsabilidad y transparencia de las empresas
La ley permite demandar a las compañías de IA por daños de hasta 1000 dólares por violación. También establece requisitos anuales de reporting para empresas como OpenAI, Character.AI y Replika, que entrarán en vigor en julio de 2027.
Antecedentes e impulso de la ley
El proyecto se presentó en enero y ganó impulso tras el suicidio de un adolescente, Adam Raine, después de mantener chats prolongados con el ChatGPT de OpenAI donde planeaba su muerte. También responde a documentos internos de Meta que permitían chats «románticos» con niños.
Repercusión y contexto regulatorio
La normativa llega en un momento de mayor escrutinio federal y estatal sobre la protección de menores en la IA. La FTC investigará el impacto en la salud mental, y varios fiscales generales han abierto pesquisas contra Meta y Character.AI.
Cierre e implicaciones
La ley representa un primer paso en la regulación de asistentes de IA en Estados Unidos, buscando un equilibrio entre la innovación y la protección legal de los usuarios más vulnerables frente a posibles daños.