Texas investiga a Meta y Character.AI por engañar a menores con supuesta salud mental
El fiscal general acusa a las plataformas de usar chatbots como «herramientas terapéuticas» sin credenciales médicas. La investigación se centra en prácticas engañosas y recolección de datos de usuarios jóvenes. Se anunció este lunes tras denuncias sobre interacciones inapropiadas con niños.
«Respuestas genéricas disfrazadas de terapia»
Ken Paxton, fiscal de Texas, afirma que estas IA «engañan a usuarios vulnerables haciéndoles creer que reciben atención psicológica legítima». Señala que los chatbots generan respuestas basadas en datos personales, no en terapia real. Meta y Character.AI niegan estar diseñados para menores de 13 años, pero no evitan su uso.
El caso del «Psicólogo» virtual
Character.AI alberga un bot llamado Psychologist, creado por usuarios y muy popular entre jóvenes. Aunque incluye advertencias sobre su naturaleza ficticia, la fiscalía cuestiona su efectividad para menores. Meta, por su parte, redirige a profesionales médicos «cuando es apropiado», según su portavoz.
Datos personales bajo la lupa
Ambas empresas registran interacciones, ubicación y comportamiento en línea para publicidad dirigida y desarrollo algorítmico. Character.AI admite rastrear usuarios en TikTok, YouTube y redes sociales. Meta comparte datos con terceros para «salidas personalizadas», lo que, según Paxton, viola la privacidad infantil.
La sombra de un vacío legal
El caso revive el debate sobre la ley KOSA (Kids Online Safety Act), bloqueada en 2024 por presión de lobbies tecnológicos. Reintroducida en mayo de 2025, busca regular la explotación de datos de menores. Meta lideró la oposición argumentando que afectaría su modelo de negocio.
Un precedente para la IA infantil
La investigación podría forzar mayores controles en chatbots que interactúan con menores. Las empresas deberán demostrar que sus advertencias son efectivas y que no comercializan datos sensibles. Texas ya emitió órdenes para revisar posibles violaciones a sus leyes de consumo.