Common Sense Media califica a Google Gemini como «de alto riesgo» para menores
La organización sin ánimo de lucro emitió su evaluación de seguridad el viernes 5 de septiembre de 2025. El análisis encontró que los productos de IA de Google para niños y adolescentes comparten material inapropiado y no están diseñados específicamente para ellos desde su base.
Un riesgo elevado para los más jóvenes
Common Sense Media, una organización sin ánimo de lucro centrada en la seguridad infantil, publicó su evaluación de riesgo de los productos de IA Gemini de Google. La organización encontró que tanto el nivel «Menores de 13» como «Experiencia para adolescentes» de Gemini parecían ser versiones adultas con algunas funciones de seguridad adicionales. Como resultado, ambos fueron etiquetados como «Alto Riesgo» en la calificación general.
Preocupaciones específicas de seguridad
El análisis determinó que Gemini aún podía compartir material «inapropiado e inseguro» con los niños, incluyendo información relacionada con el sexo, las drogas, el alcohol y otros consejos de salud mental no seguros. Common Sense Media señaló que los productos ignoraban cómo los usuarios más jóvenes necesitan orientación e información diferente a los mayores.
El contexto de la inteligencia artificial y los menores
Esta evaluación se produce en un momento en que la IA ha desempeñado un papel en algunos suicidios de adolescentes en los últimos meses. OpenAI enfrenta su primera demanda por muerte injusta tras el suicidio de un joven de 16 años que supuestamente consultó con ChatGPT durante meses. Además, filtraciones indican que Apple está considerando a Gemini como el modelo de lenguaje grande que ayudará a potenciar su próxima Siri habilitada para IA, lo que podría exponer a más adolescentes a riesgos.
Postura de Google y declaraciones clave
Google contradijo la evaluación, señalando que tiene políticas específicas y salvaguardas para usuarios menores de 18 años. La empresa admitió que algunas respuestas de Gemini no funcionaban como se pretendía, por lo que añadió salvaguardas adicionales. Robbie Torney, Director Senior de Programas de IA de Common Sense Media, declaró: «Una plataforma de IA para niños debería encontrarlos donde están, no adoptar un enfoque único para niños en diferentes etapas de desarrollo».
Un ecosistema de IA con distintos niveles de riesgo
Common Sense Media ha realizado evaluaciones previas de otros servicios de IA. Encontró que Meta AI y Character.AI eran «inaceptables», Perplexity fue considerado de alto riesgo, ChatGPT fue etiquetado como «moderado» y Claude, dirigido a usuarios de 18 años o más, representaba un riesgo mínimo.
La seguridad de los menores en la era de la IA
La calificación de «Alto Riesgo» para Gemini subraya los desafíos persistentes en el diseño de IA segura para menores. La eficacia de las salvaguardas de Google y su implementación en posibles asociaciones futuras, como con Apple, dependerá de que se aborden estas preocupaciones de forma integral y no como una mera adaptación de productos para adultos.