Roblox usa IA en selfies para verificar edad de usuarios

Roblox implementa un sistema de verificación de edad mediante IA que analiza selfies en vídeo. Menores de 13 años perderán acceso a funciones avanzadas.
WIRED

Roblox implementa verificación de edad con IA mediante selfies en vídeo

La plataforma exige autofotos en vídeo para acceder a chats sin filtros. El sistema estima la edad mediante inteligencia artificial y restringe funciones a menores de 13 años. Se aplica desde el 17 de julio en su nueva función «Conexiones de Confianza».

«Autofotos para demostrar que eres mayor»

Roblox introduce un sistema de verificación por IA que analiza vídeos de usuarios para estimar su edad. «Si el usuario parece menor de 13 años, pierde acceso a funciones inapropiadas», explica la compañía. Los adolescentes verificados podrán chatear sin filtros con contactos aprobados, aunque los mayores de 18 años necesitarán escanear un código QR o validar su número de teléfono.

Datos y privacidad

La empresa afirma que los datos biométricos se eliminan en 30 días, salvo requerimiento legal. Matt Kaufman, jefe de seguridad, reconoce que «en EE.UU. es poco común que menores de 13 tengan identificación oficial», por lo que aceptan verificación mediante padres. Sin embargo, si los progenitores no colaboran, el menor no accederá a las funciones avanzadas.

Roblox contra los depredadores

La plataforma, con 98 millones de usuarios en 180 países, ha enfrentado demandas por grooming y explotación infantil. Kaufman defiende que «no hay bala de plata» para la seguridad, pero combinan IA, moderación y controles parentales. Aún así, expertos como Kirra Pendergast critican que el sistema «deja áreas expuestas» al depender de que menores gestionen riesgos.

Un problema que viene de lejos

Roblox acumula denuncias por casos de acoso y recolección de datos de menores. En 2024, un informe de Bloomberg reveló arrestos por grooming en la plataforma. La compañía insiste en que estas actualizaciones son parte de su «plan a largo plazo» y no una reacción puntual.

Menos filtros, ¿más seguridad?

La medida busca retener usuarios en chats internos (moderados) en lugar de migrar a Discord. Sin embargo, la eficacia dependerá de cómo combinen IA, controles parentales y educación digital. Pendergast advierte: «La protección real requiere verificación conjunta con tutores, no permisos iniciados por niños».