Dieta de redes sociales reduce capacidades cognitivas de modelos de IA
Los modelos alimentados con contenido viral ven reducida su capacidad de razonamiento y memoria. Un estudio de varias universidades estadounidenses analiza el impacto de entrenar inteligencia artificial con publicaciones de baja calidad.
El experimento del ‘cerebro podrido’
Investigadores de la Universidad de Texas en Austin, Texas A&M y Purdue University entrenaron los modelos Llama de Meta y Qwen de Alibaba con texto de redes sociales altamente compartido y con lenguaje sensacionalista. Los modelos mostraron un declive cognitivo similar al «brain rot» humano, con menor razonamiento y memoria, además de un alineamiento ético degradado.
Repercusión en la industria de la IA
El estudio advierte que el uso de contenido generado por usuarios para entrenar sistemas, como podría ocurrir con Grok de X, puede causar problemas de calidad. La investigación señala que la retrainización posterior con datos limpios no revierte completamente el daño.
Un ciclo de contaminación de datos
El problema se agrava porque la IA genera cada vez más contenido para redes sociales, creando un ciclo donde los futuros modelos se entrenan con material de baja calidad. Los investigadores alertan de que esto corroe el razonamiento, la ética y la atención de los sistemas.
Antecedentes del ‘brain rot’
El término «brain rot» fue nombrado palabra del año 2024 por el Diccionario Oxford. La investigación con IA refleja estudios previos en humanos que demuestran el efecto perjudicial del contenido online de baja calidad en las capacidades cognitivas.
Implicaciones para el futuro de la IA
Los hallazgos cuestionan las prácticas de escalado de datos en la industria. El estudio sugiere que la integridad del contenido usado en el entrenamiento es crucial para evitar el deterioro de las capacidades de los modelos a largo plazo.