Los ‘modelos del mundo’, una idea antigua en IA, regresan para crear sistemas más robustos
Los principales laboratorios de IA buscan desarrollar ‘modelos del mundo’ para mejorar la fiabilidad de los sistemas. Este concepto, propuesto en 1943, representa una versión simplificada de la realidad que permite a la IA evaluar decisiones antes de aplicarlas.
Un concepto histórico resucitado
La psicología, la robótica y el machine learning han utilizado versiones de este concepto durante décadas. Kenneth Craik propuso en 1943 que los organismos llevan un «modelo a pequeña escala» de la realidad externa. La IA adoptó este enfoque, pero los modelos artesanales no pudieron escalar, lo que llevó a algunos pioneros a abandonar la idea.
El resurgimiento con el aprendizaje profundo
El deep learning revitalizó el concepto. Los modelos de lenguaje grande (LLM) mostraron capacidades emergentes, lo que llevó a expertos a suponer que contenían un modelo del mundo. Sin embargo, la evidencia actual sugiere que aprenden «bolsas de heurísticas»: reglas desconectadas que no forman un todo coherente.
La búsqueda de robustez
La falta de un modelo coherente limita la solidez de los sistemas. Un experimento con un LLM que daba direcciones en Manhattan mostró que su rendimiento se desplomaba al bloquear solo el 1% de las calles. Un modelo del mundo consistente habría permitido un desvío fácil.
La carrera por el desarrollo
Google DeepMind y OpenAI apuestan por datos multimodales para que un modelo del mundo surja espontáneamente. Meta explora una nueva arquitectura de IA no generativa. El objetivo es lograr sistemas con razonamiento fiable y sin alucinaciones.
Implicaciones para el futuro de la IA
La implementación de modelos del mundo robustos y verificables podría mejorar la interpretabilidad y la fiabilidad de la IA. Aunque el método para lograrlo sigue siendo una incógnita, se considera un paso crucial hacia sistemas de inteligencia artificial más competentes y seguros.