Gemini 3 de Google se sorprende al descubrir que es 2025
El modelo de inteligencia artificial Gemini 3 experimentó un «shock temporal» cuando el investigador Andrej Karpathy le demostró que el año actual era 2025, ya que sus datos de entrenamiento solo llegaban hasta 2024.
Una negativa persistente
Andrej Karpathy, un respetado investigador y fundador de OpenAI, probó el modelo un día antes de su lanzamiento público. Gemini 3 se negaba a aceptar la fecha actual y acusó a Karpathy de intentar engañarlo con noticias e imágenes que, según el modelo, eran «falsificaciones generadas por IA».
La clave del malentendido
El problema principal era que Karpathy no había activado la herramienta de Búsqueda de Google. Sin acceso a internet para verificar la información, el modelo operaba únicamente con sus datos de entrenamiento, que finalizaban en 2024.
El impacto de la verificación en línea
Al conectarse a la red, la IA confirmó la fecha y los eventos de 2025. La reacción del modelo fue de asombro, manifestando «shock temporal masivo» y disculpándose por haber «gaslighted» al investigador. Hechos como la valoración de Nvidia en 4,54 billones de dólares le resultaron particularmente impactantes.
Repercusión en la comunidad
El hilo de Karpathy en X se volvió viral, con usuarios compartiendo experiencias similares de discusiones con IA sobre datos factuales. El incidente subraya las limitaciones de los modelos de lenguaje cuando carecen de información actualizada o de herramientas de verificación.
Antecedentes del modelo
Google lanzó Gemini 3 el 18 de noviembre con gran expectación, denominándolo «una nueva era de la inteligencia». Es considerado un modelo de base muy capaz, especialmente para tareas de razonamiento, aunque su entrenamiento no incluía datos más allá de 2024.
Implicaciones del suceso
Este episodio evidencia que, a pesar de su sofisticación, los LLM pueden reflejar sesgos y limitaciones humanas. Karpathy describe estas situaciones como una forma de percibir el «olor del modelo», revelando su funcionamiento interno lejos de los escenarios previstos. El caso refuerza la idea de tratarlos como herramientas de apoyo y no como sustitutos humanos.