TechCrunch
- TechCrunch
- Google's Gemini now lets you ask questions using videos and what's on your screen | TechCrunch
- Ivan Mehta
- https://techcrunch.com/2025/03/03/googles-gemini-now-lets-you-ask-questions-using-videos-or-whats-on-your-screen/

Cada vez dependemos más de la inteligencia artificial en nuestro día a día, y Google lo sabe. En el marco del Mobile World Congress (MWC) 2025, la compañía ha anunciado una actualización importante para su asistente de IA, Gemini, que ahora permitirá interactuar con contenido en video y con lo que ocurre en la pantalla del usuario.
Este tipo de avances refuerzan la idea de que la inteligencia artificial no solo responde preguntas, sino que también se convierte en una herramienta más integrada y dinámica dentro de nuestros dispositivos.
Gemini y la Interacción en Tiempo Real con Videos
Hasta ahora, los asistentes virtuales como Gemini o Siri han funcionado principalmente a través de comandos de voz o texto. Pero con esta nueva actualización, Google quiere que Gemini entienda lo que ves y te ayude en el momento justo.
Por ejemplo, imagina que estás grabando un video de un monumento histórico. En lugar de buscar información manualmente, ahora podrás preguntarle a Gemini directamente:
«¿Cuál es la historia de este edificio?»
Gemini analizará la imagen y te proporcionará datos en tiempo real. Es como llevar un guía turístico en el bolsillo, sin necesidad de detener la grabación o cambiar de aplicación.
Este tipo de interacción acerca la inteligencia artificial a un uso más intuitivo y natural, facilitando experiencias más enriquecedoras sin que el usuario tenga que hacer esfuerzos adicionales.
«Screenshare»: Una Nueva Forma de Interactuar con la IA
Otra de las funciones más interesantes que llegan a Gemini es «Screenshare», una herramienta que le permite al asistente ver lo que hay en la pantalla y responder en contexto.
Piénsalo de esta manera:
🔹 Compras en línea: ¿No sabes cómo combinar esa chaqueta que acabas de encontrar? Muestra la imagen en tu pantalla y Gemini te dará recomendaciones de estilo.
🔹 Recetas de cocina: ¿Ves un platillo delicioso en un video pero no sabes cómo hacerlo? Screenshare puede analizar la imagen y buscar recetas similares.
🔹 Traducciones y explicaciones: Estás navegando por una página en otro idioma o leyendo un documento complicado, y puedes pedirle a Gemini que lo explique o traduzca en tiempo real.
En pocas palabras, el asistente ahora podrá “ver” lo que tú ves y darte respuestas más precisas.
¿Cuándo y Quiénes Podrán Usarlo?
Como suele ocurrir con las funciones más avanzadas de IA, estas novedades estarán disponibles primero para los suscriptores de Gemini Advanced, a través del Google One AI Premium.
Si bien la idea es que eventualmente estas funciones lleguen a más usuarios, de momento solo aquellos con dispositivos Android y suscripción activa podrán experimentar con estas herramientas a finales de este mes.
Para quienes no estén familiarizados, Google One es el servicio de suscripción que, además de almacenamiento en la nube, ahora integra inteligencia artificial avanzada como parte de su propuesta de valor.
¿Qué Significa Esto Para el Futuro de la IA en el Día a Día?
Las mejoras en Gemini son un reflejo del rumbo que está tomando la inteligencia artificial en los dispositivos de consumo.
Google no solo quiere que hables con tu asistente de IA, sino que interactúes con él de una manera más natural y útil. Esto marca una evolución en la relación entre humanos y tecnología, pasando de simples respuestas automáticas a una IA que entiende el contexto visual y puede aportar información de manera más proactiva.
El impacto de estas mejoras no se limita a la comodidad: puede cambiar la forma en que aprendemos, compramos, exploramos e incluso tomamos decisiones en el día a día.
La gran pregunta es: ¿Hasta qué punto nos acostumbraremos a depender de estos asistentes para que nos ayuden a procesar el mundo que nos rodea?