Google detalla medidas de seguridad para funciones de agente en Chrome
Google ha explicado su enfoque de seguridad para las futuras funciones de agente en Chrome, que realizarán acciones automáticas como compras. La compañía utiliza modelos observadores y pide consentimiento para acciones sensibles. Estas capacidades se lanzarán en los próximos meses.
Modelos en equipo para alinear acciones
Google emplea varios modelos para controlar las acciones de los agentes. Un User Alignment Critic, construido con Gemini, examina las tareas planificadas. Si no sirven al objetivo del usuario, pide replanificar. Este modelo crítico solo ve metadatos de la acción propuesta, no el contenido web.
Restricciones de acceso a sitios web
Para limitar el acceso, la compañía usa Agent Origin Sets. Estos conjuntos restringen al agente a orígenes de solo lectura y de lectura-escritura específicos. Esta delimitación acota el vector de amenaza de fugas de datos entre orígenes. El navegador puede evitar enviar datos al modelo fuera del conjunto permitido.
Control en navegación y tareas sensibles
Google revisa la navegación con otro modelo observador que investiga las URL. Esto puede prevenir el acceso a enlaces generados por el modelo y dañinos. Para tareas sensibles, como acceder a banca online, pide siempre consentimiento al usuario. También solicita permiso para usar el gestor de contraseñas en sitios que requieren inicio de sesión.
Acciones que requieren aprobación del usuario
La compañía ha confirmado que el modelo del agente no tiene exposición a datos de contraseñas. Antes de realizar acciones con consecuencias, como una compra o enviar un mensaje, Chrome preguntará siempre al usuario. Google también prueba estas capacidades contra ataques simulados por investigadores.
Antecedentes: La llegada de los agentes en el navegador
Un número creciente de navegadores experimenta con funciones de agente que actúan por el usuario, como reservar billetes. Google avanzó estas capacidades para Chrome en septiembre de 2025. Estas características conllevan riesgos de seguridad que podrían derivar en pérdida de datos o dinero.
Cierre: Un enfoque de seguridad multicapa
La estrategia de Google combina modelos de IA para supervisión, restricciones estrictas de acceso y consentimiento explícito del usuario. Este enfoque pretende mitigar riesgos como fugas de datos o navegación a sitios maliciosos. La industria, con actores como Perplexity, también desarrolla herramientas para proteger estos sistemas emergentes.