Anthropic lanza agente Claude para Chrome en fase de pruebas
1000 suscriptores probarán la IA que actúa en el navegador. La empresa busca evaluar riesgos de seguridad en un mercado de agentes de IA emergente. El lanzamiento se produce en un contexto de batalla legal por el futuro de Chrome.
Un asistente con contexto
Anthropic anunció el lanzamiento en vista previa de un agente de IA basado en navegador impulsado por sus modelos Claude. La extensión para Chrome permite chatear con Claude en una ventana lateral que mantiene el contexto de todo lo que sucede en el navegador. Los usuarios también pueden dar al agente Claude permiso para realizar acciones en su navegador y completar algunas tareas en su nombre.
La carrera por el navegador
El navegador se está convirtiendo rápidamente en el próximo campo de batalla para los laboratorios de IA. Perplexity y OpenAI ya han lanzado o están desarrollando agentes con funcionalidades similares. La carrera por desarrollar navegadores con tecnología de IA es especialmente urgente dado el inminente caso antimonopolio de Google, en el que se espera una decisión final cualquier día de ahora.
Advertencias de seguridad
Anthropic advirtió que el auge de los agentes de IA con acceso al navegador plantea nuevos riesgos de seguridad. La compañía ha introducido varias defensas contra ataques de inyección de prompts, logrando reducir su tasa de éxito del 23.6% al 11.2%. Los usuarios pueden limitar el acceso del agente a ciertos sitios y, por defecto, bloquea el acceso a sitios que ofrecen servicios financieros, contenido para adultos y contenido pirateado.
Un mercado en ebullición
El lanzamiento se enmarca en una intensa competencia entre grandes tecnológicas por integrar IA en los navegadores. Este esfuerzo se ve acelerado por el posible desenlace del caso antimonopolio contra Google, que podría forzar la venta de Chrome, con Perplexity y OpenAI mostrando interés en su adquisición.
Un primer paso con cautela
La eficacia y seguridad de estos agentes de IA en el navegador se está probando con un grupo limitado de usuarios. Anthropic utiliza esta fase de vista previa de investigación como una oportunidad para detectar y abordar nuevos riesgos de seguridad, mientras mejora las capacidades de sus modelos agentes.