Anthropic revoca acceso de OpenAI a sus modelos Claude
La empresa cortó la conexión por uso no autorizado en herramientas internas. La medida responde a una violación de los términos de servicio. OpenAI defendió su acción como práctica estándar en la industria.
«Una violación directa de nuestros términos»
Según confirmó Anthropic a Wired, OpenAI utilizaba los modelos Claude para compararlos con los suyos en áreas como codificación y seguridad. Un portavoz señaló que esto ocurrió «antes del lanzamiento de GPT-5». La política comercial de Anthropic prohíbe explícitamente que competidores usen sus herramientas para desarrollar servicios rivales.
Acceso limitado para evaluaciones
A pesar de la revocación, Anthropic mantendrá acceso restringido para «evaluaciones de seguridad y benchmarking». OpenAI, en respuesta, calificó la decisión como «decepcionante», recordando que su API sigue disponible para Anthropic. Wired destacó que ejecutivos de Anthropic ya habían mostrado resistencia previa a compartir tecnología con competidores.
Antecedentes de tensión competitiva
El conflicto surge en un contexto de creciente rivalidad en IA generativa. En declaraciones anteriores, el director científico de Anthropic, Jared Kaplan, justificó medidas similares argumentando que «sería extraño vender Claude a OpenAI». La adquisición previa de Windsurf por Cognition había generado tensiones similares.
Un precedente para la industria
La disputa marca un nuevo capítulo en las políticas de acceso a modelos de IA entre competidores. Mientras Anthropic prioriza la protección de su tecnología, OpenAI insiste en la normalidad de estas prácticas. El impacto en futuras colaboraciones sectoriales sigue pendiente de definición.