OpenAI refuerza seguridad tras acusar a startup china de copiar su modelo
La empresa implementa medidas extremas como ordenadores offline y controles biométricos. La decisión responde a la publicación en enero de un modelo competidor por parte de DeepSeek, según el Financial Times. Las nuevas políticas incluyen restricciones internas y protección física en centros de datos.
«Cortafuegos humanos y digitales»
OpenAI ha establecido políticas de «aislamiento de información» que limitan el acceso del personal a algoritmos sensibles. Durante el desarrollo del modelo o1, solo miembros verificados podían discutirlo en espacios compartidos. Además, almacena tecnología clave en equipos sin conexión a internet y exige aprobación explícita para conexiones externas.
Escudo contra espionaje industrial
La compañía ha implementado controles de acceso por huella digital y ampliado su equipo de ciberseguridad. Según el FT, las medidas reflejan preocupación por «el robo de propiedad intelectual por actores extranjeros», aunque también podrían abordar fugas internas, como los frecuentes filtrados de declaraciones del CEO Sam Altman.
Guerra fría tecnológica
El recrudecimiento de la seguridad se aceleró tras el lanzamiento en enero del modelo de DeepSeek, startup china acusada por OpenAI de usar técnicas de «destilación» para copiar sus sistemas. Este episodio ocurre en un contexto de competencia feroz entre empresas estadounidenses de IA y tensiones geopolíticas en el sector.
Vigilancia reforzada, innovación bajo llave
Las medidas transforman radicalmente las operaciones de OpenAI, priorizando la protección de su ventaja tecnológica. Si bien buscan frenar amenazas externas, también reflejan los desafíos de mantener la confidencialidad en una industria marcada por la rivalidad y la fuga de talento.