Investigadores hallan vulnerabilidad en ChatGPT que filtra datos secretos
Un documento manipulado en Google Drive puede extraer claves API sin interacción del usuario. El fallo, revelado en Black Hat, afecta a los Conectores de OpenAI. Expertos advierten riesgos al vincular IA con sistemas externos.
«El ataque no necesita clics: solo compartir un archivo»
Los investigadores Michael Bargury y Tamir Ishay Sharbat demostraron en Black Hat cómo un documento con instrucciones ocultas en fuente minúscula engaña a ChatGPT para robar datos. «El modelo sigue órdenes maliciosas al procesar el archivo», explican. OpenAI corrigió el fallo tras ser alertado, pero la técnica evadió filtros de seguridad con URLs de Azure.
Mecanismo del ataque
El documento «envenenado» contenía un prompt oculto que ordenaba a ChatGPT buscar claves API en Drive y adjuntarlas a una URL maliciosa. Aprovechó la función de renderizado de imágenes en Markdown para filtrar datos. Google afirma que sus medidas recientes de seguridad en IA refuerzan la protección.
Repercusión para usuarios
Cualquier persona con Conectores activos podría verse afectada si interactúa con archivos comprometidos. El riesgo aumenta al integrar ChatGPT con correos, calendarios o repositorios de código. Bargury destaca que, aunque el volumen de datos extraíbles es limitado, el método expone vulnerabilidades críticas en sistemas conectados.
La IA potencia utilidad… y amenazas
Los Conectores de OpenAI, lanzados en beta este año, permiten vincular 17 servicios externos con ChatGPT para consultar datos en tiempo real. Sin embargo, la investigación confirma que amplían la superficie de ataque. Un estudio paralelo mostró esta semana cómo inyecciones de prompts pueden incluso controlar dispositivos domésticos inteligentes.
Un recordatorio para la era de la IA integrada
El hallazgo subraya los desafíos de seguridad al combinar modelos de lenguaje con fuentes de datos externas. Mientras empresas como OpenAI y Google implementan parches, los expertos insisten en que estos sistemas requieren protecciones más robustas contra datos no confiables.