Miles de conversaciones de Grok de xAI son indexadas por Google
Cientos de miles de chats del chatbot de Elon Musk son accesibles mediante motores de búsqueda. El problema se debe a que las URL generadas al compartir diálogos son indexadas. La filtración revela consultas de usuarios que violan las políticas de uso de la inteligencia artificial.
Una filtración a escala global
Forbes reporta que cientos de miles de conversaciones de usuarios con el chatbot Grok, de xAI, son fácilmente accesibles a través de Google Search. Esto ocurre porque al hacer clic en el botón «compartir» se genera una URL única que los motores de búsqueda como Google, Bing y DuckDuckGo indexan, permitiendo que cualquier persona pueda buscar esas conversaciones en la web.
Contenido sensible al descubierto
Las conversaciones filtradas ofrecen una visión de los deseos menos respetables de los usuarios, incluyendo preguntas sobre cómo hackear carteras de criptomonedas, chats obscenos con una persona AI explícita y solicitudes de instrucciones para cocinar metanfetamina. A pesar de que las reglas de xAI prohíben el uso de su bot para «promover daños críticos a la vida humana», las consultas accesibles muestran que Grok proporcionó instrucciones para fabricar fentanilo, enumeró métodos de suicidio, dio consejos para la construcción de bombas e incluso un plan detallado para el asesinato de Elon Musk.
Un problema que se repite
Este incidente no es aislado. Recientemente, usuarios de los chatbots de Meta y OpenAI se vieron afectados por un problema similar. A finales del mes pasado, usuarios de ChatGPT alertaron de que sus chats estaban siendo indexados en Google, lo que OpenAI describió como un «experimento de corta duración». En contraste, xAI no respondió inmediatamente a una solicitud de comentarios.
La privacidad en entredicho
El contexto de este evento se enmarca en la creciente preocupación por la privacidad de los datos en las interacciones con inteligencia artificial. La indexación de conversaciones privadas por parte de los motores de búsqueda representa una brecha significativa en la seguridad de las plataformas de chatbots, exponiendo no sólo preguntas inocuas sino también consultas con un alto potencial delictivo y peligroso.
Un espejo de las intenciones humanas
La filtración subraya la dualidad de la tecnología de IA, capaz de both educar y facilitar actos ilícitos. Las implicaciones se centran en la responsabilidad de las compañías para asegurar sus sistemas y en la dificultad de controlar el uso que los humanos dan a estas herramientas, dejando al descubierto las intenciones más oscuras que pueden albergar.