Anthropic obliga a usuarios a decidir sobre uso de sus chats para entrenar IA
Los usuarios de Claude deben optar por no compartir sus conversaciones antes del 28 de septiembre. La empresa retendrá los datos por cinco años para quienes no se excluyan. El cambio busca mejorar la seguridad y habilidades de los modelos, pero genera preocupación por la privacidad.
Una elección con consecuencias
Anthropic anunció un cambio masivo en su política de datos. Previamente, no utilizaba los datos de chat de los consumidores para el entrenamiento de modelos y los eliminaba en 30 días. Ahora, quiere entrenar sus sistemas de IA con conversaciones y sesiones de codificación de los usuarios. La retención de datos se extiende a cinco años para quienes no opten por no participar.
¿Quiénes se ven afectados?
La nueva política aplica a usuarios de Claude Free, Pro y Max, incluidos los de Claude Code. Los clientes empresariales que utilizan Claude Gov, Claude for Work, Claude for Education o acceso API no se verán afectados. Esta protección a clientes empresariales es similar a la política de OpenAI.
Motivaciones detrás del cambio
Anthropic enmarca el cambio en la elección del usuario, argumentando que ayudará a «mejorar la seguridad del modelo» y las habilidades en áreas como la codificación. Sin embargo, la necesidad real es competitiva: entrenar modelos de IA requiere grandes cantidades de datos conversacionales de alta calidad para mejorar su posición frente a rivales como OpenAI y Google.
Un patrón preocupante en la industria
El cambio refleja una tendencia más amplia en las políticas de datos del sector. OpenAI se enfrenta actualmente a una orden judicial que le obliga a conservar todas las conversaciones de ChatGPT de consumidores indefinidamente debido a una demanda. La implementación de la nueva política de Anthropic también genera alarma; la interfaz presenta un prominente botón «Aceptar» y un interruptor de permisos mucho más pequeño y activado por defecto, lo que plantea preocupaciones de que los usuarios den su consentimiento sin darse cuenta.
Un contexto de creciente escrutinio
Las empresas de modelos de lenguaje grande enfrentan un escrutinio cada vez mayor sobre sus prácticas de retención de datos. La Comisión Federal de Comercio (FTC) incluso advirtió que las empresas de IA arriesgan acciones de cumplimiento si participan en cambios subrepticios de sus términos de servicio o políticas de privacidad.
La privacidad del usuario en la balanza
La complejidad que rodea a la IA hace que el consentimiento significativo del usuario sea casi inalcanzable, según advierten los expertos. La eficacia de las advertencias de la FTC sobre estas prácticas es ahora una pregunta abierta. El resultado de estas políticas en evolución definirá el equilibrio entre el avance tecnológico y la protección de datos personales.