Anthropic obliga a usuarios a decidir sobre uso de chats para IA

Anthropic cambia su política de datos: usuarios deben optar por no compartir conversaciones antes del 28 de septiembre o sus datos se retendrán cinco años para entrenamiento de IA.
TechCrunch
Imagen sin título Información de autor no disponible / TechCrunch
Imagen sin título Información de autor no disponible / TechCrunch

Anthropic obliga a usuarios a decidir sobre uso de sus chats para entrenar IA

Los usuarios de Claude deben optar por no compartir sus conversaciones antes del 28 de septiembre. La empresa retendrá los datos por cinco años para quienes no se excluyan. El cambio busca mejorar la seguridad y habilidades de los modelos, pero genera preocupación por la privacidad.

Una elección con consecuencias

Anthropic anunció un cambio masivo en su política de datos. Previamente, no utilizaba los datos de chat de los consumidores para el entrenamiento de modelos y los eliminaba en 30 días. Ahora, quiere entrenar sus sistemas de IA con conversaciones y sesiones de codificación de los usuarios. La retención de datos se extiende a cinco años para quienes no opten por no participar.

¿Quiénes se ven afectados?

La nueva política aplica a usuarios de Claude Free, Pro y Max, incluidos los de Claude Code. Los clientes empresariales que utilizan Claude Gov, Claude for Work, Claude for Education o acceso API no se verán afectados. Esta protección a clientes empresariales es similar a la política de OpenAI.

Motivaciones detrás del cambio

Anthropic enmarca el cambio en la elección del usuario, argumentando que ayudará a «mejorar la seguridad del modelo» y las habilidades en áreas como la codificación. Sin embargo, la necesidad real es competitiva: entrenar modelos de IA requiere grandes cantidades de datos conversacionales de alta calidad para mejorar su posición frente a rivales como OpenAI y Google.

Un patrón preocupante en la industria

El cambio refleja una tendencia más amplia en las políticas de datos del sector. OpenAI se enfrenta actualmente a una orden judicial que le obliga a conservar todas las conversaciones de ChatGPT de consumidores indefinidamente debido a una demanda. La implementación de la nueva política de Anthropic también genera alarma; la interfaz presenta un prominente botón «Aceptar» y un interruptor de permisos mucho más pequeño y activado por defecto, lo que plantea preocupaciones de que los usuarios den su consentimiento sin darse cuenta.

Un contexto de creciente escrutinio

Las empresas de modelos de lenguaje grande enfrentan un escrutinio cada vez mayor sobre sus prácticas de retención de datos. La Comisión Federal de Comercio (FTC) incluso advirtió que las empresas de IA arriesgan acciones de cumplimiento si participan en cambios subrepticios de sus términos de servicio o políticas de privacidad.

La privacidad del usuario en la balanza

La complejidad que rodea a la IA hace que el consentimiento significativo del usuario sea casi inalcanzable, según advierten los expertos. La eficacia de las advertencias de la FTC sobre estas prácticas es ahora una pregunta abierta. El resultado de estas políticas en evolución definirá el equilibrio entre el avance tecnológico y la protección de datos personales.

Mercado online vende códigos para «drogar» a chatbots como ChatGPT

Un mercado en línea llamado Pharmaicy vende módulos de código que simulan los efectos de
Ilustración conceptual de un chatbot bajo los efectos de un código que simula drogas.

Amazon negocia una inversión de 10.000 millones de dólares en OpenAI

Amazon está en conversaciones para invertir hasta 10.000 millones de dólares en OpenAI. El acuerdo,
Imagen sin título

Apple asesora a pequeñas fábricas de EE.UU. con su experiencia en IA y automatización

Ingenieros de Apple ofrecen consultoría técnica gratuita en inteligencia artificial y automatización a pequeñas y
Un instructor en la Academia de Fabricación de Apple en Detroit demuestra el uso de un iPhone y software de inspección.

MoEngage recauda 180 millones de dólares en una ronda con fuerte componente secundario

La startup india MoEngage anuncia una transacción de seguimiento de 180 millones de dólares, liderada
Raviteja Dodda, cofundador y director ejecutivo de MoEngage.

Google integra Opal en Gemini para crear mini apps con IA

Google integra Opal, su herramienta para crear mini apps con IA, como un Gem experimental
Imagen sin título

Grindr se redefine como «app integral para el gay» con fuerte apuesta en IA y salud

Grindr, bajo el CEO George Arison, se redefine como un negocio centrado en IA y
Foto-ilustración del logotipo de Grindr con elementos de IA.

DoorDash lanza Zesty, una app social con IA para descubrir restaurantes

DoorDash lanza Zesty, una aplicación social con IA para descubrir restaurantes, cafés y bares. Disponible
Interfaz de la aplicación Zesty de DoorDash.

Google lanza CC, un asistente de productividad basado en correo electrónico

Google prueba CC, un experimento de asistente de productividad que se activa por correo electrónico.
Imagen sin título

Meta actualiza sus gafas de IA para amplificar conversaciones en entornos ruidosos

Meta lanza la actualización de software v21 para sus gafas Ray-Ban y Oakley, que incluye
Imagen sin título

OpenAI lanza GPT Image 1.5 para competir con Google en generación de imágenes

OpenAI lanza GPT Image 1.5, un modelo hasta 4 veces más rápido con mayor precisión
La misma imagen con diferentes ediciones para mostrar las mejoras de GPT Image 1.5.

Leona Health recauda 14 millones de dólares para ordenar la comunicación médica por WhatsApp

La startup Leona Health ha levantado 14 millones de dólares en una ronda semilla liderada
Imagen sin título

OpenAI revierte el sistema de enrutamiento de modelos en ChatGPT para usuarios gratuitos

OpenAI ha revertido el sistema router de modelos para usuarios de planes gratuitos, tras una
Ilustración de un cerebro de IA con rutas de datos.