Anthropic pagará 1500 millones de dólares a escritores por piratear libros
Medio millón de autores recibirán al menos 3000 dólares cada uno. La empresa de IA se asentó por descargar ilegalmente obras para entrenar su modelo Claude. El juez consideró legal el entrenamiento con material protegido por derechos de autor.
Un acuerdo histórico con sabor agridulce
Un grupo de autores demandó a Anthropic en una acción de clase, resultando en el mayor acuerdo en la historia de la ley de derechos de autor de EE.UU.. Aunque supone un desembolso para los escritores, la sentencia sienta un precedente que beneficia a las grandes tecnológicas. El juez William Alsup falló que entrenar IA con material con copyright es un uso «transformativo» amparado por la doctrina de uso justo.
El origen del conflicto
Anthropic, creadora de Claude, pirateó millones de libros de «bibliotecas oscuras» para alimentar su IA. La empresa se quedaba sin información nueva tras rastrear toda internet. Este caso es uno de los docenas presentados contra empresas como Meta, Google, OpenAI y Midjourney.
Las repercusiones para el ciudadano
El acuerdo resuelve las demandas pendientes, evitando un juicio. Para Anthropic, que acaba de recaudar 13000 millones de dólares, esta multa es solo «un golpe costoso en la muñeca». La compañía afirma que sigue comprometida con desarrollar sistemas de IA seguros que ayuden a las personas.
Un vacío legal de otra era
La doctrina de uso justo en la que se ampara la sentencia no se actualiza desde 1976, mucho antes de la existencia de la IA. El juez argumentó que los LLM de Anthropic se entrenaron con las obras «no para replicarlas o suplantarlas, sino para crear algo diferente».
Un precedente para casos futuros
Este acuerdo sienta un referente para las decenas de casos pendientes sobre IA y derechos de autor. La legalidad del entrenamiento de modelos de IA con obras protegidas queda ahora bajo el paraguas del uso transformativo, aunque la magnitud de estas decisiones podría llevar a otros jueces a conclusiones diferentes.