En un giro inesperado de guion, el juez federal de Estados Unidos William Alsup rechazó el acuerdo al que la compañía matriz de Claude, Anthropic había firmado con unos 500.000 autores para pagarles 3.000 dólares a cada uno por haber utilizado sus escritos pirateados para entrenar a su inteligencia artificial.
En total, la tecnológica se había comprometido a desembolsar 1.500 millones de dólares (unos 1.300 millones de euros), la multa más elevada por derechos de autor en Estados Unidos hasta la fecha.
El pacto estaba casi sellado, pero restaba ratificación judicial. La decisión de Alsup se debe a que el juez encontró inconsistencias y posible falta de información por parte de los damnificados. Luego de alegar sus motivos durante una hora, el magistrado programó otra audiencia en San Francisco el próximo 25 de septiembre para darle tiempo a las partes de revisar algunos puntos.
La historia se remonta a 2024, cuando los autores Andrea Bartz, Charles Graeber y Kirk Wallace Johnson presentaron una demanda por violación de copyright, al descubrir que al menos dos obras suyas habían sido utilizadas sin permiso para entrenar al chatbot Claude. Lo que arrancó como una denuncia puntual terminó convirtiéndose en una demanda colectiva en representación de unos 500.000 escritores, cuyos textos digitalizados habían acabado en los datasets de Anthropic.
En junio este año, el juez federal William Alsup tuvo un fallo mixto: por un lado, se puso del lado de Anthropic, determinando que entrenar su IA con libros adquiridos legalmente —los que compraron, descantaron y escanearon ellos mismos— es “excepcionalmente transformativo” y, por tanto, fair use legítimo.
Pero por otro lado, el juez aclaró que almacenar más de 7 millones de libros pirateados en una biblioteca privada ya no tenía perdón: eso sí era “infracción deliberada” y no protegida por la doctrina.
El conflicto se resume en las primeras líneas de la demanda judicial: “Una empresa de inteligencia artificial descargó gratuitamente millones de libros con derechos de autor en formato digital desde sitios pirata en internet. La empresa también compró libros con derechos de autor (algunos coincidentes con los obtenidos en los sitios pirata), les arrancó las encuadernaciones, escaneó cada página y los almacenó en archivos digitalizados y buscables. Todo lo anterior se hizo para reunir una biblioteca central de “todos los libros del mundo” para conservarla “para siempre”. A partir de esta biblioteca central, la empresa de IA seleccionó varios conjuntos y subconjuntos de libros digitalizados para entrenar distintos modelos de lenguaje de gran tamaño en desarrollo, destinados a impulsar sus servicios de IA”.
Captura de pantalla del dictamen del juez federal William Alsup. Fuente: Tribunal de Distrito de California, EE.UU.
En resumen: la justicia sí avala el entrenamiento de las IAs con libros o escritos comprados.
El caso iba directo a juicio en diciembre —con posibles multas astronómicas (hasta 150.000 dólares por obra pirateada), lo que activó las negociaciones.
Sin embargo, para evitar el juicio, el pasado 5 de septiembre, Anthropic aceptó pagar 1.500 millones de dólares (alrededor de 3.000 dólares por autor) para evitar seguir en el ojo del huracán legal. Si el juzgado lo aprueba, será la resolución más costosa en materia de derechos de autor en la historia de EE. UU.
El acuerdo también implicaba eliminar los archivos digitales con el material pirateado, un gesto que intenta cerrar ese capítulo gris. Aunque parecía una victoria para los autores, muchos lo consideraron casi simbólico, ya que 3 mil dólares por libro suena a migajas frente al valor real que esos textos podrían generar para Claude. Por otro lado, si la empresa compra el material para entrenar a su IA, tampoco está incurriendo en delito (según el juez), algo que igual sería económico como práctica a futuro.
El juez Alsup consideró que el acuerdo a firmar carecía de la suficiente transparencia y equidad: señaló que no existía aún una lista clara de los libros afectados, ni un formulario de reclamación definido, lo que podía dejar a muchos autores en desventaja. Además, expresó preocupación por la posible influencia indebida de grupos como la Authors Guild y la Asociación de Editores, lo que podía llevar a que algunos aceptaran sin plena comprensión.
En sus palabras, advirtió que, tal como estaba planteado, el plan corría el riesgo de que los autores terminaran “fuera de juego” al no contar con garantías adecuadas. También afirmó que necesitaba garantías más sólidas de que la cifra no aumentaría para evitar que la compañía se viera sorprendida por nuevas demandas que surgían de la nada.
Luego de exponer sus argumentos, el Alsup fechó una nueva audiencia para el próximo 25 de septiembre con el fin de revisar el acuerdo nuevamente, pero antes, instó a los implicados a:
Tras la audiencia, el Gremio de Autores afirmó estar “confundido” por la sospecha del juez Alsup de que buscaba socavar a los escritores, defendiendo que su labor era representar plenamente sus intereses con transparencia.
Mientras uno de los autores damnificados, Kirk Wallace Johnson, calificó el acuerdo como el inicio de una lucha para proteger lo humano frente a la IA, el abogado de los demandantes, Michael Nelson, aseguró que la amplia cobertura mediática garantizaba un reparto justo de los fondos. Aun así, Alsup mostró serias dudas y advirtió que podría llevar el caso a juicio, expresando su desconfianza hacia “parásitos en las sombras”.
Por su parte, la directora ejecutiva de la Asociación de Editores Estadounidenses, Maria Pallante, pidió flexibilidad al juez, argumentando que las demandas colectivas deben resolver conflictos y no abrir nuevas disputas entre autores y editoriales.
El caso contra Anthropic podría marcar un antes y un después en la relación entre inteligencia artificial y derechos de autor. Por un lado, más allá de lo que ocurra, el fallo del juez Alsup ya respalda que entrenar modelos con libros adquiridos legalmente —aunque sean escaneados a mano, uno por uno— puede considerarse un uso legítimo y transformador. Pero por otro, deja claro que descargar millones de libros desde webs pirata como LibGen o Pirate Library Mirror sigue siendo una infracción del copyright, incluso si el objetivo es alimentar una IA.
Esto dibuja una línea divisoria entre lo permitido y lo que no en la construcción de datasets, y envía un mensaje directo a otras big tech como OpenAI, Microsoft o Meta, que ya enfrentan presiones legales similares. En EE. UU., incluso se están impulsando nuevas leyes como el TRAIN Act para proteger a los creadores ante este tipo de prácticas, mientras que en otros países se sigue con atención lo que podría convertirse en jurisprudencia global.
Sin embargo, también se trata de un aviso para los creadores de contenido. Si entrenar una IA con libros comprados es legal, ¿dónde queda el derecho de los autores a decidir sobre el uso de su obra? Si pirateas, pagas. Pero si nadie se entera, ¿vale todo?
Your email address will not be published. Required fields are marked *
Δ