La compañía de inteligencia artificial Anthropic ha pactado desembolsar al menos 1.500 millones de dólares para cerrar una demanda colectiva presentada por autores y editoriales que denunciaron el uso de sus obras para entrenar el chatbot Claude sin permiso. El pacto, que aún requiere el visto bueno del tribunal federal de San Francisco, se perfila como la compensación más elevada conocida en conflictos de copyright vinculados a la IA.
El esquema contempla un pago de 3.000 dólares por obra para alrededor de 500.000 títulos identificados en el caso, con la posibilidad de aumentar si afloran más libros afectados. Anthropic ha señalado que no reconoce responsabilidad y que, además del componente económico, asumirá la eliminación de copias obtenidas en repositorios no autorizados.
Cifras, quiénes cobran y cómo se pagará

El fondo de liquidación parte de 1.500 millones de dólares, equivalente a 3.000 dólares por cada una de las aproximadamente 500.000 obras incluidas. Si el listado final supera esa cifra, la cuantía se incrementará en la misma proporción por cada título adicional que se sume al censo de materiales afectados.
Los documentos judiciales recogen que el desembolso se ejecutará en varios tramos, con un calendario de pagos que incluye un primer abono significativo, de 300 millones de dólares, una vez quede ratificado el acuerdo por el juez. A partir de ahí, se activarían los restantes pagos hasta completar el total comprometido.
La demanda fue liderada por los escritores Andrea Bartz, Charles Graeber y Kirk Wallace Johnson, y posteriormente respaldada por más autores y editores. El acuerdo prevé que los beneficiarios sean los titulares de derechos de las obras afectadas en los términos que establezca el tribunal.
Anthropic, financiada por grandes tecnológicas como Amazon y Alphabet (Google), mantiene su línea: la empresa insiste en que seguirá centrada en el desarrollo de sistemas de IA seguros y en que la transacción no implica una admisión de culpa.
El origen del caso y el fallo clave del juez Alsup

El litigio estalló tras acusaciones de que la empresa habría descargado y almacenado millones de libros desde repositorios pirata para construir su corpus de entrenamiento. En junio, el juez federal William Alsup dictó un fallo clave: reconoció que el entrenamiento de modelos podría encajar en el uso legítimo por su carácter transformador, pero dejó claro que conservar una “biblioteca central” con copias ilegales constituía una infracción.
Entre las fuentes mencionadas figuran Library Genesis y Pirate Library Mirror, repositorios señalados por alojar libros sin autorización. En línea con ese pronunciamiento, Anthropic se ha comprometido a destruir las copias no autorizadas presentes en sus sistemas, preservando únicamente el material adquirido de forma legal.
Alsup, al admitir la demanda colectiva, llegó a plantear que una eventual condena podría haber superado los 10.000 millones de dólares si la compañía era declarada responsable. La audiencia para aprobar el acuerdo está programada ante el tribunal de San Francisco.
Los demandantes sostuvieron que la creación y mantenimiento de ese repositorio masivo —más de siete millones de libros según varias presentaciones— excedía cualquier amparo del uso legítimo, reforzando la tesis de que el corazón del problema no era el desarrollo de IA en sí mismo, sino la gestión de copias sin licencia.
Reacciones y qué puede cambiar para la IA

Desde el ámbito autoral, voces como la de Mary Rasenberger (Authors Guild) han celebrado que se reconozcan consecuencias cuando se emplean obras sin permiso. Para el abogado de los demandantes, Justin A. Nelson, el pacto sienta un hito al convertirse en la mayor recuperación pública por derechos de autor de la que se tiene noticia.
Por parte de la compañía, Aparna Sridhar, consejera general adjunta, subrayó que el objetivo sigue siendo construir sistemas de IA que ayuden a personas y organizaciones a ampliar capacidades, impulsar el descubrimiento científico y resolver problemas complejos. Ese mensaje enlaza con la hoja de ruta de Anthropic sobre seguridad y transparencia.
El alcance del acuerdo trasciende a las partes implicadas: analistas y juristas consideran que puede convertirse en referencia para otras causas abiertas contra desarrolladores de modelos generativos. En paralelo, ganan terreno los esquemas de licencias con titulares de derechos como vía para obtener datos de entrenamiento.
En el radar aparecen también compañías como OpenAI, Meta y los derechos de autor en libros y Microsoft, objeto de demandas que cuestionan el uso de materiales protegidos para alimentar sus modelos. La resolución con Anthropic sugiere que la industria podría acelerar la transición hacia marcos de compensación y cumplimiento más definidos.
Con la aprobación judicial aún pendiente, el caso deja un mensaje claro: la experimentación y el avance en IA conviven con obligaciones nítidas en materia de propiedad intelectual. La cuantía, el compromiso de borrar copias ilegales y la estructura de pagos dibujan un camino que otras empresas podrían verse tentadas a seguir, especialmente si buscan seguridad jurídica y acuerdos duraderos con los creadores.