El juez federal William Alsup, del Distrito Norte de California, dictó un fallo que podría redefinir el rumbo legal de la inteligencia artificial generativa en Estados Unidos. Determinó que la empresa Anthropic actuó legalmente al usar libros con derechos de autor para entrenar su modelo de lenguaje Claude, siempre que el material haya sido adquirido de manera legítima. Alsup concluyó que este uso califica como “transformativo” bajo la doctrina del “uso justo” (fair use), ya que el modelo no reproduce el estilo ni el contenido específico de las obras, sino que aprende patrones para generar contenido nuevo.
Según la resolución, entrenar modelos de IA con obras protegidas es comparable a que un escritor estudie libros de otros autores para adquirir conocimiento sin replicar sus ideas. El modelo Claude no memorizó ni citó directamente pasajes de los libros usados, sino que los procesó para alimentar una herramienta generativa que produce textos distintos, lo cual cumple con los principios de innovación y utilidad pública protegidos por la ley de derechos de autor.
Este fallo representa una victoria importante para la industria tecnológica, particularmente para empresas que dependen del entrenamiento masivo de datos para mejorar sus sistemas de IA. Anthropic celebró la decisión, destacando que el tribunal reconoció que el uso de libros con copyright puede realizarse sin violar derechos si se hace de manera ética y legal, con fines transformativos y no comerciales directos.
No obstante, el juez también trazó un límite firme. Determinó que Anthropic incurrió en una violación de derechos de autor al mantener una biblioteca centralizada de más de siete millones de libros obtenidos de fuentes piratas. A diferencia de los libros comprados y digitalizados para entrenamiento, estos textos fueron descargados ilegalmente, lo cual excede los márgenes del uso justo, incluso si su propósito era investigativo o educativo.
Por ese motivo, Alsup ordenó que esta parte del caso avance a juicio, programado para diciembre de 2025. Allí se discutirá la magnitud de los daños causados por el uso de obras pirateadas. Las multas podrían ascender a USD 150 000 por cada título, lo que en conjunto significaría una sanción de cientos de millones de dólares si se confirman las acusaciones de infracción sistemática.
El caso se ha convertido en un precedente clave, ya que es la primera vez que una corte estadounidense se pronuncia con esta claridad sobre la legalidad de usar obras protegidas en el entrenamiento de modelos de IA generativa. A raíz de esta decisión, otras compañías del sector —como OpenAI, Meta o Google— podrían verse beneficiadas si logran demostrar que su uso de contenidos con copyright es transformativo, siempre que no recurran a fuentes ilegales para obtenerlos.
El fallo también refuerza la idea de que digitalizar y utilizar legalmente libros comprados, como lo hizo Anthropic en parte, puede ser un camino válido y legal para alimentar sistemas de IA. Alsup reconoció que no existe una diferencia sustancial entre que una persona lea y analice un libro para aprender y que una máquina lo haga mediante entrenamiento automatizado, siempre que el contenido no se reproduzca ni se distribuya en forma directa.
Grupos de defensa de los autores, aunque en desacuerdo con la exoneración parcial de Anthropic, celebraron que el tribunal haya dejado en claro que el uso de copias pirateadas no tiene protección legal bajo ningún argumento técnico. El mensaje para la industria es contundente: si bien es posible entrenar modelos de IA con obras con copyright bajo ciertas condiciones, la legalidad de la fuente y la finalidad del uso son esenciales para mantenerse dentro del marco del uso justo.
Fuentes:
- Court Rules Anthropic Doesn’t Need Permission to Train AI With Books – CNBC
- Federal court says copyrighted books are fair use for AI training – Washington Post
- Anthropic wins ruling on AI training in copyright lawsuit but must face trial on pirated books – AP News
- Anthropic wins key US ruling on AI training in authors’ copyright lawsuit – Reuters
- A federal judge sides with Anthropic in lawsuit over training AI on books without authors’ permission – TechCrunch
Artículo redactado con asistencia de diversas inteligencias artificiales generativas con supervisión humana (redacción AD).