justicia02

Demandas de IA y derechos de autor: los casos judiciales que definen el futuro

Los sistemas y modelos de Inteligencia Artificial (IA) “aprenden” de los datos, información y contenidos que le son suministrados. Algunos de tales contenidos son objeto de protección por la Propiedad Intelectual (PI), que tutela los derechos de autores y de artistas, intérpretes y ejecutantes, así como de otros titulares de derechos de explotación. Siendo así, la utilización por los desarrolladores de sistemas de IA de obras y prestaciones protegidas sin autorización de sus titulares, ni remuneración a los mismos, ha sido objeto de controversias por todo el mundo, muchas de las cuales han llegado a los tribunales. A continuación, hacemos un breve resumen de algunos enfoques, demandas de IA y primeras resoluciones judiciales interesantes en diversos sistemas jurídicos.

Estados Unidos: la batalla legal del fair use contra la IA generativa

Comenzamos por Estados Unidos, cuyas empresas son líderes en desarrollo de IA (OpenAI, Anthropic, X…) y en la industria y mercados culturales.

En el sistema anglosajón del copyright, el enfrentamiento entre ambos bandos ha girado sobre todo en torno al concepto de fair use. En principio, terceros pueden utilizar obras y prestaciones protegidas sin necesidad de autorización de los titulares si dicho uso reúne unos requisitos que lo hacen lícito (fair, justo), los cuales enfatizan, en particular, el tipo de utilización y resultados a que da lugar (p. ej., si son transformativos, es indicativo de licitud) o la explotación en (apertura de) nuevos o diferentes mercados (si concurren en los mismos, no sería un uso autorizado). Así, en los casos en curso, los titulares de derechos esgrimen el argumento de la “dilución del copyright” y que, aun cuando fuera considerado suficientemente transformativo el uso de sus obras por parte de los desarrolladores de IA, este da por resultado obras o prestaciones que compiten o sustituyen a las originales en los mercados de referencia (explotación de obras literarias y periodísticas, musicales, audiovisuales…).

En todo caso, están por llegar las resoluciones judiciales definitivas que permitan consagrar esta línea jurisprudencial o su contraria (amplio reconocimiento del fair use como legitimador de la actividad de entrenamiento de las IA generativas). La cuestión está dependiendo también de la forma en que se van presentando los casos y los hechos que consiguen probarse. No obstante, la consecución de algunos acuerdos entre entidades representativas de titulares de derechos de copyright y desarrolladores de IA ponen de manifiesto que, al menos, se va reconociendo dicho uso de repertorios por parte de estas últimas y de que tal uso ha de suponer algún tipo de remuneración o indemnización para los titulares.

Desde otra perspectiva, hay algunos intentos normativos de proteger también la imagen y voz de los artistas, incluso reconociendo sobre las mismas auténticos “derechos de propiedad intelectual”.

Casos emblemáticos: medios de comunicación vs gigantes tecnológicos

Uno de los primeros casos en presentarse, antes incluso de toda la explosión de los grandes modelos de lenguaje de IA (LLM), fue el de Thomson Reuters vs. Ross Intelligence, resuelto por S. del Juzgado de Distrito de Delaware de 11 de febrero de 2025, que estimó que Ross había infringido los derechos de autor de Thomson Reuters al usar los headnotes de Westlaw para entrenar su motor de búsqueda legal basado en IA, rechazando la defensa de fair use. En su momento, Ross había intentado conseguir una licencia de Westlaw, pero Thomson no se la dio, a pesar de lo cual había recurrido a terceros para obtener los headnotes de Westlaw y entrenar su IA, que funcionaba como motor de su buscador jurídico. Tales headnotes (resúmenes de puntos clave) son obras protegidas, pues implican una selección y redacción originales. El juez Bibas rechazó la defensa de fair use, al considerar que el uso no era transformador y el servicio de Ross competía directamente con Westlaw.

Hay otros casos en curso que han alcanzado también gran repercusión, en los que actúan como demandantes diversos medios de comunicación por utilización de contenidos periodísticos o de referencia. Uno de los primeros fue el del The New York Times vs. Microsoft y OpenAI, presentado el 27 de diciembre de 2023 ante el Tribunal de Distrito para el Distrito Sur de Nueva York (SDNY, nº 1:23-cv-11195). El demandante denuncia infracción del copyright por scraping (copia de millones de artículos sin permiso) y causación de daños por “regurgitación” de contenidos, con numerosos ejemplos de reproducción literal o casi de artículos completos del periódico por parte de ChatGPT. A juicio del periódico, ello demuestra que la IA no es solo un motor de búsqueda, sino un competidor directo que sustituye la necesidad de que un usuario visite el sitio web del NYT, destruyendo su modelo de negocio de suscripciones y publicidad. Además, el periódico acusa a los demandados de causar daños también como resultado de las “alucinaciones” del modelo, que atribuye como fuente al periódico informaciones o recomendaciones falsas. El caso sigue en curso, tras rechazar el juez Stein su desestimación en marzo de 2025.

En Alden Global Capital vs. OpenAI/Microsoft, ocho periódicos estadounidenses, entre ellos New York Daily News y Chicago Tribune, propiedad de Alden Global Capital, demandaron a OpenAi y Microsoft por usar millones de artículos periodísticos para entrenar ChatGPT y Copilot sin autorización ni compensación. La demanda, presentada el 30 de abril de 2024, sigue su curso en el SDNY (nº 1:24-cv-03285), con argumentos similares de los del caso anterior. En la misma línea, News Corp (Dow Jones) vs. Perplexity, presentado ante el SDNY en octubre de 2024 (con actualización en enero de 2025; nº 1:24-cv-07984). Y enfatizando la copia de las referencias y definiciones, Encyclopædia Britannica y Merriam-Webster vs. Perplexity, demanda presentada también ante el SDNY el 10 de septiembre de 2025 (nº 1:25-cv-7546), y que destaca el modelo de IA ignora deliberadamente las barreras técnicas (como el archivo robots.txt) que Britannica utiliza para impedir que los bots copien su contenido.

Una argumentación diferente fue la presentada en el caso Raw Story y AlterNet vs. OpenAI. En este caso, centrándose en una sección distinta de la DMCA estadounidense, los demandantes reclamaron que durante el proceso de copia (scraping) de miles de sus artículos por parte de OpenAI, esta había eliminado deliberadamente ciertos metadatos, la información de gestión de derechos de autor (CMI), de tal manera que en sus outputs, el sistema no era capaz de citar las fuentes ni informar de que estaba sirviendo contenido protegido. La jueza McMahon desestimó la demanda (resolución, Opinion and Order de 7 de noviembre de 2024) al no conseguir probar daño alguno derivado de tales actividades y destacando que lo que realmente pretendían los demandantes era reclamar por la copia no autorizada (sin pagar) de sus artículos y contenidos, lo que debía argumentarse de otra manera. Por ello, aunque desestimó la interpuesta, dejó abierta la puerta a la presentación de una nueva demanda con otra argumentación y pruebas.

Autores y artistas: las demandas colectivas contra las IA y los primeros acuerdos

También ha habido demandas interpuestas por autores. Las dos más significativas, que muestran, además, las diferentes y casuísticas aproximaciones judiciales al respecto, son los casos Bartz y Kadrey, ambas demandas colectivas (class actions; aquí, la del caso Bartz, y aquí la tercera demanda consolidada del caso Kadrey, sobre la que se pronunció el órgano judicial) interpuestas por distintos grupos de autores y resueltas casi en la misma fecha, 23 y 25 de junio de 2025, respectivamente, por distintos jueces del Tribunal de Distrito del Norte de California (NDC).

En Bartz et al vs. Anthropic (caso nº 3:24-cv-05417), el juez Alsup parece inclinarse formalmente en su Orden sobre el fair use del lado de la desarrolladora de la IA en su consideración de que ha habido un fair use, si bien tal consideración está fuertemente influenciada por las circunstancias concretas del caso. Anthropic había adquirido muchos ejemplares, incluso de segunda mano, que luego había digitalizado, aunque también había adquirido muchos después de digitalizar y utilizado algunos sitios de descargas de conocida reputación “pirata” (LibGen y PiLiMi). En todo caso, el juez reconoce que Anthropic había realizado sobre las copias de las obras un uso transformador (“[t]he technology at issue was among the most transformative many of us will see in our lifetimes”, apdo. 5)”. Sin embargo, a pesar de la aparente victoria de los desarrolladores de IA, el juez dejó la puerta abierta para demandarla por piratería, aceptando los hechos expuestos por los demandantes sobre el uso de obras de data sets de dudosa legalidad y el hecho de copiar las obras en sí: “Anthropic assembled these copies into a central library of its own, copied further various sets and subsets of those library copies to include in various “data mixes,” and used these mixes to train various LLMs. Anthropic kept the library copies in place as a permanent, general-purpose resource even after deciding it would not use certain copies to train LLMs or would never use them again to do so. All of Anthropic’s copying was without plaintiffs’ authorization” (Statement y Conclusion). “We will have a trial on the pirated copies used to create Anthropic’s central library and the resulting damages, actual or statutory (including for willfulness). That Anthropic later bought a copy of a book it earlier stole off the internet will not absolve it of liability for the theft but it may affect the extent of statutory damages” (Conclusion).

Dicho de otra manera: el uso en sí para el entrenamiento sí es fair use; pero la descarga o copia sin autorización y el escaneado del material para hacerlo y disponer así de una biblioteca o data set de obras, no. Con ello, realiza un análisis separado de ambos momentos (descarga y formación de la biblioteca, primero, y uso lícito para entrenamiento de la IA, después), que mantuvo en una denegación de moción de suspensión posterior solicitada por Anthropic (agosto 2025)

Por el contrario, el juez Chhabria, del mismo Tribunal de Distrito, en la misma fecha hizo consideraciones algo distintas en su Orden denegatoria de juicio y admitiendo la moción de desestimación de la demandada, Kadrey et al vs. Meta (caso nº. 23-cv-03417-VC, https://chatgptiseatingtheworld.com/wp-content/uploads/2025/06/Judge-Chhabria-Fair-Use-decision-in-Kadrey-v.-Meta-June-25-2025.pdf). El juez Chhabria consideró que la descarga y uso de las obras por parte de Meta para el entrenamiento de su modelo sí podía considerarse fair use; a diferencia de Alsup, realiza un análisis conjunto de ambas operaciones. Reconoce un beneficio público leve, pero suficiente, al permitir que el modelo Llama genere nuevas expresiones creativas, encontrando un uso altamente “transformativo” frente al cual incluso las objeciones de uso comercial resultan menos relevantes: el modelo no reproduce las obras originales (no las “recopila” ni “reempaqueta”), sino que las utiliza para aprender, desarrollar patrones estadísticos y luego generar contenido nuevo. No obstante, a diferencia de Alsup, aceptó la teoría de la llamada “dilución del mercado de derechos de autor”, doctrina que sostiene que entrenar modelos con obras protegidas puede diluir el mercado de los autores, al facilitar la creación de miles de obras que compiten indirectamente con los originales, aunque no los copien literalmente; es decir, el daño no proviene de la infracción directa, sino de la competencia masiva que los modelos entrenados pueden generar. A pesar de ello, el juez achacó a los demandantes no haber aportado pruebas suficientes en esta línea. En sus obiter dicta, el juez llegó a afirmar: “The upshot is that in many circumstances it will be illegal to copy copyright-protected works to train generative AI models without permission. Which means that the companies, to avoid liability for copyright infringement, will generally need to pay copyright holders for the right to use their materials”. El problema, continuó diciendo, es que el tribunal debe decidir cada caso en concreto en función de las pruebas presentadas, las cuales, en este, calificó de insuficientes (p. 4). Así pues, el triunfo de Meta y su defensa basada en el fair use se produce, en realidad, por una ausencia de pruebas en relación con la infracción indirecta, vía competencia, por parte de los demandantes, pues parece que si las hubieran aportado habrían ganado su demanda.

Como puede apreciarse, el entrenamiento de los modelos de IA pone a prueba las costuras y lagunas de la normativa, con diferentes aproximaciones al fair use pero con un cierto sentimiento por parte de los juzgadores de que, bien de forma directa, bien por dilución del copyright y por concurrencia competencial, puede haber un cierto comportamiento parasitario por parte de las desarrolladoras de IA, que debieran haber obtenido previamente permisos sobre el material que utilizan para el entrenamiento de sus sistemas. De hecho, la propia US Copyright Office, en su Informe Copyright and Artificial Intelligence. Part 3: Generative AI Training, versión de pre-publicación, parece mostrarse partidaria de acoger la teoría de la dilución del copyright que parece estar desarrollándose sobre la base del efecto de la IA sobre el mercado potencial o el valor de la obras protegidas: “The speed and scale at which AI systems generate content pose a serious risk of diluting markets for works of the same kind as in their training data. That means more competition for sales of an author’s works and more difficulty for audiences in finding them. If thousands of AI-generated romance novels are put on the market, fewer of the human-authored romance novels that the AI was trained on are likely to be sold. Royalty pools can also be diluted (…) Market harm can also stem from AI models’ generation of material stylistically similar to works in their training data” (p. 65).

En el citado caso de Anthropic, la desarrolladora de la IA ha llegado finalmente a un acuerdo (Acuerdo de Conciliación de la Demanda Colectiva) con los demandantes para evitar la acción de clase, por el cual ha accedido a pagar 1.500 millones de dólares, que, tras una paralización inicial por las dudas surgidas en torno a la transparencia en la lista de obras afectadas, la identidad de los demandantes de la acción colectiva y la ausencia de garantías de que no fueran a surgir nuevas reclamaciones en el futuro (Orden No. C 24-05417 WHA, de 7 de septiembre), fue aprobado (Memorandum de aprobación provisional del Acuerdo) de forma preliminar por el juez Alsup tras la respuesta que las partes dieron a sus preguntas, el día 25 de septiembre. A pesar de las críticas, la CEO de la Association of American Publishers puso en valor el acuerdo: “The proposed settlement provides enormous value in sending the message that artificial intelligence companies cannot unlawfully acquire literary works from shadow libraries or other pirate sources to use as the building blocks for their businesses”. Lo interesante del mismo, más allá de las críticas o insuficiencias, es que supone un reconocimiento por parte de la desarrolladora de la IA en relación con la existencia de intereses y derechos de terceros, los creadores, afectados y merecedores de compensación.

En relación con los artistas, en concreto, en junio de 2025 se presentaron otras dos acciones colectivas por parte del cantante de country Tony Justice y otros, contra Suno (Justice y 5th Wheel Records vs. Suno, caso nº 1:25-cv-11739, en Boston, presentada el 14 de junio) y contra Udio (Justice y 5th Wheel Records vs. Udio caso nº 1:25-cv-5026, en Nueva York, SDNY, el 15 de junio) por haber utilizado sin autorización grabaciones de Justice y otros cientos de artistas (class members) para el entrenamiento de sus modelos de IA. Entre los argumentos de los abogados de Justice se cita el propio Informe de la US Copyright Office ya referido que, a su juicio, “emphasized that the fair use doctrine does not excuse unauthorized training on expressive works (e.g., music) particularly when those works are used to generate substitutional outputs that may replace the originals in the relevant marketplace”. Al respecto, señalan, “Suno/Udio training its AI model on the copyrighted songs of independent artists, Plaintiffs and Class Members, without authorization, to then create competing music in the exact same marketplace, is unlikely fair use, and therefore, is prima facie copyright infringement”. En definitiva, se va perfilando el argumento de la competencia y la dilución del mercado para luchar contra una concepción más clásica del fair use basado prioritariamente en el uso transformador.

De otra parte, desde la RIAA estadounidense (Recording Industry Association of America) ya se habían coordinado diversas acciones y demandas previas contra esas dos mismas desarrolladoras de IA, ya desde junio de 2024, también en Boston y Nueva York, por “infracción masiva de grabaciones sonoras protegidas por derechos de autor copiadas y explotadas sin permiso por dos servicios de generación de música multimillonarios”: UMG, Capitol, Atlantic et al vs. Suno (demanda presentada el 24 de junio de 2024 ante el Tribunal de Distrito de Massachusetts, caso nº 1:24-cv-11611) y UMG, Capitol, Atlantic et al vs. Udio (demanda de idéntica fecha y contenido general, ante el SDNY, caso nº 1:24-cv-04777). Nuevamente, el argumento de fondo frente al pretendido fair use es que este no se aplica a la IA generativa en cuanto produce resultados que compiten directamente con los materiales objeto del copyright que se han utilizado para entrenarla. El fair use, afirma la RIAA, “is not available when the output seeks to ‘substitute’ for the work copied. And Suno and Udio have, in their own words, conceded that is exactly what they intend,” the RIAA asserted”. Además, señala, los propios inversores y desarrolladores de IA han llegado a admitir que usan contenido protegido para entrenar a sus modelos. La ECSA (European Composer and Songwriter Alliance) acogió muy favorablemente la presentación de tales demandas.

En el caso contra Udio, Universal (a finales de octubre) y Warner (a mediados de noviembre) han alcanzado sendos acuerdos con la demandada, en un intento de monetizar y controlar la tecnología: a cambio de una licencia comercial (pago), las discográficas permitirán a Udio acceder a sus respectivos catálogos para crear una nueva plataforma donde explotar las funciones de la IA, pero con la autorización tanto de las majors como de, parece, los propios autores y artistas que lo hayan consentido (sistema opt in, en que la IA tendrá acceso incluso a las pistas originales). Además, Udio etiquetará los resultados creados con IA (fingerprinting), que tampoco se podrán descargar libremente, solo usarse o consumirse dentro de la propia plataforma (una suerte de “jardín vallado”). Los acuerdos, al menos de momento, no han sido hechos públicos más que a través de comunicados, pero han generado ya críticas tanto entre los usuarios(eliminación de descargas, se pasa de ser un instrumento de creación a una especie de streaming cerrado: Udio queda destruido) como entre expertos y titulares de PI (se “blanquea” un sistema de uso ilegal y no se ha llegado al final del juicio para concretar el concepto y requisitos del fair use). Los propios músicos temen que se favorezca a los artistas de estas discográficas frente a los demás, pues los “suyos” podrán recibir regalías, frente a los independientes cuyas prestaciones ya hayan sido utilizadas para el modelo base, que seguirán sin beneficiarse de lo obtenido.

Universal, Sony y Warner han llegado también a acuerdos con una pequeña startup, Klay, para el desarrollo de un nuevo modelo musical para producir música con IA en forma legal.

Pueden encontrarse referencias y documentos de todos los casos citados, y otros, en el sitio ChatGPT is eating the world, con una comparativa de las diferentes aproximaciones de los jueces Alsup y Chhabria, casos que se consideran particularmente relevantes. Con fecha 7 de noviembre, la web, que se actualiza diariamente con menciones a los diversos casos, identificaba y colocaba sobre el mapa un total de 59 demandas por copyright contra desarrolladores de IA en los EE.UU.

Planteamientos alternativos y nuevas leyes

Aunque no llegó a los tribunales, el caso de clonación de voz más famoso fue el de Scarlett Johansson vs. OpenAI (EE. UU., 2023). Una de las voces (“Sky”) creadas por OpenAI para su asistente ChatGPT-4o se parecía extraordinariamente a la de la famosa actriz (que había puesto voz a la IA de la película Her), la cual había rechazado ceder su uso a la desarrolladora. Ante las acusaciones de uso no autorizado y el revuelo ocasionado, OpenAI finalmente desistió de su intención y no hubo caso judicial.

En el caso de Lehrman y Sage vs. Lovo (caso nº 1:24-cv-03770, ante el SDNY) los demandantes, actores de doblaje, interpusieron también una class action, el 16 de mayo de 2024 (con enmienda de la demanda en septiembre, que añadía la reclamación por infracción de derechos de autor) a la startup especializada en clonación de voz mediante IA, por comercializar sus voces clonadas para su uso en audiolibros, anuncios y podcasts. El 10 de julio de 2025, el juez Oetken desestimó parcialmente sus pretensiones en relación con la propiedad intelectual de las grabaciones y la consideración de la voz como marca, pero permitió que siguiera adelante en relación con la existencia de fraude, incumplimiento de contrato y violación del derecho de publicidad.

En relación con esta protección de ciertos atributos de la personalidad, como la voz, en EE.UU. se ha desarrollado alguna iniciativa como el Proyecto de Ley No AI FRAUD Act (No Artificial Intelligence Fake Replicas And Unauthorized Duplications Act, H. R. 6943) introducido en el Congreso de los EEUU en enero de 2024 (anterior 118ª legislatura) con la intención de reconocer para toda persona un “derecho de propiedad intelectual” (sic) sobre su apariencia y voz; no se ha vuelto a introducir en el Congreso en la actual legislatura. En Tennessee se aprobó en marzo de 2024 la pionera “Ley ELVIS” (siglas en inglés de Ensuring Likeness, Voice, and Image Security Act, HB 2091 / SB 2096), que busca proteger la imagen, la voz y la semejanza de las personas frente al uso no autorizado, especialmente en el contexto de tecnologías como la IA y los deepfakes. Esta norma prohíbe la explotación comercial no autorizada de estos atributos; en concreto, la voz queda protegida incluso si es una simulación generada por IA, siempre que sea reconocible y atribuible a una persona.

Unión Europea: la excepción TDM bajo el microscopio judicial

En la Unión Europea, con nuestro sistema de PI continental, distinto del copyright anglosajón, la aproximación al mismo problema (el uso no consentido previamente de obras y prestaciones protegidas por parte de los desarrolladores de IA) ha sido necesariamente diferente. En la tradición europea se opera sobre el reconocimiento de unos derechos a los titulares y unas excepciones a tales derechos exclusivos tasadas legalmente, conforme a las cuales se permite que terceros disfruten o utilicen los contenidos objeto de protección sin necesidad de autorización, aunque en algunos casos tengan que ofrecer compensaciones o remuneraciones obligatorias a cambio, negociadas y/o administradas normalmente por las entidades de gestión colectiva de derechos. En este marco legal, las desarrolladoras de sistemas de IA pretenden beneficiarse de una concreta excepción, la de minería de datos y textos (text and data mining, TDM), según la cual, en su interpretación, podrían utilizar contenidos y prestaciones protegidos sin autorizaciones ni pagos siempre que los titulares de derechos no se hubieran opuesto a tales usos (sistema de opto out), o bien si se hiciera con fines científicos, sin ánimo de lucro.

Primeras sentencias alemanas: GEMA vs. OpenAI

Uno de los primeros casos resueltos por los tribunales, fallando a favor de los desarrolladores de IA es el llamado Caso Laion (Landgericht Hamburg, S. de 27 de septiembre de 2024, nº 310 O 227/23). Laion, entidad sin ánimo de lucro, tomó una fotografía del demandante para incluirla en una base de datos que emparejaba imágenes con sus descripciones textuales con la que alimentaba una IA generativa. Dicha foto se comercializaba a través de una agencia que expresamente prohibía su uso sin licencia. El Tribunal alemán concluyó, no obstante, que el uso hecho era lícito al amparo de la excepción de TDM, que en la norma alemana de trasposición de la Directiva lo permitía si no hay fines comerciales y se actúa en interés público. Aunque de los resultados de la IA de Laion se pudieran aprovechar entidades que sí tuvieran ánimo de lucro, puesto que ninguna de ellas ejercía cierto grado de influencia o acceso preferencial a los resultados de las investigaciones de la demandada, su actividad resultaba ser lícita.

Si bien pudiera presentarse como un triunfo de los desarrolladores de sistemas de IA sobre los titulares de derechos de autor y afines, ha de tenerse en cuenta el peculiar matiz de la excepción aplicada, la ausencia de ánimo de lucro y el interés público en su desarrollo. Y, aun así, puede criticarse pues tras Laion podía haber ciertos intereses comerciales que quizá no fueron analizados con suficiente profundidad por el Tribunal.

Al poco de la resolución de este caso, la principal entidad de gestión colectiva de derechos alemana GEMA (Gesellschaft für musikalische Aufführungs und mechanische Vervielfältigungsrechte), presentó sendas demandas contra Open AI (13 de noviembre de 2024) y Suno (21 de enero de 2025, ante el Tribunal Regional de Múnich (Landgericht München), tras constatar que el contenido que generaban sus respectivos modelos o agentes de IA mediante simples instrucciones de sus usuarios vulneraba los derechos de sus asociados, como podía apreciarse mediante la simple constatación de los resultados de salida, que reproducían composiciones musicales protegidas.

Por lo que respecta al primer caso, ha sido ya objeto de resolución, en la reciente Sentencia de 11 de noviembre de 2025 (GEMA vs. OpenAI, n.º de asunto 42 O 14139/24; nota de prensa, en inglés). El Tribunal, como ya había adelantado en la exposición inicial del caso hecha por la Sala antes del juicio oral, ha rechazado la excepción de TDM alegada por OpenAI (que argumentaba, además, que también que las salidas solo se generan en respuesta a los prompts de los usuarios, por lo que la responsabilidad sería de estos), declinando incluso la presentación de una cuestión prejudicial ante el TJUE, por cuanto no tenía ninguna duda al respecto. La Sala ha dictaminado que la capacidad del modelo para devolver como output fragmentos de obras protegidas muestra que las mismas han sido utilizadas (“reproducidas” en sentido técnico-jurídico, afectando al derecho de exclusiva de los titulares) para su entrenamiento, y que la excepción de TDM no se aplica a sistemas de IA generativa que memorizan y reproducen contenido protegido. En una concepción estricta de las técnicas de TDM, señala que estas se refieren a aquellas que permiten al sistema alcanzar inferencias, patrones, etc. (“técnica analítica automatizada destinada a analizar textos y datos en formato digital a fin de generar información que incluye, sin carácter exhaustivo, pautas, tendencias o correlaciones”, dice el art. 2(2) Directiva 2019/790), de manera que todo lo que vaya más allá de este límite, no queda cubierto por el mismo y obliga a los usuarios de obras o repertorios (como OpenAI o cualquier otra desarrolladora de IA) a obtener una autorización previa para poder realizar las labores de entrenamiento de tales modelos. Vista la argumentación, se ordena a OpenAI cesar la reproducción no autorizada y pagar indemnización por daños y perjuicios, así como, si desea seguir con su actividad, obtener licencias para futuros entrenamientos. Frente a la satisfacción de GEMA, OpenAI, por supuesto, no está de acuerdo con la decisión y ya ha anunciado su intención de recurrir. Habrá que ver si posteriores instancias o el propio TJUE avalan esa estricta interpretación de la definición de TDM, que no considera la reproducción meramente accesoria de las operaciones de análisis en el marco del entrenamiento; quizá la devolución de resultados (outputs) idénticos a los datos (contenidos) de origen (inputs) muestra que, efectivamente, no es tal, y hay reproducciones permanentes que prueban un uso de las obras más allá de lo permitido por la excepción.

El caso GEMA vs. Suno está pendiente de resolución ante el mismo Tribunal, pero es de esperar una sentencia similar. Las similitudes absolutamente evidentes de los outputs, en términos de melodía, armonía y ritmo, con obras de fama mundial (tales como Forever Young, de Alphavill, Mambo No. 5, de Lou Bega o Cheri Cheri Lady, de Modern Talking, entre otros muchos) ponen de manifiesto, a juicio de la entidad demandante, que Suno utilizó de forma sistemática el repertorio de GEMA para el entrenamiento de su herramienta musical, la cual explota comercialmente (incluso con modelos de suscripción) sin retribuir a los autores de las obras por dicho uso.

Otros frentes europeos

Al amparo de la normativa de la UE, en Francia se presentó en marzo de 2025 una importante demanda contra Meta por parte del Syndicat National de l’Édition (SNE), Société des Gens de Lettres (SGDL) y Syndicat National des Auteurs et des Compositeurs (SNAC) contra Meta Platforms Inc., en el Tribunal Judicial de París (3ª sala): SNE, SGDL y SNAC c. Meta. Los demandantes alegan que Meta ha utilizado masivamente obras protegidas por derechos de autor (libros y otros textos) pertenecientes a sus miembros sin la debida autorización ni compensación para entrenar su modelo de inteligencia artificial generativa, específicamente el modelo LLaMA (Large Language Model Meta AI). La demanda se basa en la violación de los derechos de autor y también en el «parasitismo económico», argumentando que Meta se aprovecha injustamente del esfuerzo y la inversión de los creadores. Los demandantes pretenden la retirada completa de las obras protegidas de los conjuntos de datos utilizados para entrenar el modelo LLaMA y una compensación económica para los autores y editores afectados por el uso de sus obras. Es un primer intento, en Europa, de abrir también la vía de la competencia desleal en la lucha contra los resultados que produce la IA generativa, aprovechándose del esfuerzo de los titulares para entrar en los mercados de contenidos protegidos.

Por otra parte, si en el caso OpenAI alemán el Tribunal rechazó la presentación de cuestión prejudicial alguna, no sucedió así en el caso de Like Company vs. Google Ireland Limited en el que la demandante acusa a Google (Alphabet) de reutilizar contenidos periodísticos sin autorización en su chatbot Gemini, alegando la correspondiente infracción de derechos de autor y vulneración del derecho de los titulares a excluir sus obras del entrenamiento de IA. El Tribunal de distrito de Budapest (Budapest Környéki Törvényszék), de Hungría, remitió al TJUE el 3 de abril de 2025 una cuestión prejudicial (asunto C-250/25), preguntando, en definitiva, si el uso de artículos periodísticos por parte de un chatbot generativo constituye reproducción y si estaría o no amparado por la excepción de TDM de la Directiva 2019/790, y si la generación de resúmenes por tales sistemas constituye una puesta a disposición del público en el sentido de la Directiva de Derechos de Autor (Directiva 2001/29). Las respuestas del TJUE a las concretas preguntas planteadas, en torno a la reproducción para el entrenamiento y a la posterior inclusión de los artículos en los resultados, serán determinantes para la interpretación de la excepción de TDM y, en definitiva, para la relación entre los desarrolladores de IA y los titulares de derechos en Europa. Tales respuestas, no obstante, tardarán aun meses, si no uno o dos años, en llegar.

Cabe señalar, por último, que también en Europa han surgido conflictos en torno al uso de la voz de actores y actrices por parte de sistemas de IA. Similar al caso de Scarlett Johanson, en Francia, la actriz de doblaje Françoise Cadol, voz gala de la protagonista de la saga de videojuegos de Tomb Raider, Lara Croft, vio como la casa editora añadía pasajes con su voz que ella no había grabado previamente. De nuevo, la presión mediática generada y la amenaza de acciones legales por uso no autorizado de contenido generado por IA, hizo que la editora del juego diera marcha atrás y publicara una nueva versión sin dicha voz en off.

Otras jurisdicciones: Reino Unido, Canadá y Asia en la lucha por los derechos de autor y por la imagen de los artistas

En el Reino Unido, entre los casos que han alcanzado repercusión mediática, cabe destacar otro reciente, presentado también como victoria de los desarrolladores de IA, aunque cabe nuevamente hacerlo con muchos matices, pues la discusión principal fue eludida por una cuestión de competencia territorial que puede amparar fugas de Derecho. En el caso Getty Images vs. Stability AI (High Court of Justice, Londres, Reino Unido, [2025] EWHC 2863 (Ch), S. de 4 de noviembre de 2025), la demandante accionó contra el uso masivo de imágenes de su repertorio hecho por Stability para entrenar su modelo Stabble Diffusion. Se resuelven varias cuestiones que básicamente llevan al Tribunal a afirmar que aunque un modelo se entrene con contenido ilícito eso no convierte en ilícitos al modelo o a sus resultados. El Tribunal rechazó las reclamaciones de Getty por infracción primaria de derechos de autor, por cuanto no pudieron demostrar que el entrenamiento del modelo (el acto de «copiar» o “reproducir” las imágenes) se hubiera realizado en el territorio del Reino Unido; y, respecto de eventuales infracciones secundarias, el modelo en sí que se importa y distribuye en Reino Unido, no es considerado una copia infractora, pues no almacena propiamente copias de las imágenes con las que se le ha entrenado: simplemente aplica aquí los patrones matemáticos extraídos de ellas. Getty solo obtuvo una victoria parcial en relación con su marca registrada, en cuanto algunas de las imágenes producidas, pero solo al comienzo de la explotación del modelo, no después, reproducían su marca de agua. Como decimos, la infracción principal fue desestimada por no producirse el entrenamiento del modelo en una jurisdicción, la británica, en que pudiera cuestionarse si tal acto implicaba reproducciones no autorizadas. El proceso de Getty contra Stability sigue su curso en EE.UU., donde gira, como se ha dicho, en torno a si la actividad de entrenamiento que involucra la utilización de imágenes del banco de Getty es o no fair use. En definitiva, en el ordenamiento aplicable al lugar de entrenamiento no es seguro aun que tal actividad sea ilícita.

En Canadá, por su parte, cinco grandes grupos mediáticos (Torstar, Postmedia, The Globe and Mail, The Canadian Press y CBC/Radio‑Canada) denunciaron a OpenAI por utilización de sus contenidos periodísticos sin autorización para entrenar ChatGPT, incluyendo elusión de medidas técnicas para evitar el scraping masivo y violación de sus licencias y condiciones de uso de los sitios web: Toronto Star Newspapers Limited et al. v. OpenAI, caso nº CV-24-00732231-00CL. En su demanda, presentada ante el Tribunal Superior de Justicia de Ontario el 29 de noviembre de 2024, alegaron también que OpenAI ha construido un negocio multimillonario y se ha enriquecido injustamente a expensas de la inversión masiva que los medios realizan para crear periodismo de calidad, y reclamaron que se bloqueara el uso de estos materiales y se compensara económicamente a los afectados.

Cabe destacar, por último, y como ya hemos apuntado, que algunos artistas están recurriendo a otros modos de protección, en particular, de su voz e imagen. El recurso a estos otros medios permite luchar, siquiera sea de forma indirecta, contra la utilización de sus prestaciones protegidas, en la medida en que estas son exteriorizadas mediante tales atributos de la personalidad. Así, en China, vid. el caso Yin vs. varias empresas de audiolibros cuyo fallo por parte del Tribunal de Internet de Beijing en abril de 2024 estableció que la voz de una persona natural, aunque procesada por IA, sigue estando legalmente protegida, ya que conserva características únicas que pueden evocar pensamientos o emociones asociadas con esa persona. Y en la India, vid. los casos Anil Kapoor vs. Simple Life India and others (2023 SCC OnLine Del 6914, Tribunal Superior de Delhi) y Arijit Singh vs. Codible Ventures LLP and others (IPR SUIT (L) No.23443 of 2024, resuelto en julio de 2024 por el Tribunal Superior de Bombay) van en el mismo sentido. En el primero, el tribunal, cerró alguno de los sitios demandados y prohibió a todos ellos el uso de los atributos de la personalidad del demandante sin su consentimiento. En el segundo, el juez dictaminó que el nombre, la voz, la imagen y la apariencia de Singh están protegidos por sus derechos de la personalidad, sentando un precedente legal importante contra el uso no autorizado de la identidad de los artistas; su voz, dijo, es parte integral de su identidad.