El entrenamiento de IA generativa con obras protegidas sigue dividiendo a gobiernos, tribunales e industrias creativas fuera de la UE. Reino Unido y Estados Unidos han ofrecido en marzo de 2026 dos respuestas muy distintas al mismo problema: cómo compatibilizar innovación, licencias, transparencia y protección efectiva de los titulares de derechos.
Marzo de 2026 fue un mes intenso para las industrias creativa y tecnológica en el Reino Unido, aunque parece que ha sido la primera que ha logrado ciertas victorias parciales… o no tanto. Desde 2024, el Gobierno laborista británico venía trabajando con el fin de aprobar una normativa que permitiera a los desarrolladores de modelos y sistemas el entrenamiento de IA Generativa (IAGen) con obras y prestaciones protegidas por derechos de autor para entrenar sus modelos con una opción de exclusión opt-out.
Dicha iniciativa venía acompañada de algunas otras que ya habían enfrentado a las Cámaras de los Comunes y los Lores. En varias ocasiones a lo largo de 2025, la segunda había introducido en proyectos del Gobierno enmiendas tendentes a incrementar la transparencia (información sobre el uso de obras protegidas en el entrenamiento de la IA) o impedir el libre entrenamiento de IAGen con obras protegidas (así, en enero o en mayo de 2025), las cuales luego fueron bloqueadas por los Comunes.
Esta posición gubernamental había sido fuertemente criticada por la industria cultural, con conocidos músicos a la cabeza, como Elton John, Dua Lipa (ambos, entre los firmantes de una carta abierta al Gobierno con proclamas como “Supporting us supports the creators of the future. Our work is not yours to give away.”) o Paul McCartney, quien advertía de que una normativa en ese sentido redundaría en una pérdida de creatividad.
Vuelta atrás tras la consulta pública
Con el fin de conocer el estado de la cuestión entre los interesados, el Gobierno lanzó una encuesta que duró desde diciembre de 2024 a febrero de 2025, con más de 11.500 respuestas, y sobre la cual elaboró posteriormente un informe determinante para el abandono de sus intenciones iniciales. El Report on Copyright and Artificial Intelligence, preparado por el Department for Science, Innovation and Technology y presentado al Parlamento en marzo de 2026, ha analizado los resultados de dicha encuesta y de otros desarrollos posteriores, y ha sido acompañado de una Evaluación de Impacto Económico donde se reconocen las contribuciones de ambos sectores, tanto el cultural-creativo (que califica de activo nacional de primer nivel mundial) como el tecnológico (que crece 23 veces más rápido que el resto de sectores productivos) en la economía del Reino Unido.
En relación con la utilización de contenidos protegidos para el entrenamiento de la IAGen, el citado informe pone de manifiesto cómo la mayoría de encuestados, en particular, del sector creativo, rechazaban la opción gubernamental preferida de establecer una amplia excepción a favor de los desarrolladores de IAGen con un opt-out por los titulares de derechos. Y ello, por cuanto se mostraban preocupados de que una excepción amplia permitiera que la IAGen aprendiera de sus obras, sin compensación, y entrara en competencia directa con ellos.
Por el otro lado, muchos desarrolladores de IA y otros del sector tecnológico reivindicaron que las excepciones a los derechos de autor apoyarían la innovación en IA en el Reino Unido, incluidas universidades y usos científicos (aunque una excepción similar a la del art. 3 de la Directiva 2029/790 UE ya existe en la normativa británica, section 29ª del Copyright, Designs and Patents Act 1988) beneficiando a su economía en general. Ante la fuerte contestación, el Gobierno rechazó continuar con su intención inicial, como pone de manifiesto el propio informe (pp. 10 y 11) y como la Secretaria de Tecnología declaró públicamente el 18 de marzo, dando marcha atrás a su proyecto original.
En relación con las licencias, el informe señala las diferencias entre los dos sectores en conflicto: aunque reconoce la importancia de las licencias para asegurar ingresos de los titulares de derechos, finalmente propone no intervenir en el mercado en este punto, a pesar de las peticiones del sector creativo para que cree las condiciones necesarias y que dichas licencias puedan prosperar en el mercado. En su lugar, se limitará a monitorizar el mercado y los desarrollos globales.
En definitiva, el Gobierno británico se ha quedado sin una opción clara sobre la dirección en la que ha de avanzar, a la espera de ver, dicen, los nuevos desarrollos que vayan surgiendo en tecnología, tribunales, aproximaciones internacionales, transparencia (la cual debe contribuir a la defensa de los intereses de los titulares… pero sin distorsionar demasiado el desarrollo y despliegue de la IA en el país, dice el informe, apdo. 30) y la evolución del mercado de licencias.
Parece así que el mantenimiento del statu quo, decisión que solo apoyaba un 10 % de los encuestados, es la opción por defecto que ha adoptado el país. Pero es engañosa: presentada como una victoria del sector creativo y los titulares de derechos, es tal solamente por cuanto se rechaza la alternativa propuesta, que ciertamente era peor para ellos, no porque la pervivencia del sistema actual sea óptima o, ni siquiera, aceptable; en el dudoso contexto actual, al amparo de la incertidumbre normativa (aunque se repita que no es tal, que la normativa protege a los titulares, la práctica parece otra) es en el que se están produciendo las violaciones masivas de derechos de autor.
El aprendizaje humano no es igual al entrenamiento de IA Generativa
En esta línea, otro importante documento vio la luz en el Reino Unido este mismo mes de marzo, de forma paralela a la claudicación gubernamental: el informe del Comité de Comunicaciones y Digital de la Cámara de los Lores (dirigido por la laborista Baronesa Keeley) AI, copyright and the creative industries, en el que se opta de manera decidida por fortalecer el sistema del copyright y a sus titulares sin ceder a las presiones del sector IAGen. El informe se elaboró tras la comparecencia y consultas de trabajos e informes de numerosos expertos y representantes de los distintos sectores.
Frente a quienes defendieron que la norma británica es clara y que copiar obras para entrenar (más allá de la excepción de usos no comerciales) constituye ejercicio del derecho de reproducción y requiere licencia, uno de los curiosos argumentos de la industria tecnológica fue la asimilación del proceso de aprendizaje de las máquinas al proceso humano: si este no infringe derechos, tampoco ha de hacerlo aquel. El Comité lo rechazó de plano, recurriendo incluso a lo que en su momento afirmara la Oficina de Copyright estadounidense (U.S. Copyright Office, Copyright and Artificial Intelligence, Part 3: Generative AI Training, pre-publication version, May 2025, p 46): el aprendizaje humano es imperfecto y filtrado, frente a las perfectas copias digitales que hace la IA, analizándolas casi instantáneamente y produciendo modelos que pueden crear obras competidoras “a velocidad y escala superhumanas” (apdo. 28, p. 19).
En general, el informe se posiciona a favor de la industria creativa, señalando que no es cierto que haya incertidumbre normativa, sino que es claro que el entrenamiento de modelos de IAGen supone infracciones del copyright si se hace sin autorización. Lo que hay que hacer es reforzar la aplicación de la normativa (apdo. 39 final, p. 22, y Conclusión 4, p. 73). De hecho, el informe sugiere que la propia lucha de la industria tecnológica por soluciones como la excepción de minería muestra que no confían plenamente en que el entrenamiento comercial a gran escala sobre obras protegidas por derechos de autor esté claramente cubierto por las excepciones existentes.
El Comité se muestra muy crítico frente a ese intento de implementar una excepción de minería para la IAGen comercial: “el apoyo a una amplia excepción comercial de TDM debe entenderse como un intento de reducir ese riesgo de litigio debilitando el nivel actual de protección de derechos de autor, más que como un ejercicio neutral de clarificación de la ley. Tampoco nos convence que expandir la excepción existente de investigación no comercial para cubrir toda la investigación y desarrollo «previo al mercado» sea necesario o deseable” (conclusión 2, p. 73). Y continúa (conclusión 3): “(…) Creemos que la creación y procesamiento a gran escala de copias digitales de obras protegidas para el entrenamiento de modelos puede ser caracterizada como reproducción, independientemente de si los modelos entrenados retienen copias legibles por humanos o son capaces de generar salidas nuevas. En nuestra opinión, la legalidad del uso de contenido protegido por derechos de autor para el entrenamiento de IA debe evaluarse bajo los principios ordinarios de derechos de autor y excepciones claramente definidas. No aceptamos la opinión de que la copia y el procesamiento de obras protegidas durante el entrenamiento deba ser caracterizado como ‘aprendizaje’”.
En definitiva, frente a la reacia posición gubernamental, el Comité se muestra decididamente partidario de rechazar la excepción de TDM como aproximación correcta (dejando un recado incluso a la UE: “La experiencia en la UE sugiere que disposiciones comparables no han proporcionado un control fiable para los titulares de derechos ni un mercado de licencias sólido”, apdo. 176, p. 56) , y prefiere fomentar el sistema de licencias que garantice que la normativa británica del copyright sigue a la altura de su “gold-standard” mundialmente reconocido: “El punto de partida del Reino Unido debería seguir siendo modelo de concesión de licencias primero, en el que se requiere permiso para usar obras protegidas por derechos de autor para el entrenamiento de IA” (apdo. 176, pp. 56-57). Junto a ello, deben mantenerse altos niveles de transparencia (incluso “granular”, no general, aunque se reconocen las dificultades tecnológicas, Conclusiones, p. 75, apdo. 16; y aplicable, además, con independencia de dónde se hayan entrenado los modelos, apdo. 20).
Puede verse un detallado análisis del informe, en castellano, aquí.
Frente al planteamiento europeo, la Cámara de los Lores se alinea más con la aproximación australiana, hecha pública en octubre de 2025, que presentó su rechazo a incluir excepciones de TDM como una forma de dar seguridad a los titulares de derechos de autor y afines. Pero ahí se agotó igualmente la iniciativa gubernamental y el camino a tomar se fía a estudios, informes y comisiones que aclaren si debe o no establecerse un sistema de licencias colectivas o mantener el estado actual de licencias voluntarias.
Existen excepciones de minería en Japón y Singapur (muy amplias en ambos casos). Puede verse una análisis mundial en Matthew Sag & Peter K. Yu, The Globalization of Copyright Exceptions for AI Training, 74 Emory L. J. 1163 (2025), disponible en https://scholarlycommons.law.emory.edu/elj/vol74/iss5/4.
El debate del entrenamiento de la IA Generativa en Estados Unidos
En los EE. UU., por su parte, la lucha es esencialmente judicial, como es notorio, en torno al concepto de fair use y, de forma más elaborada, la posible dilución del mercado de copyright (algunos casos y tendencias, aquí). En este marco, los republicanos están actuando contra los intentos de regulación normativa federal, mientras la labor de lobby de los desarrolladores incluye millones de dólares para financiar campañas de candidatos proclives a una escasa regulación, que sea, además, federal (nacional), no estatal, que suelen ser más restrictivas.
Desde la Casa Blanca se acaban de hacer públicas (20 de marzo de 2026) sus Recomendaciones Legislativas A National Policy Framework for Artificial Intelligence, dirigidas al Congreso, bastante hostiles al sector creativo y cultural. Aunque se afirma que “los creadores, editores e innovadores estadounidenses deberían estar protegidos frente a los resultados generados por IA que infrinjan su contenido protegido”, ello debe hacerse “sin socavar la innovación legal y la libertad de expresión” (apdo. III).
Este aparente punto de equilibrio, que en principio parece neutro y aceptable, enseguida se ve diluido en su desarrollo, dando una de cal y otra (mayor) de arena: la posición oficial de la Administración, diceque el entrenamiento de los modelos de IAGen no infringe la normativa de copyright y que, aunque es consciente de que hay argumentos en contra, insta a la Cámara de Representantes a no tomar ninguna decisión que pueda influir en los procesos judiciales en curso. También señala que “el Congreso debería considerar habilitar marcos de licencias o sistemas de derechos colectivos para que los titulares de derechos negocien colectivamente la compensación de los proveedores de IA, sin incurrir en responsabilidad antimonopolio”.
Sin embargo, añade, “cualquier legislación de este tipo no debería abordar cuándo o si se requiere dicha licencia”, lo cual vacía de contenido cualquier marco al respecto, en particular, respecto de pequeños titulares: ¿por qué los desarrolladores habrían de recurrir a tales licencias si no tienen obligación de hacerlo y pueden confiar en el fair use? Concluye que “el Congreso debería continuar vigilando cuidadosamente el desarrollo de los precedentes de derechos de autor y la aplicación de los mismos en los tribunales, y evaluar si, debido a consideraciones novedosas relacionadas con la IA, se necesita tomar acciones adicionales más allá de las propuestas aquí (¿cuáles?, si no ha propuesto realmente ninguna) para cubrir posibles vacíos o brindar protecciones adicionales a los creadores de contenido”.
Más firme (pero sin exagerar) se muestra frente al uso de la IAGen frente a los deepfakes (el Congreso debiera establecer un marco federal para luchar contra ellos, aun permitiendo bastantes límites y sin que pueda utilizarse ese marco para sofocar la libertad de expresión en línea).
Es decir, sin el flemático disimulo del gobierno británico, el posicionamiento de la Administración Trump estadounidense es claramente pro IAGen en su enfrentamiento con los titulares de derechos. Es un planteamiento de base en pro de dicha industria y de su regulación federal, pues frente a la posición europea de control de la IA a través de agencias ad hoc, la Casa Blanca considera que “el Congreso no debería crear ningún nuevo organismo federal de regulación para la IA, y en su lugar debería apoyar el desarrollo y la implementación de aplicaciones de IA específicas de cada sector a través de los organismos regulatorios existentes con experiencia en la materia y mediante estándares liderados por la industria (apdo. V)”. Para no dejar cabos sueltos, concluye instando al Congreso a anular las leyes estatales que supongan obstáculos a la IA, “porque es un fenómeno inherentemente interestatal con importantes implicaciones de política exterior y seguridad nacional” (apdo. VII)”. En esto último coincide, casualmente, con el interés de la industria de IA, como hemos apuntado.
Los límites del fair use
La posición de la Casa Blanca contrasta con la propuesta de la senadora republicana Marsha Blackburn, quien, unos días antes, había lanzado para el debate una propuesta de borrador de Ley (discusion draft, no una propuesta presentada a la Cámara) para regular de forma estatal la IA llamada “Republic Unifying Meritocratic Performance Advancing Machine Intelligence by Eliminating Regulatory Interstate Chaos Across American Industry Act” (popularmente, Trump America AI Act), que contendría un mandato para la protección de cuatro grandes grupos sociales (las 4C): (Children), Creadores (Creators), Conservadores (Conservatives) y Comunidades (Communities).
En relación con la Propiedad Intelectual (Title XV), la senadora propone que la reproducción, copia o procesamiento no autorizado de obras protegidas por derechos de autor por parte de un modelo de IA con el fin de entrenamiento, ajuste fino, desarrollo o creación de IA no sea considerada como fair use bajo el Copyright Act, promoviendo además la transparencia sobre el uso de las obras protegidas (los titulares podrían conseguir información con una simple citación administrativa), el etiquetado de contenidos generados por IA y que las obras infractoras hechas con IA tampoco sean protegibles. Establece incluso unas presunciones de incorporación de materiales protegidos en la creación de una IA, salvo que el desarrollador demuestre que utilizó materiales autorizados o que la IA no incorpora ni reproduce ningún material protegido.
Por su parte, la Oficina del Copyright estadounidense, en el citado Report on Generative AI training, cree que con el marco vigente de derechos de autor puede darse respuesta al desafío del entrenamiento de los modelos de IAGen, por lo que adopta una postura aparentemente neutra, aunque hace algún apunte muy interesante que no es tan imparcial: muchos usos de obras protegidas por derechos de autor en el entrenamiento de IA “probablemente sean transformativos” (p. 107) pero “hacer un uso comercial de vastas cantidades de obras protegidas por derechos de autor para producir contenido expresivo que compita con ellas en los mercados existentes, especialmente cuando esto se logra mediante acceso ilegal, va más allá de los límites establecidos del uso justo” (id.). Ante esta situación aboga por que sea el mercado el que continúe estableciendo sus propios sistemas de autorregulación (licencias individuales y colectivas, así como tecnología), desaconsejando, por prematura, la intervención gubernamental por el momento. Pero añade: “En aquellas áreas donde es poco probable que se llenen las brechas restantes, se deben considerar enfoques alternativos como la licencia colectiva extendida para abordar cualquier fallo del mercado” (p. 107). El liderazgo mundial estadounidense, concluye, se conseguirá apoyando a ambas industrias.
Algunos otros estados, como Israel, aplican la doctrina del fair use a la manera estadounidense, por lo que tampoco pueden dar una solución general.
En el ámbito de la IA, se habla ya del “efecto Washington”, como modelo de desregulación (se deja más en mano de la industria), federal (frente a las iniciativas estatales) y centrado en la competitividad y el liderazgo mundial (sobre todo, frente a China), contrario al “efecto Bruselas”, que clarifica y ordena los modelos de IA estableciendo obligaciones al respecto. Pero, obsérvese, el modelo europeo no soluciona realmente los problemas de los titulares Propiedad Intelectual (añadiéndose un elemento territorial, como puso de manifiesto el caso Getty Images vs. Stability AI en el Reino Unido: los modelos líderes son entrenados fuera de Europa) y, el de simple observación y seguimiento del mercado y la tecnología que promueven estadounidenses y británicos, tampoco.
Parece haber un consenso (gubernativo) mundial en que la normativa de derechos de Propiedad Intelectual es bastante (el RIA se remite a ella y la falta de acción en los ordenamientos de fair use se justifica por tal razón), pero lo cierto es que, apuntándose áreas oscuras e insuficiencias, los titulares están viendo drenados masivamente sus respectivos derechos de autor y afines.
¿Quedará algo interesante que licenciar cuando los gobiernos se manifiesten ya de forma decidida (cosa que va a ocurrir, aunque sea más tarde que temprano; quizá cuando la industria de IAGen empiece a dar síntomas de agotamiento o de haber llegado a su techo tecnológico) por el respeto de los derechos de propiedad intelectual? El InformeVoss ya apuntaba a que no solo hay que dar soluciones a futuro, sino que hay también que compensar el uso ilícito pasado (apdo. 21).En ausencia de una decidida acción gubernativa y legislativa que, efectivamente, defienda la propiedad intelectual o, al menos, compagine los intereses de ambos sectores, todo es papel mojado.
Confiar en la actuación judicial clarificadora de la normativa (continental y anglosajona), aplaudir los incipientes acuerdos entre desarrolladores y majors o plataformas (asistemáticos, oscuros y de dudosa repercusión en autores y artistas) y unos cuantos, pero más voluntariosos que otra cosa, estudios e informes en pro de los mecanismos de licencias individuales y/o colectivas, incluso extendidas, no son sino una forma de seguir favoreciendo a la industria de la IAGen bajo buenas pero vanas palabras de apoyo al sector creativo.

