La propuesta de ley francesa sobre IA y derechos de autor podría introducir una presunción de uso de obras y prestaciones protegidas por parte de los proveedores de inteligencia artificial cuando existan indicios razonables de ello. De aprobarse definitivamente, la medida convertiría a Francia en el primer país en incorporar esta presunción en litigios civiles sobre IA generativa y copyright, con efecto directo sobre la carga de la prueba.
La senadora Laure Darcos presentó hace unas semanas ante el Senado francés una Propuesta de Ley bajo el significativo título de “Propuesta de ley relativa al establecimiento de una presunción de utilización de contenidos culturales por los proveedores de inteligencia artificial” (Proposition de Loi relative à l’instauration d’une présomption d’utilisation des contenus culturels par les fournisseurs d’intelligence artificielle)
El texto aprobado en el Senado francés el 8 de abril de 2026 es el siguiente, en lo que aquí importa (Artículo Único.3):
Art. L. 331-4-1. – “Salvo prueba en contrario, en cualquier litigio civil, se presume que la obra o el objeto protegido por derecho de autor o por un derecho afín ha sido utilizado por el proveedor del modelo o sistema de inteligencia artificial, siempre que un indicio relativo al desarrollo o despliegue de dicho sistema, o al resultado generado por este, haga verosímil tal utilización.”
Qué propone la ley francesa sobre IA
Tras su aprobación por el Senado, el Proyecto pasa a la Asamblea Nacional de Francia para su discusión, enmienda y posible adopción como Derecho vigente, introduciendo un nuevo artículo en su Ley de Derecho de Autor. De aprobarse definitivamente, Francia se convertiría en el primer país en tener una presunción de uso de obras protegidas por parte de los desarrolladores de modelos o sistemas de Inteligencia Artificial Generativa (IAGen) en el marco de procesos civiles (declaraciones de usos ilícitos, solicitudes de cese de actividades y reclamaciones de indemnizaciones por usos no autorizados de obras y prestaciones protegidas), siempre que los titulares de derechos pudieran presentar algún indicio razonable de dicha utilización, aunque no resultara determinante, invirtiendo así la carga de la prueba: correspondería al desarrollador de la IA demostrar que no utilizó dicha obra en el entrenamiento o despliegue.
Encaje con la normativa europea
En el caso europeo, la posibilidad de adoptar medidas estatales como esta se basa en la autonomía de los Estados miembros en materia procesal, más allá de la regulación sustantiva de los derechos de propiedad intelectual en relación con la IAGen. Esta, en la UE, está basada actualmente en dos grandes pilares: de un lado, la transparencia sobre los conjuntos de datos para entrenamiento utilizados y, de otro, el necesario respeto a los derechos de los titulares, de manera que los desarrolladores de modelos de IAGen solo podrían utilizar obras o prestaciones protegidas sin consentimiento de aquellos al amparo de una de las dos posibles excepciones de minería de textos y datos (TDM, arts.3 y 4 Directiva 2019/790).
La norma permite a los titulares, sin embargo, la posibilidad de excluir la excepción comercial (opt out), impidiendo, por lo tanto, el uso de sus obras y prestaciones protegidas para el entrenar modelos o sistemas de IAGen que vayan a ser objeto de explotación económica en el mercado. Las obligaciones de transparencia establecidas en el Reglamento de Inteligencia Artificial (RIA; vid. Cdos. 27, 107 y art. 53.1.d) no implican ninguna presunción de uso en absoluto, pero obligan, en teoría y si se llevaran a sus últimas consecuencias, a revelar si se usaron obras protegidas.
El problema es que resulta más que dudoso el entendimiento de la expresión “resúmenes suficientemente detallados” de los conjuntos de datos entrenamiento que utiliza el legislador europeo, por lo que las descripciones, cuando las hay, son muy genéricas o se remiten sin más a repositorios más o menos conocidos (sobre algunos pesan fundadas sospechas de incluir contenidos no autorizados) y a referencias a “contenidos en abierto” (por lo cual se entiende, en muchas ocasiones, que estén en Internet, sin más, no atendiendo a sus requisitos de acceso).
El Código de buenas prácticas de IA de uso general publicado por la Comisión Europea, cuyo capítulo I se dedica a la transparencia y el II a la propiedad intelectual, no ha contribuido a dar claridad ni, sobre todo, seguridad o protección a los titulares de derechos. El documento-modelo previsto en el art. 53.1.d) RIA y que debiera facilitar la Oficina de IA para proporcionar dicho resumen no se ha hecho público todavía, y el modelo disponible en desarrollo del capítulo I, sobre transparencia en general, acorde (presumiblemente) a lo dispuesto en los Anexos XI y XII RIA, solo incluye la obligación de informar sobre el tipo de datos y su proveniencia genérica.
Obsérvese, además, que, por definición un resumen no es una enumeración de (todos) los materiales (entre ellos, contenidos protegidos) y, en todo caso se refiere a los conjuntos de datos utilizados, por lo que, aun cuando el proveedor declare que ha utilizado tal conjunto, todavía será el titular el que debería comprobar que en dicho dataset (que puede contener millones de entradas) está su obra o prestación, lo cual es difícil (tecnológicamente) para pequeños titulares.
Vinculada a la transparencia, la presunción establecida en la propuesta de reforma francesa tiene, sin embargo, un marco más restringido o, dicho de otra manera, es una dimensión de la exigencia de transparencia llamada a tener una operativa muy concreta, en el marco de procesos judiciales en los que los titulares reclamen (civilmente) por la violación de sus derechos sobre obras protegidas utilizadas en el entrenamiento de los distintos modelos de IAGen.
Reequilibrar la carga de la prueba
Dado el lugar común de su funcionamiento como black box y que es muy difícil saber cuáles son los materiales utilizados para dicho entrenamiento o durante su despliegue, la presunción supone, en la práctica (aunque técnicamente son conceptos distintos) una inversión de la carga de la prueba sobre el uso de tales contenidos protegidos. Las inversiones de la carga de la prueba y las presunciones (refutables o, en terminología más clásica, iuris tantum) en favor de una de las partes son mecanismos habituales en Derecho para restablecer el equilibrio (procesal) entre las partes, favoreciendo a la más débil o con mayor dificultad de acceso al material probatorio, frente a la posición preeminente o dominadora del proceso de la otra parte.
Así, son frecuentes en sede de consumo o de exigencia de responsabilidad civil (p. ej., se contemplaban mecanismos similares en la abortada propuesta de responsabilidad civil por uso de la IA). En el caso que nos ocupa, de llegar a ser efectiva, no serían los titulares quienes tuvieran que probar que el desarrollador utilizó sus obras; dándose las circunstancias (indicios verosímiles), se presumiría (se fijaría el hecho como inicialmente cierto) dicho uso y, en consecuencia, sería el desarrollador quien debiera asumir la carga probatoria correspondiente para demostrar que tal circunstancia no es verdad: a él incumbiría probar que no se utilizaron obras o prestaciones de aquellos si desea eludir su responsabilidad, al menos de forma inicial y sin perjuicio de otras posibles defensas (como las excepciones citadas) a las que pudiera recurrir.
En este sentido, la Senadora Darcos afirmó públicamente que “esta presunción permite reequilibrar la carga de la prueba: ya no corresponderá a los creadores aportar pruebas irrefutables de que sus obras han sido saqueadas, sino a los proveedores de IA certificar que no han utilizado datos protegidos para entrenar sus modelos (…) Nuestro objetivo no es ver cómo se multipliquen los litigios, sino traer a los proveedores de IA generativa a la mesa y contratar con creadores y sus representantes”. La senadora, en su defensa, partía de que los modelos creados, cada vez más eficientes, “depredan” los contenidos protegidos sin compartir el valor que generan, por lo que su iniciativa pretende reequilibrar la relación entre ambos sectores. En el citado enlace puede verse su discurso como ponente (rapporteure) de la norma.
Informe Voss y comparación con EE. UU
La iniciativa francesa, que parece la primera en tener visos de convertirse en Derecho vigente, no es la única que actualmente plantea esta aproximación normativa.
El conocido como Informe Voss (Resolución del Parlamento Europeo, de 10 de marzo de 2026, sobre los derechos de autor y la inteligencia artificial generativa: oportunidades y desafíos (2025/2058(INI)) sobre el que pretenden basarse las futuras políticas y reformas normativas de la UE en relación con esto temas, también contempla este tipo de presunciones en su versión finalmente aprobada por el Parlamento el 10 de marzo de 2026 (vid. aquí una análisis general de la Resolución):
“AB. Considerando que, además de la obligación de transparencia en relación con las obras protegidas por derechos de autor y otras prestaciones protegidas, es necesario establecer un mecanismo en virtud del cual, en determinadas condiciones, la ausencia de una transparencia total por parte de los proveedores o responsables del despliegue de modelos y sistemas de IA dé lugar a una presunción refutable de que toda obra u otra prestación protegida pertinente se ha utilizado con fines de entrenamiento, inferencia o generación aumentada por recuperación, lo que activaría todas las consecuencias jurídicas aplicables con arreglo al Derecho nacional y de la Unión por la infracción de los derechos de autor o derechos afines; que, cuando un órgano jurisdiccional se pronuncie a favor de un titular de derechos o de las entidades que los representan sobre la base de dicha presunción o de las pruebas presentadas, todas las costas procesales razonables y proporcionadas y otros gastos deben correr a cargo del proveedor de IA;
(…)
24. Pide a la Comisión que proponga el establecimiento de una presunción iuris tantum de que, para cualquier modelo o sistema de IA generativa introducido en el mercado de la Unión, se han utilizado obras y otras prestaciones protegidas por derechos de autor o derechos afines, para fines de entrenamiento, inferencia o generación aumentada por recuperación, cuando no se hayan cumplido plenamente las obligaciones de transparencia establecidas en la presente Resolución; recomienda, además, que, cuando un titular de derechos o la organización que lo represente prospere en procedimientos judiciales sobre la base de esta presunción o mediante pruebas presentadas, las costas procesales razonables y proporcionadas y otros gastos en que se incurra para hacer valer dichos derechos corran a cargo del proveedor del modelo o sistema de IA, según sea aplicable”.
Como puede verse, es una presunción que va (como principio) más allá de lo procesal (aunque sea en sede judicial donde haya de aplicarse), aunque se queda más corta que la inicialmente propuesta, que la consideraba, en ausencia de una transparencia total, como presunción iuris et de iure (no refutable, sin admitir pruebas en contra; Cdo. R y recomendación 11 de la Propuesta). Esta Propuesta original, más dura, suponía un importantísimo refuerzo de la obligación de transparencia, altamente conminatorio para los desarrolladores.
Hubo varias enmiendas que alteraron ese planteamiento de inicio, en la línea de lo finalmente aprobado, como presunción refutable (así, las nº 174, 338, 342 o la 347) o sin adjetivar (así, nº 340, 344). Aunque Axel Voss mantuvo en sus propias enmiendas el carácter iuris et de iure, debió parecer al Parlamento que la irrefutabilidad de la presunción era excesiva para la industria y los desarrolladores de IA, incluso aunque ya hubieran faltado a su deber de transparencia.
Por su parte, en los EE.UU., la senadora republicana Marsha Blackburn lanzó a mediados de marzo un borrador de propuesta de ley (lo que se conoce como discussion draft, a los efectos solo de provocar una discusión pública, sin presentación en la Cámara) para regular de forma federal la IA, bajo el título “Republic Unifying Meritocratic Performance Advancing Machine Intelligence by Eliminating Regulatory Interstate Chaos Across American Industry Act. En su opinión, esta normativa habría de contener un mandato para la protección de cuatro grandes grupos sociales (las 4C): (Children), Creadores (Creators), Conservadores (Conservatives) y Comunidades (Communities).
Entre las medidas a adoptar para la protección de los creadores consta la introducción de un presunción de incorporación de materiales protegidos en la creación de una IA, salvo que el desarrollador demuestre que utilizó materiales autorizados o que la IA no incorpora ni reproduce ningún material protegido.
El funcionamiento previsto en la parte titulada “Transparency and Responsibility for Artificial Intelligence Networks Act’’ (‘‘TRAIN Act’). sería el siguiente (sec. 1302, modificando el capítulo 5 del título 17 del US Code, §514): El titular de derechos podría, si de buena fe cree que han sido utilizadas, solicitar del desarrollador (mediante citación ante el secretario del juez de distrito, subpoena) los registros necesarios o suficientes para poder identificar con certeza los materiales utilizados para el entrenamiento del modelo de IAGen, con el fin de determinar si el desarrollador ha utilizado obras protegidas por derechos de autor que sean propiedad o estén controladas por dicho titular. En caso de que el desarrollador no cumpla con dicho requerimiento, se establecerá una presunción “refutable” de que se han utilizado copias de las obras protegidas (§514(i)). Se prevén igualmente sanciones para los titulares que actúen de forma temeraria.
A pesar del nombre con el que popularmente se conoce a esta propuesta (Trump America AI Act), no parece que vaya a tener mucho recorrido; de hecho, presumiblemente, ninguno: un par de días después, la Administración Trump dio a conocer sus Recomendaciones Legislativas ANational Policy Framework for Artificial Intelligence, dirigidas al Congreso, y en las que expresamente se afirma que el entrenamiento de modelos de IAGen no infringe la normativa de copyright, resultando admisible dentro del fair use, y que, a lo sumo, el Congreso debiera considerar habilitar marcos de licencias o sistemas de derechos colectivos, bastando de momento con observar cómo evoluciona la situación ante los Tribunales antes de tomar cualesquiera otras medidas.
Valoración jurídica
Cabe señalar, para concluir, que, desde el punto de vista de los titulares de derechos de autor y afines, este tipo de iniciativas siempre han de ser bienvenidas, máxime ante el escaso cumplimiento real de las obligaciones genéricas de transparencia por parte de los desarrolladores de IAGen.
De momento, los Tribunales parecen aceptar como hecho probado la utilización de contenidos por su reproducción (o de fragmentos de los mismos) en los outputs en litigios que versan sobre el fair use (en EEUU) o las excepciones de TDM (en Europa), pero es de esperar que las defensas de los desarrolladores vayan perfeccionando sus argumentos también y entrando en aspectos tecnológicos que puedan acabar ofuscando las prácticas lesivas. Una presunción de este tenor, que invierte la carga de la prueba ante la existencia de simples indicios razonables de usos no autorizados, resulta de la máxima utilidad para la defensa de sus intereses por parte de los titulares, en particular, los pequeños creadores y artistas.
Aunque bajo el principio rector que parece dominante en la actualidad de que el Derecho vigente puede ser suficiente para proteger al sector cultural y creativo (quizá lo fuera… si se aplicara hasta sus últimas consecuencias) y no se estén tomando decisiones más radicales por cuestiones de política legislativa tendentes a favorecer (o, al menos, a no obstaculizar) la estratégica industria de IA (de gran relevancia para la soberanía digital), este tipo de avances muestra la consciencia de los diferentes legisladores de que, efectivamente, se están utilizando sin autorización obras y prestaciones protegidas. Y, como dice la senadora francesa, creando valor a expensas de los derechos de sus titulares, sin darles a estos lo que, en ejercicio de tales derechos, les corresponde.

