Propiedad Intelectual en el Reglamento de Inteligencia Artificial

Mucho ruido y pocas nueces: el vacío de la Propiedad Intelectual en el Reglamento de Inteligencia Artificial

¡Comparte!

Presume la Unión Europea de tener la legislación mundial sobre IA más avanzada o, al menos, completa, del mundo: el Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial y por el que se modifican los Reglamentos (CE) nº 300/2008, (UE) nº 167/2013, (UE) nº 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE, (UE) 2016/797 y (UE) 2020/1828), abreviado Reglamento de Inteligencia Artificial o RIA. Esta vanguardista regulación pretende promover una inteligencia artificial (IA) ética, segura y fiable, regulando, mediante la distinción de hasta cuatro niveles distintos con normas específicas para cada uno, los riesgos asociados a usos específicos de la IA.

El vacío legal: lo que el Reglamento de Inteligencia Artificial no dice sobre Propiedad Intelectual

Entre otros, el RIA se asienta sobre el principio básico de respeto de los derechos de las personas, incluidos sus datos personales (Cdo. 10 y art. 2.7 RIA) y, por lo que ahora nos importa, los derechos de propiedad intelectual (Cdos. 104-110 y art. 53.1.c RIA). En particular, este último precepto señala que los proveedores de modelos de IA general “establecerán directrices para cumplir el Derecho de la Unión en materia de derechos de autor y derechos afines, y en particular, para detectar y cumplir, por ejemplo, a través de tecnologías punta, una reserva de derechos expresada de conformidad con el artículo 4, apartado 3, de la Directiva (UE) 2019/790”. A salvo las obligaciones de transparencia (art. 53.1.d y Cdo. 27). El precepto se completa con lo establecido en la letra siguiente (art. 53.1.d) en relación con la genérica obligación de transparencia: los citados proveedores “elaborarán y pondrán a disposición del público un resumen suficientemente detallado del contenido utilizado para el entrenamiento del modelo de IA de uso general, con arreglo al modelo facilitado por la Oficina de IA” 1.

Nada más dice el RIA sobre propiedad intelectual, ni sobre el uso de obras y prestaciones protegidas para el entrenamiento de los modelos ni sobre la titularidad de las obras y prestaciones resultantes del uso de modelos, sistemas, programas o apps de IA (sea asistida, sea generativa, IAGen). Así pues, la normativa aplicable tanto a uno (entrada, inputs, suministro de datos sobre los que recaigan derechos de autor o afines) como a otro extremo (salida, outputs, creaciones en las que se usa IA) es la general sobre propiedad intelectual (en España, el Texto Refundido de la Ley de Propiedad Intelectual y las disposiciones sobre minería de textos y datos, TDM, contenidas en el 67 del RD-L 24/2021 2, que traspone los arts. 3 y 4 de la Directiva 2019/790, de Derechos de Autor en el Mercado Único Digital)3.

¿Quién es el dueño? El dilema de los derechos de autor en los inputs y outputs de la IA

En torno a los outputs, la cuestión gira en torno a la imputación de derechos, cuestión que, en la actualidad, se aborda desde el planteamiento clásico de que solo las personas físicas pueden ser autores 4 (excepcionalmente, las jurídicas, en relación con el software) o artistas (intérpretes, ejecutantes) y/o, junto con las personas jurídicas, titulares de derechos de propiedad intelectual (de explotación), de manera que solo si la creación es original en el sentido de reflejar la personalidad del autor habrá obra, siendo aquel el titular originario de los derechos derivados. Es decir, las creaciones hechas con IA (incluso las de IAGen) pertenecerán a quien ha dado al sistema las indicaciones o instrucciones (prompts), si el resultado es suficientemente original, en el sentido de reflejar su personalidad.5

Por lo que respecta a los inputs, el problema es el uso de las obras y prestaciones protegidas (p. ej., la voz de los artistas, o sus ejecuciones e interpretaciones fijadas en fonogramas o creaciones u obras audiovisuales) por parte de las empresas creadoras de los modelos de IA para el entrenamiento de estas, esto es, para que aprendan a generar creaciones a partir de las instrucciones que les den luego sus usuarios, cuando tales modelos son comercializados o puestos a disposición del público. En la actualidad, el abordaje de tal cuestión se produce de dos maneras distintas, según el contexto: el fair use, en el ámbito anglosajón (Common Law: ¿es tal actividad un uso justo y, por lo tanto, lícito?; hay diversos procesos judiciales en curso donde se está debatiendo la cuestión, especialmente en EEUU) 6 o bien, en Europa (tradición jurídica continental), a través de la excepción de minería de textos y datos (text and data mining, TDM) 7. Conforme a esta última aproximación las empresas de IA podrían beneficiarse de una excepción a los derechos de exclusiva de los titulares de propiedad intelectual (en particular, pero no solo, reproducción) y utilizar sus obras y prestaciones si estos no manifiestan su oposición de forma expresa y por medios adecuados (arts. 4.3 Directiva 2019/790 y 67.3 RD-L 24/2021) 8. Nada más (ni menos) dice la normativa, que parece fiarlo todo a la decisión de cada titular sobre cada objeto de sus derechos, sin reflejar la situación actual de los diferentes intervinientes en el mercado, incluyendo artistas intérpretes y ejecutantes, muchos de los cuales no tienen, en la práctica, poder de negociación alguno ni es seguro que se vean compensados incluso cuando los cesionarios de sus derechos (p. ej., productoras de fonogramas o audiovisuales) consiguieran acuerdos sobre este novedoso uso de sus repertorios. En realidad, la insuficiencia de esta excepción en el ámbito que nos ocupa deriva de su origen primigenio, pues está pensada más para los usos científicos y ciertos usos comerciales de explotación de datos, más que de obras y prestaciones protegidas por derechos de propiedad intelectual, en un contexto en el que la IA (en particular, la IAGen) no estaba ni mucho menos tan desarrollada. 9

Código de Buenas Prácticas de IA: la solución voluntaria (y polémica) de la UE

En un intento de dar luz a la normativa y situación actuales, la Comisión ha publicado un Código de Buenas Prácticas de IA de uso general, cuyos capítulos I y II se dedican, respectivamente, a la transparencia y a la Propiedad Intelectual (el III es relativo a la seguridad). El Código es un instrumento voluntario diseñado para ayudar a los proveedores a cumplir las obligaciones del RIA relativas a los modelos de IA de uso general y, por lo que ahora nos interesa, facilitar el cumplimiento de las obligaciones de derechos de autor del art. 53.1.c y la identificación y respeto de las reservas de derechos hechas por los titulares al amparo del art. 4.3 de la Directiva 2019/790. La aplicación de las medidas del Código servirá a los desarrolladores de modelos de IA generales para demostrar el cumplimiento del RIA, pero no constituye por sí mismo cumplimiento de la normativa europea de Propiedad Intelectual, y tampoco afecta a los acuerdos entre los suscriptores del mismo y los titulares de derechos por los cuales estos autorizan el uso de sus obras y prestaciones.

Los suscriptores del Código se comprometen a tener una política de Propiedad Intelectual de conformidad con la normativa europea aplicable y, en particular, implementar mecanismos, incluso mediante tecnologías de vanguardia, para identificar y cumplir con las reservas de derechos hechas por los titulares que les impidieran beneficiarse de la excepción de TDM. Para cumplir con dicho compromiso, se prevén en el Código una serie de medidas a adoptar por sus suscriptores:

  1. Elaborar, mantener actualizada e implementar una política de derechos de autor para todos los modelos de IA general que comercialicen en la UE. Se les alienta, además, a publicar, al menos, un resumen actualizado de la misma.
  2. Al rastrear la web, solo deben reproducir y extraer contenido protegido por derechos de autor que sea legalmente accesible, no eludiendo las medidas tecnológicas dispuestas por sus titulares para protegerlos (p. ej., muros de pago, sistemas de suscripción…). Se les insta también a excluir de la extracción automatizada sitios web que hayan sido identificados por autoridades o tribunales como infractores persistentes de derechos de autor. 10
  3. Si se utilizan rastreadores web (web-crawlers) para la recopilación de datos, deben respetar el Protocolo de Exclusión de Robots (robots.txt) u otras tecnologías y/o metadatos legibles por máquina para identificar el contenido que debe ser excluido. Tales mecanismos de exclusión, que sirven al opt-out previsto en la Directiva 2019/790 pueden haber sido adoptados por organizaciones de normalización internacionales o europeas, o bien ser tecnologías ampliamente utilizadas o implementadas por los titulares de derechos incluso como resultados de acuerdos de buena fe que se facilitará tener a nivel europeo entre ellos, los proveedores de IA y otras partes relevantes, mientras se desarrollan otros estándares.
  4. Establecer salvaguardas técnicas apropiadas y proporcionadas para mitigar el riesgo de que los outputs generados por estos modelos de IA infrinjan los derechos de autor y conexos de terceros. Tales medidas técnicas tienen que acompañarse de otras jurídicas, como la elaboración de unas políticas de uso aceptable de tales modelos, advirtiendo a los usuarios de la prohibición expresa de su utilización para infringir tales derechos.
  5. Establecer mecanismos de reclamación (queja y reparación) que sean eficaces y fáciles de usar para los titulares de derechos de autor y sus representantes, incluidas las entidades de gestión colectiva de derechos. Este mecanismo debe permitir la presentación de reclamaciones suficientemente precisas y debidamente fundamentadas sobre incumplimientos por parte de los signatarios del Código, que habrán de tramitarlas con diligencia, sin arbitrariedades y en un plazo razonable.

El Capítulo II se complementa con lo establecido en el I sobre transparencia, que se refiere a la documentación que deben mantener los proveedores en relación con los procesos de la IA y el origen de los datos y repositorios que se utilizan para su entrenamiento.

A pesar de su pretendida utilidad y buenas intenciones, el Código no ha sido bien recibido ni por titulares de derechos de PI ni por las tecnológicas. Los primeros consideran que solo tiene carácter voluntario (por lo cual, su eficacia dependerá del número de suscriptores, su relevancia y su grado de implementación por cada uno) y que es tan general (se recurre a terminología como “legalmente accesible” sin aclarar qué lo es) que está hecho a la medida de las segundas. Para estas, sin embargo, las obligaciones de transparencia y el abordaje de la propiedad intelectual resulta contrario a sus intereses (el libre desarrollo de modelos y aplicaciones de IA) y algunas han rechazado suscribirlo (Meta y varias empresas chinas) o se han adherido solo al capítulo III (seguridad), no a los dos primeros (X, la antigua Twitter). Sí han manifestado su voluntad de suscribirlo completo OpenAI (ChatGPT), Alphabet (matriz de Google, con su modelo Gemini), Anthropic (Claude) y Microsoft (Copilot).

Los artistas: desprotegidos frente al Reglamento de Inteligencia Artificial

En definitiva, sobre el RIA se cierne la fundada sospecha de que deja vacío de contenido al principio de protección de la PI que el mismo texto consagra, ante la ausencia real de mecanismos para hacerlo efectivo. Ni siquiera el Código de Buenas Prácticas sobre IA, en lo relativo a la propiedad intelectual, es claro y satisfactorio al respecto. Los dos principales instrumentos, la transparencia y la regulación de la TDM con cláusula de exclusión (opt out) 11 no parecen bastar, al menos en su actual configuración, para proteger ningún derecho de propiedad intelectual concernido. Desde luego, para los artistas, a nivel individual e, incluso, colectivo, es claramente insuficiente: ni quedan resueltos los modos para que se produzca eficazmente esa exclusión, ni disponen de una posición negociadora fuerte, ni se establecen mecanismos de compensación para el caso de que los cesionarios de sus derechos (p. ej., las majors de la industria musical) sí sean capaces de alcanzar acuerdos con los desarrolladores de IA.

Cabe recordar, por último, que frente a los límites para su defensa por la vía de la propiedad intelectual, caben otros modos de protección y autodefensa de los intereses de los artistas, intérpretes y ejecutantes por el uso de sus actuaciones por parte de los desarrolladores y usuarios de IA, en cuanto la utilización de las mismas puede afectar a otros derechos ajenos a la propiedad intelectual, como son su imagen, sus datos personales e, incluso, su identidad digital. 12 El recurso a tales otras normativas podría impedir o, al menos, limitar de forma indirecta el acceso y utilización de sus prestaciones protegidas por la vía de la propiedad intelectual, en tanto se desarrolla una tutela eficaz en este ámbito.

  1.  El Cdo. 27 RIA explica que por “transparencia” se entiende “se entiende que los sistemas de IA se desarrollan y utilizan de un modo que permita una trazabilidad y explicabilidad adecuadas, y que, al mismo tiempo, haga que las personas sean conscientes de que se comunican o interactúan con un sistema de IA e informe debidamente a los responsables del despliegue acerca de las capacidades y limitaciones de dicho sistema de IA y a las personas afectadas acerca de sus derechos”. Es decir, se informe de que los resultados se han obtenido mediante uso de IA (que se “etiqueten” como tales, para evitar las llamadas “ultrafalsificaciones” o deep fakes; art. 50 RIA), pero también que sea posible seguir los procesos que llevan a la IA a producir los resultados que devuelve, lo que implica, p. ej., conocer sus fuentes de alimentación y entrenamiento. Es en este sentido que resulta fundamental para la defensa de la propiedad intelectual.
    El Cdo. 107 desarrolla esta obligación de transparencia en relación con las obras y prestaciones protegidas: “Con el fin de aumentar la transparencia en relación con los datos utilizados en el entrenamiento previo y el entrenamiento de los modelos de IA de uso general, incluidos los textos y los datos protegidos por el Derecho en materia de derechos de autor, procede que los proveedores de dichos modelos elaboren y pongan a disposición del público un resumen suficientemente detallado de los contenidos utilizados para el entrenamiento del modelo de IA de uso general. Este resumen debe tener debidamente en cuenta la necesidad de proteger los secretos comerciales y la información empresarial confidencial y, al mismo tiempo, debe ser exhaustivo en general en su alcance en vez de técnicamente detallado, a fin de facilitar que las partes con intereses legítimos, incluidos los titulares de derechos de autor, ejerzan y hagan cumplir sus derechos en virtud del Derecho de la Unión, por ejemplo, enumerando los principales conjuntos o recopilaciones de datos que hayan servido para entrenar al modelo, como los grandes archivos de datos o bases de datos privados o públicos, y proporcionando una explicación descriptiva sobre otras fuentes de datos utilizadas. Conviene que la Oficina de IA proporcione un modelo para el resumen, que debe ser sencillo y eficaz y permitir que el proveedor proporcione el resumen requerido en forma descriptiva”. ↩︎
  2. Real Decreto-ley 24/2021, de 2 de noviembre, de transposición de directivas de la Unión Europea en las materias de bonos garantizados, distribución transfronteriza de organismos de inversión colectiva, datos abiertos y reutilización de la información del sector público, ejercicio de derechos de autor y derechos afines aplicables a determinadas transmisiones en línea y a las retransmisiones de programas de radio y televisión, exenciones temporales a determinadas importaciones y suministros, de personas consumidoras y para la promoción de vehículos de transporte por carretera limpios y energéticamente eficientes. ↩︎
  3. Directiva (UE) 2019/790 del Parlamento Europeo y del Consejo, de 17 de abril de 2019, sobre los derechos de autor y derechos afines en el mercado único digital y por la que se modifican las Directivas 96/9/CE y 2001/29/CE. ↩︎
  4. Expresamente, la reciente reforma de la italiana Legge 22 aprile 1943, nº 63, sull diritto de autore por parte del art. 25.1 de la Legge 23 settembre 2025, n. 132. La nueva redacción del art. 1 Legge sull dirito de autore se refiere expresamente a que quedan protegidas las “obras del ingenio humano” (“opere dell’ingeno umano”), incluso en los casos en los que se vale de una IA, considerada como simple herramienta (“l’ausilio di strumenti di intelligenza artificiale, purche’ costituenti risultato del lavoro intellettuale dell’autore”). ↩︎
  5. En EE. UU., vid. el Informe de la Oficina del Derecho de Autor (USCO) sobre el registro del copyright, de enero de 2025, Copyright and Artificial Intelligences, Part. 2: Copyrightability. A Report on the register of Copyrights: “existing legal doctrines are adequate and appropriate to resolve questions of copyrightability. Copyright law has long adapted to new technology and can enable case-by case determinations as to whether AI-generated outputs reflect sufficient human contribution to warrant copyright protection.  As described above, in many circumstances these outputs will be copyrightable in whole or in part—where AI is used as a tool, and where a human has been able to determine the expressive elements they contain. Prompts alone, however, at this stage are unlikely to satisfy those requirements” (p. 41). En Europa, vid. la posición mayoritaria en el Policy Questionnaire on the relationship between generative Artificial Intelligence and copyright and related rights, Bruselas, 20 de diciembre de 2024, pp. 3 y 16: “It was a general view stemming from the contributions that works may be eligible for copyright protection only if the human input in their creative process was significant and all the prerequisites for the copyright protection were fulfilled”; p. 4: “The Member States were in agreement that there is no need to provide any kind of new or additional copyright-related protection, including a new sui generis right, to AI-generated content. In the case of AI-assisted works, the general copyright rules should be applicable”. ↩︎
  6. Por mencionar solo casos que tienen relación con artistas, se han presentado en junio de 2025 dos acciones colectivas (class actions) por parte del cantante de country Tony Justice, contra Suno y contra Udio por haber utilizado sin autorización grabaciones de Justice y otros cientos de artistas (class members) para el entrenamiento de sus modelos de IA. Se niega, en los argumentos de ambas demandas, que estos usos estén amparados por la doctrina del fair use, en cuanto, más allá de su tradicional aceptación si es transformador, se crean ahora contenidos que compiten en los mismos mercados. ↩︎
  7.  Esta excepción está siendo objeto de atención y propuestas de inclusión en otros ordenamientos, como el brasileño. La CTIA (Comissão Temporária Interna sobre Inteligência Artificial) ha reunido todas las propuestas legislativas sobre IA para tramitar en el Senado brasileño una enmienda al Proyecto de Ley nº 2338/2023 proponiendo un texto sustituto del inicial, mucho más desarrollado, y en cuyo propuesto nuevo art. 60 se regula la excepción de minería solo para organismos de investigación, periodismo y educativos, mientras el art. 61 permite a los titulares prohibir el uso de sus contenidos para el desarrollo de sistemas de IA. El art. 63 ordena la creación de un sandbox regulatorio para abordar los temas de transparencia y remuneración debida por los agentes de IA a los titulares de contenidos protegidos por derechos de autor utilizados para el entrenamiento de sistemas de IA creados con finalidad comercial. 
    En Colombia, en el Senado se presentó en octubre de 2024 el Proyecto de Ley 293/2024, que pretende regular el uso de obras protegidas por derechos de autor para entrenar modelos de IA, crea excepciones para la TDM con fines de investigación científica (art. 3), obliga a los desarrolladores de IA a adquirir licencias sobre obras y prestaciones protegidas que quieran usar para entrenar sus modelos (art. 4), y establece un marco de gestión colectiva para la administración de ciertos derechos, como los asociados a obras musicales y audiovisuales (arts. 5 y 6), regulando el papel de las sociedades de gestión colectiva en la autorización, restricción y remuneración del uso de dichas obras.
    En Uruguay se ha propuesto una reforma de la Ley de Propiedad Intelectual para permitir “La reproducción de obras con fines de análisis computacional, siempre que se realicen en el marco de la investigación no comercial” (modificación del art. 45.14.b de la Ley nº 9.739 por el art. 3º del Proyecto de Ley “DERECHOS DE AUTOR – Modificación de varias disposiciones de la Ley Nº 9.739”, aprobado por la Cámara de Representantes el 4 de junio de 2024. En Chile, se presentó en mayo de 2024 un Proyecto de Ley (nº Boletín 16821-19, para modificar la Ley 17.336 sobre PI, actualmente en el senado) que planteaba incorporar también una excepción de TDM a los derechos de propiedad intelectual destinada a permitir el entrenamiento de sistemas de IA: su art. 31º introduciría en la LPI chilena una nueva excepción que permitiría la extracción, comparación, clasificación, o cualquier otro análisis estadístico de datos de lenguaje, sonido o imagen, o de otros elementos de los que se componen por grandes volúmenes de datos u obras, en la medida que dicho uso no constituya una explotación encubierta de obras protegidas por derechos de autor.
    Por el contrario, Australia ha rechazado recientemente incluir en su ordenamiento la excepción de TDM como fair use. A fines de octubre de 2025, la fiscal general Michelle Rowland anunció la decisión definitiva del gobierno de no introducir una excepción de TDM en su Ley de Derecho de Autor, con el fin de no debilitar las protecciones de los derechos de autor para las obras creativas, y prefiriendo un enfoque basado en licencias o acuerdos que permitiera a los creadores recibir compensación por su trabajo. ↩︎
  8. En el ámbito científico, para su uso por parte de instituciones como universidades o centros de investigación, la excepción sería absoluta, sin posibilidad de oposición por los titulares de derechos. La realización de esta TDM por desarrolladores de IA calificables de entidades sin ánimo de lucro con fines científicos y, por lo tanto, su licitud, estuvo en la base del caso Laion, resuelto por el Tribunal Regional de Hamburgo (Alemania), en septiembre de 2024. ↩︎
  9. En el ámbito europeo, la entidad de gestión de derechos alemana GEMA ha presentado sendas demandas contra Open AI (13 de noviembre de 2024) y Suno (21 de enero de 2025, ante el Tribunal Regional de Múnich, tras constatar que el contenido que genera mediante simples instrucciones de sus usuarios vulnera los derechos de sus asociados). En el caso contra OpenAI, alegada la excepción de TDM por la demandada, esta no ha tenido ningún éxito, como ya adelantara la  exposición inicial del caso hecha por la Sala antes del juicio oral, rechazando incluso la presentación de una cuestión prejudicial ante el TJUE. En la reciente Sentencia del Landgericht München (GEMA vs. OpenAI, n.º de asunto 42 O 14139/24), la Sala ha dictaminado que la capacidad del modelo para reproducir fragmentos de obras protegidas muestra que las mismas han sido utilizadas (reproducidas) para su entrenamiento, y que la excepción de TDM no se aplica a sistemas de IA generativa que memorizan y reproducen contenido protegido.
    ↩︎
  10. Hasta el momento, las descripciones de los repositorios de origen son absolutamente genéricas o remiten como fuente de datos a repositorios sobre los que pesan sospechas de incluir contenidos no autorizados por sus titulares. P. ej., LibGen, usado por Meta (https://es.wired.com/articulos/meta-esta-usando-bancos-de-datos-pirateados-e-ilegales-para-entrenar-a-su-ia), o Watchseries, utilizado por IAs de generación de vídeos. Vid. también https://adepi.net/2025/03/07/un-informe-danes-revela-que-los-modelos-de-ia-generativa-se-han-entrenado-con-contenido-pirateado/ ↩︎
  11. En relación con la excepción de TDM, entre las conclusiones del citado cuestionario de la UE sobre IA y derechos de autor y afines, una de las cuestiones que más se plantearon fue justamente la aplicabilidad de esta excepción al entrenamiento de las IA (Policy questionnaire…, cit., pp. 3, 10-11). Se apuntan divergencias entre los Estados y los participantes en relación con el alcance de dicha excepción, mas no tanto sobre si es necesaria cuanto a si resulta suficiente, pues se señaló por muchos, con razón, que los derechos de autor van más allá del alcance de la excepción. Las opiniones en torno a la oportunidad de crear una base de datos a nivel europeo para dar seguridad al mecanismo de exclusión, en cambio, eran más divergentes. ↩︎
  12. En China, vid. el caso Yin vs. varias empresas de audiolibros cuyo fallo por parte del Tribunal de Internet de Beijing  en abril de 2024 estableció que la voz de una persona natural, aunque procesada por IA, sigue estando legalmente protegida, ya que conserva características únicas que pueden evocar pensamientos o emociones asociadas con esa persona. 
    En la India, vid. los casos Anil Kapoor vs. Simple Life India and others (2023 SCC OnLine Del 6914, Tribunal Superior de Delhi) y Arijit Singh vs. Codible Ventures LLP and others (IPR SUIT (L) No.23443 of 2024, resuelto en julio de 2024 por el Tribunal Superior de Bombay).
    En Francia, no llegó a judicializarse el caso de la utilización de la voz de la actriz Françoise Cadol doblando a Lara Croft en videojuegos, al igual que sucedió en EEUU con el caso de Scarlett Johansson contra OpenAI por la utilización de su voz para su modelo ChatGPT4o.
    Vid. también el art. 64 del citado Proyecto de Ley brasileño, que señala que la IA tiene que respetar también esos otros derechos concurrentes sobre voz e imagen.
    Más exóticos nos pueden parecer, desde la perspectiva continental, las propuestas de hacer recaer sobre la voz derechos de propiedad intelectual que han surgido en EEUU., como el Proyecto de Ley No AI FRAUD Act (No Artificial Intelligence Fake Replicas And Unauthorized Duplications Act, H. R. 6943) introducido en el Congreso de los EEUU en enero de 2024 (118ª legislatura) con la intención de reconocer para toda persona un “derecho de propiedad intelectual” (sic) sobre su apariencia y voz: “(1) IN GENERAL.—Every individual has a property right in their own likeness and voice. (2) EXTENT.—The rights provided for in paragraph (1) constitute intellectual property rights and are freely transferable and descendible, in whole or in part, and do not expire upon the death of the individual, whether or not such rights were commercially exploited by the individual during the individual’s lifetime”. La propuesta no ha sido presentada nuevamente en la actual legislatura, al menos de momento. Más “entendible” desde nuestra tradición es la llamada “Ley ELVIS” (siglas en inglés de Ensuring Likeness, Voice, and Image Security Act, HB 2091 / SB 2096), legislación pionera aprobada en marzo de 2024 en el estado de Tennessee, EEUU, que busca proteger la imagen, la voz y la semejanza de las personas frente al uso no autorizado, especialmente en el contexto de tecnologías como la IA y los deepfakes. Esta norma prohíbe la explotación comercial no autorizada de estos atributos; en concreto, respecto de la voz, queda protegida incluso si es una simulación generada por IA, siempre que sea reconocible y atribuible a una persona; la ley establece responsabilidad legal para quienes publiquen, distribuyan o usen la voz o imagen sin permiso, aunque reconoce excepciones típicas del fair use (crítica, sátira, parodia…). Frente a las normas vigentes en Europa y España, esta ley estatal de Tennessee es más específica y, podríamos decir, proactiva frente a los riesgos de la IA, en cuanto supone un reconocimiento de un derecho digital de imagen y voz en el contexto tecnológico actual, incluyendo la regulación de modelos generativos que permiten imitar a personas reales. ↩︎

¡Comparte!