propiedad intelectual en el reglamento de inteligencia artificial (1)

Mucho ruido y pocas nueces: el vacío de la Propiedad Intelectual en el Reglamento de Inteligencia Artificial

Presume la Unión Europea de tener la legislación mundial sobre IA más avanzada o, al menos, completa, del mundo: el Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial y por el que se modifican los Reglamentos (CE) nº 300/2008, (UE) nº 167/2013, (UE) nº 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE, (UE) 2016/797 y (UE) 2020/1828), abreviado Reglamento de Inteligencia Artificial o RIA. Esta vanguardista regulación pretende promover una inteligencia artificial (IA) ética, segura y fiable, regulando, mediante la distinción de hasta cuatro niveles distintos con normas específicas para cada uno, los riesgos asociados a usos específicos de la IA.

El vacío legal: lo que el Reglamento de Inteligencia Artificial no dice sobre Propiedad Intelectual

Entre otros, el RIA se asienta sobre el principio básico de respeto de los derechos de las personas, incluidos sus datos personales (Cdo. 10 y art. 2.7 RIA) y, por lo que ahora nos importa, los derechos de propiedad intelectual (Cdos. 104-110 y art. 53.1.c RIA). En particular, este último precepto señala que los proveedores de modelos de IA general “establecerán directrices para cumplir el Derecho de la Unión en materia de derechos de autor y derechos afines, y en particular, para detectar y cumplir, por ejemplo, a través de tecnologías punta, una reserva de derechos expresada de conformidad con el artículo 4, apartado 3, de la Directiva (UE) 2019/790”. A salvo las obligaciones de transparencia (art. 53.1.d y Cdo. 27). El precepto se completa con lo establecido en la letra siguiente (art. 53.1.d) en relación con la genérica obligación de transparencia: los citados proveedores “elaborarán y pondrán a disposición del público un resumen suficientemente detallado del contenido utilizado para el entrenamiento del modelo de IA de uso general, con arreglo al modelo facilitado por la Oficina de IA”[i].

Nada más dice el RIA sobre propiedad intelectual, ni sobre el uso de obras y prestaciones protegidas para el entrenamiento de los modelos ni sobre la titularidad de las obras y prestaciones resultantes del uso de modelos, sistemas, programas o apps de IA (sea asistida, sea generativa, IAGen). Así pues, la normativa aplicable tanto a uno (entrada, inputs, suministro de datos sobre los que recaigan derechos de autor o afines) como a otro extremo (salida, outputs, creaciones en las que se usa IA) es la general sobre propiedad intelectual (en España, el Texto Refundido de la Ley de Propiedad Intelectual y las disposiciones sobre minería de textos y datos, TDM, contenidas en el 67 del RD-L 24/2021[ii], que traspone los arts. 3 y 4 de la Directiva 2019/790, de Derechos de Autor en el Mercado Único Digital[iii]).

¿Quién es el dueño? El dilema de los derechos de autor en los inputs y outputs de la IA

En torno a los outputs, la cuestión gira en torno a la imputación de derechos, cuestión que, en la actualidad, se aborda desde el planteamiento clásico de que solo las personas físicas pueden ser autores[iv] (excepcionalmente, las jurídicas, en relación con el software) o artistas (intérpretes, ejecutantes) y/o, junto con las personas jurídicas, titulares de derechos de propiedad intelectual (de explotación), de manera que solo si la creación es original en el sentido de reflejar la personalidad del autor habrá obra, siendo aquel el titular originario de los derechos derivados. Es decir, las creaciones hechas con IA (incluso las de IAGen) pertenecerán a quien ha dado al sistema las indicaciones o instrucciones (prompts), si el resultado es suficientemente original, en el sentido de reflejar su personalidad[v].

Por lo que respecta a los inputs, el problema es el uso de las obras y prestaciones protegidas (p. ej., la voz de los artistas, o sus ejecuciones e interpretaciones fijadas en fonogramas o creaciones u obras audiovisuales) por parte de las empresas creadoras de los modelos de IA para el entrenamiento de estas, esto es, para que aprendan a generar creaciones a partir de las instrucciones que les den luego sus usuarios, cuando tales modelos son comercializados o puestos a disposición del público. En la actualidad, el abordaje de tal cuestión se produce de dos maneras distintas, según el contexto: el fair use, en el ámbito anglosajón (Common Law: ¿es tal actividad un uso justo y, por lo tanto, lícito?; hay diversos procesos judiciales en curso donde se está debatiendo la cuestión, especialmente en EEUU[vi]) o bien, en Europa (tradición jurídica continental), a través de la excepción de minería de textos y datos (text and data mining, TDM)[vii]. Conforme a esta última aproximación las empresas de IA podrían beneficiarse de una excepción a los derechos de exclusiva de los titulares de propiedad intelectual (en particular, pero no solo, reproducción) y utilizar sus obras y prestaciones si estos no manifiestan su oposición de forma expresa y por medios adecuados (arts. 4.3 Directiva 2019/790 y 67.3 RD-L 24/2021)[viii]. Nada más (ni menos) dice la normativa, que parece fiarlo todo a la decisión de cada titular sobre cada objeto de sus derechos, sin reflejar la situación actual de los diferentes intervinientes en el mercado, incluyendo artistas intérpretes y ejecutantes, muchos de los cuales no tienen, en la práctica, poder de negociación alguno ni es seguro que se vean compensados incluso cuando los cesionarios de sus derechos (p. ej., productoras de fonogramas o audiovisuales) consiguieran acuerdos sobre este novedoso uso de sus repertorios. En realidad, la insuficiencia de esta excepción en el ámbito que nos ocupa deriva de su origen primigenio, pues está pensada más para los usos científicos y ciertos usos comerciales de explotación de datos, más que de obras y prestaciones protegidas por derechos de propiedad intelectual, en un contexto en el que la IA (en particular, la IAGen) no estaba ni mucho menos tan desarrollada[ix].

Código de Buenas Prácticas de IA: la solución voluntaria (y polémica) de la UE

En un intento de dar luz a la normativa y situación actuales, la Comisión ha publicado un Código de Buenas Prácticas de IA de uso general, cuyos capítulos I y II se dedican, respectivamente, a la transparencia y a la Propiedad Intelectual (el III es relativo a la seguridad). El Código es un instrumento voluntario diseñado para ayudar a los proveedores a cumplir las obligaciones del RIA relativas a los modelos de IA de uso general y, por lo que ahora nos interesa, facilitar el cumplimiento de las obligaciones de derechos de autor del art. 53.1.c y la identificación y respeto de las reservas de derechos hechas por los titulares al amparo del art. 4.3 de la Directiva 2019/790. La aplicación de las medidas del Código servirá a los desarrolladores de modelos de IA generales para demostrar el cumplimiento del RIA, pero no constituye por sí mismo cumplimiento de la normativa europea de Propiedad Intelectual, y tampoco afecta a los acuerdos entre los suscriptores del mismo y los titulares de derechos por los cuales estos autorizan el uso de sus obras y prestaciones.

Los suscriptores del Código se comprometen a tener una política de Propiedad Intelectual de conformidad con la normativa europea aplicable y, en particular, implementar mecanismos, incluso mediante tecnologías de vanguardia, para identificar y cumplir con las reservas de derechos hechas por los titulares que les impidieran beneficiarse de la excepción de TDM. Para cumplir con dicho compromiso, se prevén en el Código una serie de medidas a adoptar por sus suscriptores:

  1. Elaborar, mantener actualizada e implementar una política de derechos de autor para todos los modelos de IA general que comercialicen en la UE. Se les alienta, además, a publicar, al menos, un resumen actualizado de la misma.
  2. Al rastrear la web, solo deben reproducir y extraer contenido protegido por derechos de autor que sea legalmente accesible, no eludiendo las medidas tecnológicas dispuestas por sus titulares para protegerlos (p. ej., muros de pago, sistemas de suscripción…). Se les insta también a excluir de la extracción automatizada sitios web que hayan sido identificados por autoridades o tribunales como infractores persistentes de derechos de autor[x].
  3. Si se utilizan rastreadores web (web-crawlers) para la recopilación de datos, deben respetar el Protocolo de Exclusión de Robots (robots.txt) u otras tecnologías y/o metadatos legibles por máquina para identificar el contenido que debe ser excluido. Tales mecanismos de exclusión, que sirven al opt-out previsto en la Directiva 2019/790 pueden haber sido adoptados por organizaciones de normalización internacionales o europeas, o bien ser tecnologías ampliamente utilizadas o implementadas por los titulares de derechos incluso como resultados de acuerdos de buena fe que se facilitará tener a nivel europeo entre ellos, los proveedores de IA y otras partes relevantes, mientras se desarrollan otros estándares.
  4. Establecer salvaguardas técnicas apropiadas y proporcionadas para mitigar el riesgo de que los outputs generados por estos modelos de IA infrinjan los derechos de autor y conexos de terceros. Tales medidas técnicas tienen que acompañarse de otras jurídicas, como la elaboración de unas políticas de uso aceptable de tales modelos, advirtiendo a los usuarios de la prohibición expresa de su utilización para infringir tales derechos.
  5. Establecer mecanismos de reclamación (queja y reparación) que sean eficaces y fáciles de usar para los titulares de derechos de autor y sus representantes, incluidas las entidades de gestión colectiva de derechos. Este mecanismo debe permitir la presentación de reclamaciones suficientemente precisas y debidamente fundamentadas sobre incumplimientos por parte de los signatarios del Código, que habrán de tramitarlas con diligencia, sin arbitrariedades y en un plazo razonable.

El Capítulo II se complementa con lo establecido en el I sobre transparencia, que se refiere a la documentación que deben mantener los proveedores en relación con los procesos de la IA y el origen de los datos y repositorios que se utilizan para su entrenamiento.

A pesar de su pretendida utilidad y buenas intenciones, el Código no ha sido bien recibido ni por titulares de derechos de PI ni por las tecnológicas. Los primeros consideran que solo tiene carácter voluntario (por lo cual, su eficacia dependerá del número de suscriptores, su relevancia y su grado de implementación por cada uno) y que es tan general (se recurre a terminología como “legalmente accesible” sin aclarar qué lo es) que está hecho a la medida de las segundas. Para estas, sin embargo, las obligaciones de transparencia y el abordaje de la propiedad intelectual resulta contrario a sus intereses (el libre desarrollo de modelos y aplicaciones de IA) y algunas han rechazado suscribirlo (Meta y varias empresas chinas) o se han adherido solo al capítulo III (seguridad), no a los dos primeros (X, la antigua Twitter). Sí han manifestado su voluntad de suscribirlo completo OpenAI (ChatGPT), Alphabet (matriz de Google, con su modelo Gemini), Anthropic (Claude) y Microsoft (Copilot).

Los artistas: desprotegidos frente al Reglamento de Inteligencia Artificial

En definitiva, sobre el RIA se cierne la fundada sospecha de que deja vacío de contenido al principio de protección de la PI que el mismo texto consagra, ante la ausencia real de mecanismos para hacerlo efectivo. Ni siquiera el Código de Buenas Prácticas sobre IA, en lo relativo a la propiedad intelectual, es claro y satisfactorio al respecto. Los dos principales instrumentos, la transparencia y la regulación de la TDM con cláusula de exclusión (opt out)[xi] no parecen bastar, al menos en su actual configuración, para proteger ningún derecho de propiedad intelectual concernido. Desde luego, para los artistas, a nivel individual e, incluso, colectivo, es claramente insuficiente: ni quedan resueltos los modos para que se produzca eficazmente esa exclusión, ni disponen de una posición negociadora fuerte, ni se establecen mecanismos de compensación para el caso de que los cesionarios de sus derechos (p. ej., las majors de la industria musical) sí sean capaces de alcanzar acuerdos con los desarrolladores de IA.

Cabe recordar, por último, que frente a los límites para su defensa por la vía de la propiedad intelectual, caben otros modos de protección y autodefensa de los intereses de los artistas, intérpretes y ejecutantes por el uso de sus actuaciones por parte de los desarrolladores y usuarios de IA, en cuanto la utilización de las mismas puede afectar a otros derechos ajenos a la propiedad intelectual, como son su imagen, sus datos personales e, incluso, su identidad digital[xii]. El recurso a tales otras normativas podría impedir o, al menos, limitar de forma indirecta el acceso y utilización de sus prestaciones protegidas por la vía de la propiedad intelectual, en tanto se desarrolla una tutela eficaz en este ámbito.