¿Líneas de código con derechos de autor?: los problemas legales que plantea entrenar algoritmos
Un sistema de IA que sugiere códigos de programación a partir de un repositorio abierto ha sido demandado en Estados Unidos
La inteligencia artificial (AI, por sus siglas en inglés) está revolucionando el mundo de las creaciones humanas, tanto artísticas como funcionales. Ya hay programas que, en base a unas órdenes, son capaces de escribir un artículo en varios idiomas, como Bloom, o de crear imágenes a partir de un texto de forma automática, como Dall-E. Y aunque la situación, a priori, puede parecer pacífica, los retos legales que plantean estos programas son diversos.
Por una parte, para que estos sistemas aprendan y sean capaces de crear contenido, tienen que haber engullido antes millones de datos de diferentes procedencias. Esto abre el melón de qué derechos deberían tener los autores originales respecto de la creación artificial. Dicho de otro modo, si Dall-E genera una imagen de Mafalda con bata de cola, ¿debería compensarse a Quino?
Por otra, surgen dudas de gestión incluso cuando el modelo bebe de fuentes abiertas que se rigen por sus propios términos y licencias. Es el caso del programa Copilot, lanzado el pasado mes de junio, que es un sistema de AI que genera sugerencias de código de forma autónoma a partir de las líneas que otros desarrolladores humanos dejan en el repositorio público GitHub bajo licencia GPL (general public license). Con estas premisas, Copilot permite programar de forma más eficiente y rápida. Pero tanto GitHub, como su propietario, Microsoft, y OpenAI, han recibido una demanda colectiva en la Corte Federal de California.
Como explica Luis Ignacio Vicente, consejero estratégico de Pons IP, “la demanda considera que con esta forma de trabajar no se están respetando, entre otras, las licencias de software abierto, ni el Digital Millenium Copyright Act [la ley de derechos de autor en el ámbito digital estadounidense]”. Más específicamente, “en lo relativo a la información de los programadores del código original que está entrenando a Copilot”.
Referencias
En este caso no se trata, como en el ejemplo de Quino, de compensar a los desarrolladores de las líneas informáticas, pues los datos están libres de derechos, pero sí de citar a los autores originales que han contribuido de manera relevante a alimentar el modelo. “Sería una evolución del derecho de cita, tan habitual en las obras escritas”, explica Vicente. No hay que olvidar, apunta el experto, que los datos abiertos pueden ser públicos o privados. Y es que, los términos y condiciones de la licencia GPL permiten el uso libre de la información recopilada, pero sin perjuicio de reconocer la autoría cuando corresponda. Una consecuencia que, según Daniel Gutiérrez, director del área de Innovación & Economía Digital de Ontier España, puede provocar un choque “de proporciones antológicas con la concepción del apropiacionismo”, nombre con el que se conoce la práctica por la que alguien utiliza la obra de otro para convertirla en una nueva.
Lo que no prohíben las condiciones de uso de la licencia GPL es comerciar con las copias o modificaciones del contenido sustantivo que alberga la base de datos. Eso sí, los vendedores deben informar de su origen y respetar los avisos de autoría. Como indica Gutiérrez, “el código abierto lo es porque sus autores así lo determinan mediante la fijación o aceptación de unas reglas de juego”, por lo que saltárselas, salvo en aras de un interés superior amparado normativamente, sería ilegal.
Modelo de futuro
Más allá de las condiciones de uso y los límites de estos programas AI, se abre la necesidad de nuevas fórmulas que permitan aprovechar las tecnologías digitales y evolucionen las negociaciones de los derechos sobre los activos que manejan y producen. “Un precedente sería Spotify”, apunta Vicente. Para Daniel Gutiérrez, habría que desarrollar, en muchos casos, “sistemas de compensación legítimos para los autores si los resultados llegan al mercado con ánimo de lucro”. El experto imagina sociedades de gestión colectiva específicas y un plan concreto de reconocimiento de paternidad de las obras utilizadas mediante tecnologías ya aplicadas actualmente. Por otra parte, señala, no se puede considerar como obra original (protegible por derechos de autor) ningún resultado generado por sistemas de AI, salvo que exista intervención humana directa en el proceso creativo, y por tanto no tendrían reconocidos derechos de exclusiva en casi ninguna jurisdicción. No obstante, matiza, "si la inteligencia artificial se usa como apoyo para desarrollar ciertas partes de la creación, véase el funcionamiento de sugerencias de Copilot, el resultado final sí podría encajar en el concepto de autor".
Como indica Vicente, la Unión Europea ha promovido precedentes interesantes como son los sandboxes en IA o nuevas formas de protección de bases de datos, a través de una fórmula conocido como “derecho sui generis”, que se concede por un periodo de 15 años cuando en la fabricaciónse ha realizado "una inversión sustancial desde el punto de vista cualitativo o cuantitativo en la obtención, verificación o presentación del contenido”.
Otra de las derivadas que se plantean los juristas en relación con la problemática de utilizar millones de datos para alimentar estos programas de AI es cómo detectar posibles usos no consentidos. Esto, señala Vicente, “no siempre es evidente ya que habría que probar que el resultado está basado en una obra original de un tercero”. No obstante, ya se están desarrollando algoritmos que detectan el uso indebido de licencias de software libre o la utilización de imágenes con derechos de terceros.
Es decir, aunque resulte paradójico, la solución para vigilar usos no consentidos vendría de la mano de otra AI, apunta Gutiérrez: “dado el volumen y la necesidad de actuar de inmediato en múltiples frentes”. De hecho, ejemplifica, “muchos prestadores de servicios para compartir contenidos en línea los utilizan para justificar el despliegue de su debida diligencia frente a la piratería”.
Ética digital
Regulación UE. El futuro Reglamento de Inteligencia Artificial prohibirá el llamado scoring social (sistema que puntúa a los ciudadanos en base a su comportamiento) y fijará requisito para el uso de modelos de “alto riesgo”. Además, "Los usuarios de un sistema de IA que genere o manipule contenido de imagen, sonido o vídeo que se asemeje notablemente a personas, objetos, lugares u otras entidades o sucesos existentes, y que pueda inducir erróneamente a una persona a pensar que son auténticos o verídicos (ultrafalsificación), harán público que el contenido ha sido generado de forma artificial o manipulado". También prevé sandboxes regulatorios (entornos controlados) para promover el aprendizaje normativo basado en pruebas.
Tecnología responsable. Noemí Brito, directora del área de Propiedad Intelectual y Nuevas Tecnologías de KPMG Abogados, señala que las empresas están implementando cambios internos con el telón de la ley europea de AI de fondo. Entre otras, políticas de tecnología responsable “desplegando a nivel operativo únicamente servicios y productos tecnológicos y en línea que resulten plenamente confiables, éticos y legales”. Esto conecta con la observancia de los criterios ESG.en lo relativo a “la gobernanza y ética de los negocios, lo que, sin duda, está en el punto de mira de inversores y otros grupos de interés”, subraya la experta. Además de lo anterior, añade, "están apostando por el desarrollo efectivo de criterios de diseño legal y ético generalizados, sobre todo, en entornos y negocios digitales, permitiéndoles mitigar al máximo potenciales riesgos legales en este ámbito".
Portabilidad. Luis Ignacio Vicente, consejero estratégico de Pons IP, apunta a que la regulación deberá evolucionar: “Los particulares sí tienen derecho de portabilidad de datos personales, pero no existe este derecho para las empresas”. Además, aboga por espacios digitales en los que se facilite el intercambio de información, como la iniciativa Open Data Space o el proyecto del programa Digital Europe en la Unión Europea. "También la UE ha promovido en este campo, la iniciativa SWIPO (Switching Cloud Providers and Porting Data) que está definiendo códigos de conducta para el intercambio de datos y ya ha presentado dos, uno destinado a las infraestructuras como servicio (IaaS) y otro al propio mercado de software (Saas)".