Licencias colectivas ampliadas en la era de la IA: ¿retirada prudente u oportunidad perdida?
Los titulares que no hayan autorizado la licencia deben poder excluir en cualquier momento sus obras de forma efectiva; el problema es que, en un escenario de IA, ese derecho solo resulta eficaz antes del entrenamiento.

Después de varios meses de promover las licencias colectivas ampliadas (LCA) para la explotación masiva de obras en el desarrollo de modelos de inteligencia artificial (IA), el Ministerio de Cultura ha decidido retirar el proyecto de decreto. Y con razón, el problema que pretende resolver requiere un análisis más profundo y mayores garantías.
Aunque a nivel europeo el AI Act promueve la adopción de esta tecnología y plantea requisitos de transparencia, gestión de riesgos y trazabilidad, aún no ofrece una respuesta clara frente al uso de obras protegidas en el entrenamiento de los algoritmos. Ante ese vacío, el Ministerio español, presentó el Proyecto de Real-Decreto para la creación de un sistema de LCA, un mecanismo que permitiría a las entidades de gestión colectiva (EGC) autorizar el uso masivo de obras para el desarrollo de modelos de IA, incluidas las de titulares no miembros, y asegurar una compensación justa.
La propuesta, presentada el 10 de diciembre, se enmarca en el régimen de límites y excepciones al derecho de autor. El artículo 4 de la Directiva 2019/790, transpuesto en el artículo 67 del Real Decreto-ley 24/2021, permite la reproducción de obras sin autorización ni compensación al titular cuando su fin sea la minería de textos y datos (MTD). Para equilibrar la excepción, la norma prevé el derecho de exclusión (opt-out) de los titulares que decidan reservar sus derechos mediante mecanismos legibles por máquina.
El problema es que esta excepción, pensada para promover la tecnología con fines de investigación, innovación, enseñanza y conservación del patrimonio cultural, hoy se enfrenta a la IA. A diferencia de la MTD tradicional, cuando una obra entra en el sistema de IA, deja de ser identificable y se distribuye en billones de parámetros. Aunque entidades como VEGAP han ejercido el opt-out, este mecanismo solo funciona si se ejerce antes del entrenamiento porque una vez entrenado el algoritmo, retirar la obra o “desentrenarlo” es prácticamente imposible.
Aquí es cuando las LCA propuestas por el gobierno español, previstas en el artículo 12 de la misma Directiva, parecen ofrecer una solución razonable, trasladando la exclusión individual hacia la autorización colectiva. La iniciativa fue recibida con posiciones encontradas. Para las EGC, la propuesta promueve la sostenibilidad cultural, mientras que otros colectivos consideraron la medida insuficiente y exigieron medidas como la retirada de contenidos y la indemnización por usos no autorizados. Otras organizaciones, paralelamente, bajo el lema #ASINO, advirtieron que la propuesta legitimaría el uso no autorizado de obras.
Entonces, ¿quién tiene la razón? Sin duda, las LCA podrían facilitar la negociación masiva de obras, reducir costes de transacción, promover remuneración y generar seguridad jurídica a desarrolladores y usuarios de plataformas. Pero hay varios problemas prácticos.
Primero, según el artículo 12.3.c) de la directiva, los titulares que no hayan autorizado la licencia deben poder excluir en cualquier momento sus obras de forma efectiva. El problema es que, en un escenario de IA, ese derecho solo resulta eficaz antes del entrenamiento. Por lo tanto, la condición solo se garantizaría si el desarrollador documenta el origen de los datos, conserva las fuentes y filtra el dataset utilizando registros de exclusión. Sin trazabilidad, auditorías y sanciones, la eficacia del opt-out dependerá, de la buena fe de los desarrolladores.
Segundo, la directiva exige medidas de publicidad de la LCA para que los titulares puedan ejercer el derecho de exclusión. Pero ¿podrán las EGC informarlos de forma eficiente? La publicación en el BOE, como contemplaba el proyecto, difícilmente garantiza una comunicación efectiva a los titulares sobre la posible licencia de sus obras.
Tercero, el problema es también económico. La IA no genera valor por el “uso” puntual de una obra, sino por el modelo entrenado y explotado comercialmente a partir de un conjunto masivo de contenidos. Por tanto, aplicar la lógica tradicional de remuneración puede quedarse en un gesto simbólico. Sin métricas verificables los titulares no podrán evaluar si la remuneración es proporcional a la explotación real.
Finalmente, la regulación exige EGC representativas, con gobernanza sólida, transparencia y capacidad técnica para negociar y garantizar una distribución eficiente de los derechos recaudados entre miembros y no miembros. Aun así, no está claro que todas las EGC en España estén hoy en condiciones de negociar y gestionar las licencias a la escala que exige la IA.
Ciertamente, las LCA no son la solución perfecta, sino un intento de adaptar el derecho de autor a un nuevo modelo de extracción digital que facilita lo que han pedido los autores: crédito, consentimiento y compensación. El riesgo, sin embargo, es que sin transparencia ni mecanismos de cumplimiento y supervisión se termine legitimando el uso masivo sin consentimiento ni negociación de los autores.
España ha dado un paso atrás. El derecho de autor se enfrenta a avances tecnológicos que exigen un análisis multidisciplinar y que, en este desfase regulatorio, los perdedores siguen siendo los creadores y titulares de derechos.