Ir al contenido
_
_
_
_
En colaboración conLa Ley

Las empresas deberán etiquetar los contenidos generados por IA a partir de agosto de 2026

El Reglamento Europeo de IA obliga a avisar en textos, imágenes, vídeos o audios creados artificialmente. Medios, entretenimiento y marketing entre los sectores más expuestos

La cuenta atrás ha comenzado. A partir del 2 de agosto de 2026, en virtud del Reglamento Europeo de Inteligencia Artificial (RIA), la Unión Europea exigirá que todo contenido generado con inteligencia artificial esté marcado de forma explícita. Textos, audios, imágenes y vídeos deberán llevar una advertencia clara y visible — un aviso en pantalla, una marca de agua o una nota al inicio—, además de un marcado técnico que permita a las máquinas detectar su origen artificial.

Para cumplir con esta obligación, tal y como explica Andy Ramos, socio de propiedad intelectual, industrial y tecnología de Pérez-Llorca, el RIA establece un “doble etiquetado: uno legible por máquina para los contenidos sintéticos de audio, imagen, vídeo o texto y otro visible para humanos en el caso de sistemas que interactúen directamente con personas físicas, como imágenes que incluyan deepfakes o textos publicados con propósito informativo de interés público”. Sin embargo, añade el abogado, la norma europea matiza que, si la intervención de la IA se limita a corregir o ampliar sin alterar el sentido, “no será necesario etiquetar ese contenido híbrido”.

Y es que alcance de esta obligación es amplio, pero no absoluto. Juan Carlos Guerrero, socio de TMT: IT/IP de ECIJA, recuerda que los contenidos híbridos solo deben etiquetarse “cuando la aportación de la IA sea sustancial y pueda inducir a error sobre su origen o autenticidad”. No existe un porcentaje concreto que delimite cuándo un contenido debe ser etiquetado o no, sino un criterio cualitativo: “lo que importa es la significación de la modificación introducida por la tecnología”, explica el experto.

Guerrero destaca además que, en el caso de textos informativos difundidos con fines de interés público, la advertencia puede no ser necesaria si han pasado por “revisión humana bajo responsabilidad editorial”. Eso sí, advierte de que publicar directamente sin control “puede derivar en la difusión de información errónea, sesgada o incluso ilícita”.

Errores frecuentes

En la práctica, los fallos más habituales respecto a contenidos en los que se emplea IA son la ausencia de supervisión, el uso de avisos superficiales que pueden eliminarse con facilidad y la falta de estrategia previa sobre el uso de la IA. A ello se suman los riesgos legales como la comisión de infracciones de derechos de autor, las vulneraciones de privacidad o las prácticas comerciales engañosas. Para Beatriz Rodríguez, socia de ciberseguridad y tecnología de RocaJunyent, la causa principal de estos errores suele estar relacionada con la falta de transparencia y control. “Es habitual que las empresas no evalúen los riesgos asociados a sistemas de alto riesgo de IA y mantengan un etiquetado deficiente o documentación insuficiente, lo que dificulta demostrar que se ha cumplido en caso de un proceso sancionador”, lamenta.

En consecuencia, Rodríguez recomienda a las compañías que implementen un programa de compliance y gobernanza de IA que combine supervisión, control y trazabilidad. “Esto implica identificar y clasificar los sistemas de IA que utilizan, asegurarse de que todo contenido generado esté correctamente etiquetado y sea legible por máquina, establecer revisión humana para validar la precisión y ética del contenido y formar a los empleados que vayan a interactuar con este tipo de sistemas y contenidos para evitar incumplimientos”, comenta.

Aunque el uso de sistemas de IA está cada vez más extendido, los expertos coinciden en que ciertos sectores son especialmente vulnerables a los riesgos derivados del incumplimiento de la obligación de etiquetar lo que se genera por inteligencia artificial. “Los medios de comunicación y el sector del entretenimiento deberán prestar especial atención a esta cuestión, ya que son grandes generadores de contenido”, señala Andy Ramos. A esta lista, Juan Carlos Guerrero suma el sector del marketing digital, las plataformas tecnológicas y el comercio electrónico.

En este contexto, y a menos de un año para que la obligación entre en vigor, las empresas deben prepararse ya y empezar a etiquetar sus contenidos. Para ello, Beatriz Rodríguez recuerda que existen herramientas de etiquetado manual, semiautomatizado y automatizado y, aunque reconoce que ninguna es aún 100% fiable, recomienda una estrategia en capas: “combinar estándares como C2PA con firmas criptográficas, políticas que protejan la metadata, autodivulgación en texto y detectores complementarios”.

Pasos para cumplir con esta obligación

Protocolos. Analizar en qué supuestos concretos será de aplicación la obligación de etiquetar los contenidos generados por IA y adaptar sus sistemas para su cumplimiento.

Identificación. Detectar qué contenidos requieren etiquetado. Así, si un sistema de IA genera o manipula audio, imagen, vídeo o texto sintético, dicho resultado deberá marcarse como generado o manipulado artificialmente. Además, deberá informarse al usuario cuando interactúe con un sistema de IA, salvo que sea obvio para cualquier persona razonablemente informada. 

Procedimiento de etiquetado visible. Insertar una advertencia clara en pantalla, nota al inicio o marca perceptible al usuario. En cuanto al etiquetado técnico legible por una máquina, puede hacerse mediante metadatos o marcas técnicas detectables, evitando soluciones superficiales que puedan eliminarse fácilmente.

Control humano permanente. Asegurarse de que todos los contenidos generados con IA se revisen por personas, especialmente los deepfakes o informaciones de interés público, para evitar engaños o perjuicios legales derivados de errores, plagio o uso indebido de datos. 

Registro de decisiones. Mantener la documentación interna que pruebe los flujos de trabajo, el origen de los datos usados, las versiones generadas, las revisiones realizadas y guardar evidencias del cumplimiento para auditorías o inspecciones reguladoras. 

Evitar prácticas inadecuadas. No dar por hecho que el uso de la IA es evidente usando avisos genéricos, no ignorar derechos de autor ni de protección de datos, no eliminar o manipular advertencias visibles o no minimizar la gravedad del riesgo reputacional o normativo.

Rellena tu nombre y apellido para comentarcompletar datos

Más información

Archivado En

_
_