Ir al contenido
_
_
_
_
En colaboración conLa Ley
Inteligencia artificial
Tribuna
Artículos estrictamente de opinión que responden al estilo propio del autor. Estos textos de opinión han de basarse en datos verificados y ser respetuosos con las personas aunque se critiquen sus actos. Todas las tribunas de opinión de personas ajenas a la Redacción de EL PAÍS llevarán, tras la última línea, un pie de autor —por conocido que éste sea— donde se indique el cargo, título, militancia política (en su caso) u ocupación principal, o la que esté o estuvo relacionada con el tema abordado

Cuando la IA obliga a las marcas a decir la verdad

Si un cliente interactúa con un ‘chatbot’ o recibe contenido generado por una máquina, deberá saberlo con claridad

La inteligencia artificial transforma la comunicación más rápido de lo que las empresas son capaces de contarlo. Hasta ahora, hablar de IA era hablar de innovación, de eficiencia, de futuro. Pero con la entrada en vigor del AI Act europeo, el relato cambia. La pregunta ya no es qué puede hacer la tecnología por las marcas, sino qué deben hacer las marcas para explicar su tecnología.

El Reglamento (UE) 2024/1689, en vigor desde agosto de 2024, es la primera ley integral sobre inteligencia artificial del mundo. Clasifica los sistemas según su nivel de riesgo, inaceptable, alto, limitado o mínimo, y, por primera vez, impone obligaciones de transparencia comunicativa. Si una empresa usa IA de alto riesgo, deberá decirlo públicamente. Si un cliente interactúa con un chatbot o recibe contenido generado por una máquina, deberá saberlo con claridad. Lo que antes era una cuestión ética, ahora es una obligación legal.

Y no es menor el dato. El incumplimiento puede costar hasta el 6% de la facturación global o 35 millones de euros. Pero la multa económica no es la peor. La sanción reputacional, la pérdida de confianza, puede ser irreversible. Porque en el ecosistema digital, la transparencia no es solo una virtud, es la nueva licencia social para operar.

El AI Act nos obliga a repensar la relación entre comunicación, tecnología y reputación. Durante años, los departamentos de comunicación y los de datos vivieron en galaxias distintas. Hoy, la regulación los sienta en la misma mesa. Un comunicado ya no puede separarse de una política de compliance. Y un titular no puede ignorar lo que un algoritmo decide por debajo. Comunicar la IA es un acto de responsabilidad corporativa.

Lo entendió muy bien Sam Altman cuando admitió públicamente los límites de ChatGPT en pleno auge mediático. Esa honestidad generó más confianza que cualquier promesa de perfección, y resume bien el desafío al que se enfrentan las marcas. Para ellas, el reto es tan técnico como narrativo. ¿Cómo explicar que una decisión automatizada sigue siendo humana? ¿Cómo hacer comprensible la lógica de un modelo sin caer en el tecnicismo ni en la propaganda? El AI Act no exige solo cumplir; exige saber contarlo bien.

La norma distingue entre sistemas de riesgo limitado, como generadores de texto o imagen, y los de alto riesgo, que afectan directamente a derechos o acceso a servicios. En ambos casos, la obligación es clara: transparencia sobre el uso, documentación sobre el funcionamiento y trazabilidad sobre los datos. Dicho de otro modo, las empresas deberán poder responder con rigor a tres preguntas que serán la base de cualquier narrativa digital: ¿Qué hace tu IA? ¿Con qué datos lo hace? ¿Quién responde cuando se equivoca?

La buena noticia es que esto abre una oportunidad para quienes sepan anticiparse. El AI Act puede impulsar una cultura de comunicación más honesta, más explicativa y más humana, siempre que se aplique con pragmatismo. La clave estará en convertir la gobernanza de la inteligencia artificial en una ventaja competitiva, garantizando transparencia, supervisión humana y gestión de riesgos que generen confianza y reputación, sin estrangular la innovación. El cumplimiento debe entenderse como un motor estratégico, no como una carga normativa.

Porque, aunque hablemos de algoritmos, en el fondo hablamos de confianza. Los usuarios están cada vez más expuestos a contenidos sintéticos, decisiones automatizadas y experiencias mediadas por IA. Si una marca quiere que la crean, tendrá que ganarse ese crédito explicando su tecnología sin maquillaje. En comunicación, la autenticidad vuelve a ser el mejor storytelling.

Las empresas más inteligentes no serán las que más IA usen, sino las que mejor la expliquen. Las que logren convertir la transparencia en relato, el cumplimiento en confianza y la regulación en reputación. Y eso pasa por una nueva alianza entre comunicación, legal y tecnología.

El impacto de esta ley será enorme. Afecta a cómo atendemos a los clientes, cómo generamos contenido y cómo tomamos decisiones automatizadas. Obliga a los equipos de comunicación a entender términos como trazabilidad, auditoría de datos o riesgo sistémico. Pero también abre una nueva narrativa para las marcas, la de una tecnología que se atreve a rendir cuentas.

Porque en un mundo donde los algoritmos escriben titulares, editan vídeos o redactan informes, las marcas deberán decidir si quieren ser parte del ruido o de la verdad. Y la verdad, al menos la que importa, empieza por contar cómo se usa la inteligencia artificial.

La comunicación corporativa siempre ha tratado de construir confianza. Ya no basta con prometer transparencia, hay que demostrarla, documentarla y comunicarla.

Quizá la gran paradoja sea esta: la inteligencia artificial nos está recordando algo profundamente humano. Que la confianza no se programa, se gana.

Y en ese nuevo terreno, comunicar bien vuelve a ser el acto más inteligente de todos.

Rellena tu nombre y apellido para comentarcompletar datos

Más información

Archivado En

_
_