_
_
_
_
_
Editorial
Opinión
Texto en el que el autor aboga por ideas y saca conclusiones basadas en su interpretación de hechos y datos

Las problemáticas líneas rojas de la IA generativa

Existe un debate regulatorio, corporativo y muy especialmente ético sobre cómo evitar los abusos que pueden cometerse con esta herramienta

Inteligencia artificial
Inteligencia artificialiStock

Las múltiples posibilidades de crear contenidos hiperrealistas que ofrece la inteligencia artificial generativa y el mal uso que puede hacerse de esta tecnología ha abierto un encendido debate regulatorio, corporativo y muy especialmente ético sobre cómo prevenir los abusos que pueden cometerse con esta herramienta, hasta qué punto es posible marcar líneas rojas en su uso y a quién corresponde pagar los platos que puede romper. Unos daños que no se limitan a perjudicar económicamente a empresas y propietarios de derechos de propiedad intelectual, sino que pueden lesionar gravemente el honor y la imagen de las personas. Lo ocurrido en el caso de las menores de Almendralejo es un ejemplo del potencial devastador que encierra esta tecnología, de los problemas que está generando y de los que puede provocar a medida que se perfeccione.

Desde un punto de vista técnico jurídico –que no necesariamente coincide siempre con el debate ético– los expertos recuerdan el carácter neutral de las tecnologías, una característica que la IA comparte con muchas otras herramientas y que excluye a priori como solución cualquier intento de prohibir por vía judicial su uso, dado que este puede ser tanto ilegal como perfectamente legal.

La neutralidad tecnológica traslada el problema al campo de la responsabilidad, es decir, a determinar a quién corresponde prevenir la mala utilización de la herramienta o incluso responder civilmente de los perjuicios que ese uso pueda provocar, al margen de la responsabilidad directa, personal e intransferible del culpable del daño.

La EU AI Act, futura regulación europea sobre inteligencia artificial, ha optado como solución por imponer una serie de deberes preventivos a las empresas tecnológicas, que incluyen revelar que el contenido fue generado por IA, diseñar el modelo para evitar que se creen contenidos ilegales, publicar resúmenes de datos protegidos por derechos de autor utilizados para la capacitación y monitorizar los posibles usos inapropiados.

Pese a que esas obligaciones regulatorias son positivas y necesarias, a nadie se le escapa que el campo de la tecnología –por su rápido potencial de desarrollo– es un terreno bien abonado para el viejo principio de hecha la ley, hecha la trampa, y que el celo de las tecnológicas por cumplir la norma competirá con el de aquellos usuarios que busquen cómo saltársela. Serán los tribunales, como en tantos otros casos, los encargados de determinar a golpe de jurisprudencia hasta qué punto los creadores de la IA deben responsabilizarse de las rendijas que dejen abiertas al mal uso de una herramienta capaz de generarles ingresos millonarios.

Sigue toda la información de Cinco Días en Facebook, X y Linkedin, o en nuestra newsletter Agenda de Cinco Días

Normas

Más información

Archivado En

_
_