_
_
_
_
En colaboración conLa Ley
Inteligencia artificial
Tribuna
Artículos estrictamente de opinión que responden al estilo propio del autor. Estos textos de opinión han de basarse en datos verificados y ser respetuosos con las personas aunque se critiquen sus actos. Todas las tribunas de opinión de personas ajenas a la Redacción de EL PAÍS llevarán, tras la última línea, un pie de autor —por conocido que éste sea— donde se indique el cargo, título, militancia política (en su caso) u ocupación principal, o la que esté o estuvo relacionada con el tema abordado

Nuevo marco jurídico para la IA: transparencia hasta la entrada en vigor del reglamento europeo

El texto se apoya su en un enfoque de riesgos, clasificando los usos de la inteligencia artificial según el impacto que pueden tener en los ciudadanos

GETTY IMAGES

La reciente intensificación en el uso de herramientas que incorporan inteligencia artificial (IA) se debe, principalmente, a los avances en procesamiento del lenguaje natural que este tipo de herramientas han conseguido incorporar a su oferta de servicios. Esto permite que podamos interactuar con las máquinas de una manera mucho más sencilla y que, incluso, la máquina pueda elaborar el resultado que nos va a ofrecer de una manera más entendible por los humanos y, por ello, más útil.

Hemos cambiado, por tanto, sistemas que ahora ya no parecen tan inteligentes pues se limitaban a repetir patrones o resultados para los que estaban programados por sistemas que nos pueden dar una ayuda mucho más estratégica y que, de alguna manera, son mucho más eficientes y aportan mucho más valor a las empresas. En esta situación, muchas empresas están estudiando incorporar diversas herramientas basadas en algoritmos o inteligencia artificial para múltiples funcionalidades dentro de cada sector de actividad, lo que genera también ciertos quebraderos de cabeza en las asesorías jurídicas encargadas de revisar y validar estas propuestas.

Para la generalidad, servicios ofrecidos hoy día y que las empresas valoran implementar, a pesar de que la normativa marco no esté aún en vigor, es necesario lógicamente llevar a cabo una serie de revisiones para determinar si el uso de estos sistemas es viable o por el contrario puede suponer un riesgo para las empresas. En crucial entender el funcionamiento técnico de las herramientas de cara a evaluar los riesgos jurídicos que entraña, principalmente en lo relativo las fuentes con las que ha sido entrenado el sistema, así como si la información introducida por la empresa va a ser utilizada para esa misma finalidad de entrenamiento, o las consecuencias que puede tener el uso de estos sistemas para automatizar decisiones de negocio que puedan tener impacto en los usuarios, entre otras muchas cuestiones en función de la herramienta y su finalidad de uso.

Conflictos jurídicos relacionados con la inteligencia artificial llevan surgiendo desde hace muchos años. Ya en 1988, en Reino Unido, se debatía acerca de si las obras generadas por ordenador podrían generar derechos de autor y en los últimos meses encontramos también disputas jurídicas por parte de autores y artistas que reclaman a los desarrolladores de este tipo de herramientas de inteligencia artificial supuestas infracciones de sus derechos para el "buen fin" de entrenar a las "máquinas". La oferta de herramientas cada vez más sofisticadas y que ayudan de forma sustancial al negocio crece por lo que equipos directivos, de desarrollo de negocio o marketing están planteando el uso o la implementación de este tipo de sistemas en diferentes ámbitos de su negocio.

Las empresas han de afrontar ahora un cuerpo normativo específico, el Reglamento Europeo de IA, que se está ya complementando con normativas adicionales, por ejemplo, en materia de responsabilidad de los fabricantes de aquellos productos que incorporen IA. El texto definitivo aprobado a primeros de diciembre por los Estados y la Eurocámara, apoya su redacción en un enfoque de riesgos, clasificando los usos de la inteligencia artificial en función del impacto que pueden tener en los derechos y libertades de los ciudadanos. Es decir, se identifican una serie de usos prohibidos de la inteligencia artificial, que van desde la utilización de estas tecnologías para explotar debilidades de colectivos vulnerables, técnicas de calificación social, identificación biométrica remota en tiempo real en espacios de acceso público, sistemas policiales predictivos, entre otros.

Además de esta categoría, digamos, de riesgo inaceptable y que, por tanto, no se va a poder llevar a cabo, encontramos los sistemas de IA considerados de alto riesgo, en los cuales se permite un determinado uso de la tecnología siempre que se apliquen una serie de garantías ex ante, que implican la implementación de un sistema de gestión de riesgos, y gobernanza del sistema, entre otras medidas encaminadas a identificar y limitar los riesgos. El resto de los sistemas de inteligencia artificial se considerarán sistemas generales de IA, cuyo uso también llevará aparejado, principalmente, obligaciones de transparencia y revisión continua. Probablemente se impongan modelos externos de certificación que puedan ayudar a las empresas a demostrar el cumplimiento.

En mi opinión, durante 2024 vamos a ver un desarrollo muy importante de los modelos fundacionales. Estos modelos son sistemas de inteligencia artificial entrenados conjuntos de datos masivos no etiquetados de cara a entrenar un modelo básico como punto de partida para desarrollar modelos de machine learning que sean capaces de realizar una gran variedad de tareas generales, como comprender el lenguaje, generar texto e imágenes y conversar en lenguaje natural. Esto supone que las empresas que los quieran utilizar puedan implementarlo dentro de sus propios sistemas, de forma que lleven a cabo allí las tareas para las que han sido entrenados. La facilidad de implantación de estos sistemas de inteligencia artificial en bases de datos o entornos propios de las empresas, creo que va a ser determinante para que se impongan.

Todo indica que las palabras transparencia, evaluación continua y explicabilidad van a ser los hot topics en la industria legal de la inteligencia artificial en 2024.

Joaquín Muñoz, socio de Bird&Bird.

Más información

Archivado En

_
_