_
_
_
_
En colaboración conLa Ley
Inteligencia artificial
Tribuna
Artículos estrictamente de opinión que responden al estilo propio del autor. Estos textos de opinión han de basarse en datos verificados y ser respetuosos con las personas aunque se critiquen sus actos. Todas las tribunas de opinión de personas ajenas a la Redacción de EL PAÍS llevarán, tras la última línea, un pie de autor —por conocido que éste sea— donde se indique el cargo, título, militancia política (en su caso) u ocupación principal, o la que esté o estuvo relacionada con el tema abordado

La nueva regulación europea sobre la inteligencia artificial: ¿es necesaria?

Es imprescindible tener una norma que regule el uso de estos sistemas para garantizar la seguridad y el derecho de indemnización de los ciudadanos y consumidores

Inteligencia artificial
Yuichiro Chino (Getty Images)

Con este artículo quiero proporcionar al lector mi visión como abogado, y profesor desde hace varios años en esta materia, sobre qué nos aporta, a la sociedad europea, el hecho de contar con el primer reglamento europeo que regulará los sistemas de inteligencia artificial.

A pesar de lo que se pueda pensar, la inteligencia artificial no es una innovación reciente, sino que se remonta a 1950, año en el que el matemático inglés, Alan Turing, publicó un trabajo titulado Computing Machinery and Intelligence que comenzaba con la simple pregunta: ¿pueden pensar las máquinas? Años después, en 1956, el término de inteligencia artificial sería acuñado por John McCarthy.

El origen de contar con una norma europea se remonta al que, desde mi punto de vista, es uno de los primeros documentos europeos relevantes en la materia, la Resolución del Parlamento europeo, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica, y en el que, como su propio nombre indica, el Parlamento proporcionaba una serie de recomendaciones a la Comisión y le pedía que elaborase una propuesta de directiva, con el objetivo fundamental de regular la responsabilidad civil por los daños y perjuicios causados por robots, y es ahí dónde encontramos uno de los motivos por los que, en mi opinión, resulta imprescindible tener una norma europea que regule el uso de estos sistemas, para garantizar, por un lado, la seguridad y, por otro lado, el derecho de indemnización de los ciudadanos y consumidores.

Debemos tener en cuenta que estos sistemas aprenden y evolucionan, es decir, no están estáticos, por ello, con el fin de promover esa seguridad, resulta fundamental imponer, como hace el reglamento, obligaciones de evaluación continuada, especialmente, para los sistemas que sean categorizados como de “alto riesgo”. Otro de los rasgos característicos de este tipo de sistemas es que, debido a ese autoaprendizaje, es difícil conocer el proceso de razonamiento que el sistema ha seguido para conseguir un determinado resultado, lo que se conoce como black box, de manera que ni los propios ingenieros que han programado el sistema pueden ser capaces de conocer qué le ha llevado a ejecutar una determinada acción. Esto supone, indudablemente, un riesgo de sufrir consecuencias indeseadas que hay que tratar de controlar y mitigar imponiendo obligaciones a los desarrolladores.

Junto con la existencia de normas, como el reglamento, la ética desempeña un papel esencial como faro que debe de guiar el diseño y la implementación de estos sistemas, de hecho, la ética suele ser la base desde la que se empieza a regular. Su importancia quedó patente en las pautas de 2019 del grupo de expertos de alto nivel nombrado por la Comisión, cuyo objetivo era fijar una serie de principios éticos a seguir a la hora de desarrollar estos sistemas con el fin de crear una inteligencia artificial confiable en beneficio de la sociedad.

Adicionalmente, una regulación en toda la Unión Europea es fundamental para garantizar unas mismas reglas de juego para todos los operadores, es decir, unas mismas obligaciones, puesto que, de lo contrario, tendremos marcos regulatorios heterogéneos que darán lugar a desventajas competitivas.

Como conclusión, me gustaría recordar las tres leyes de Asimov que se concretan en que un robot no hará daño a la humanidad ni permitirá que, por inacción, esta sufra daño. El principal objetivo de contar con un reglamento es precisamente ese, conseguir que el desarrollo de estos sistemas se realice en beneficio de la sociedad y para complementar al ser humano, persiguiendo el objetivo del regulador de que la inteligencia artificial sea human centric.

Sigue toda la información de Cinco Días en Facebook, X y Linkedin, o en nuestra newsletter Agenda de Cinco Días

Rellena tu nombre y apellido para comentarcompletar datos

Más información

Archivado En

_
_