La nueva regulación europea sobre la inteligencia artificial: ¿es necesaria?
Es imprescindible tener una norma que regule el uso de estos sistemas para garantizar la seguridad y el derecho de indemnización de los ciudadanos y consumidores
Con este artículo quiero proporcionar al lector mi visión como abogado, y profesor desde hace varios años en esta materia, sobre qué nos aporta, a la sociedad europea, el hecho de contar con el primer reglamento europeo que regulará los sistemas de inteligencia artificial.
A pesar de lo que se pueda pensar, la inteligencia artificial no es una innovación reciente, sino que se remonta a 1950, año en el que el matemático inglés, Alan Turing, publicó un trabajo titulado Computing Machinery and Intelligence que comenzaba con la simple pregunta: ¿pueden pensar las máquinas? Años después, en 1956, el término de inteligencia artificial sería acuñado por John McCarthy.
El origen de contar con una norma europea se remonta al que, desde mi punto de vista, es uno de los primeros documentos europeos relevantes en la materia, la Resolución del Parlamento europeo, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica, y en el que, como su propio nombre indica, el Parlamento proporcionaba una serie de recomendaciones a la Comisión y le pedía que elaborase una propuesta de directiva, con el objetivo fundamental de regular la responsabilidad civil por los daños y perjuicios causados por robots, y es ahí dónde encontramos uno de los motivos por los que, en mi opinión, resulta imprescindible tener una norma europea que regule el uso de estos sistemas, para garantizar, por un lado, la seguridad y, por otro lado, el derecho de indemnización de los ciudadanos y consumidores.
Debemos tener en cuenta que estos sistemas aprenden y evolucionan, es decir, no están estáticos, por ello, con el fin de promover esa seguridad, resulta fundamental imponer, como hace el reglamento, obligaciones de evaluación continuada, especialmente, para los sistemas que sean categorizados como de “alto riesgo”. Otro de los rasgos característicos de este tipo de sistemas es que, debido a ese autoaprendizaje, es difícil conocer el proceso de razonamiento que el sistema ha seguido para conseguir un determinado resultado, lo que se conoce como black box, de manera que ni los propios ingenieros que han programado el sistema pueden ser capaces de conocer qué le ha llevado a ejecutar una determinada acción. Esto supone, indudablemente, un riesgo de sufrir consecuencias indeseadas que hay que tratar de controlar y mitigar imponiendo obligaciones a los desarrolladores.
Junto con la existencia de normas, como el reglamento, la ética desempeña un papel esencial como faro que debe de guiar el diseño y la implementación de estos sistemas, de hecho, la ética suele ser la base desde la que se empieza a regular. Su importancia quedó patente en las pautas de 2019 del grupo de expertos de alto nivel nombrado por la Comisión, cuyo objetivo era fijar una serie de principios éticos a seguir a la hora de desarrollar estos sistemas con el fin de crear una inteligencia artificial confiable en beneficio de la sociedad.
Adicionalmente, una regulación en toda la Unión Europea es fundamental para garantizar unas mismas reglas de juego para todos los operadores, es decir, unas mismas obligaciones, puesto que, de lo contrario, tendremos marcos regulatorios heterogéneos que darán lugar a desventajas competitivas.
Como conclusión, me gustaría recordar las tres leyes de Asimov que se concretan en que un robot no hará daño a la humanidad ni permitirá que, por inacción, esta sufra daño. El principal objetivo de contar con un reglamento es precisamente ese, conseguir que el desarrollo de estos sistemas se realice en beneficio de la sociedad y para complementar al ser humano, persiguiendo el objetivo del regulador de que la inteligencia artificial sea human centric.
Sigue toda la información de Cinco Días en Facebook, X y Linkedin, o en nuestra newsletter Agenda de Cinco Días