Robots delincuentes, respuestas jurídicas a un futuro cercano

Igual que hace unos años era impensable que las empresas tuvieran responsabilidad penal, ya se habla de responsabilidad robótica

Fotograma de la película Terminator Salvation, interpretada por Christian Bale. Richard Foreman
Fotograma de la película Terminator Salvation, interpretada por Christian Bale. Richard Foreman

El camaleónico T-1000, androide diseñado para asesinar y enemigo del terminator encarnado por Arnold Schwarzenegger en la película de James Cameron, puede pasar en un futuro no muy lejano de la ciencia ficción a la realidad. Por eso, los juristas se plantean qué instrumentos tiene el derecho en la actualidad para hacer frente a los artilugios y robots delincuentes que actúan de forma autónoma.

La inteligencia artificial (IA) cada vez está más presente en nuestras vidas y relaciones sociales. El radar de tráfico que detecta el exceso de velocidad e inmediatamente comunica a una central la infracción e identificación del conductor para imponer una sanción automática es buen ejemplo de ello.

Los expertos en estas tecnologías distinguen entre machine learning, que mediante algoritmos dota a los ordenadores de la capacidad de identificar patrones en datos masivos para elaborar predicciones, y el deep learning, que entrena a la computadora para que aprenda por cuenta propia reconociendo pautas mediante el uso de muchas capas de procesamiento permitiendo rectificar la programación errónea.

Mientras que en el machine learning las responsabilidades civil y penal se atribuyen al programador o al fabricante de la máquina, no ocurre lo mismo con los sistemas basados en deep learning, que fundamenta su actividad en comportamientos no tan predecibles.

Esta tecnología es la que más temor produce entre los juristas porque puede “cambiar la alegación sobre la responsabilidad penal de estas máquinas”, según ha reconocido recientemente Eloy Velasco, magistrado de la Audiencia Nacional, durante el seminario Empleo de la inteligencia artificial en la comisión e investigación de delitos organizado por Wolters Kluwer Legal & Regulatory España.

Armas autónomas letales

Series como Terminator y Robocop hasta hace poco formaban parte de la ciencia ficción, pero androides asesinos —conocidos en términos más técnicos como sistemas de armas autónomas letales— se están probando, incluso en conflictos reales, a un paso acelerado y con poca supervisión.

Los robots con tecnología deep learning son armas que llegan a tomar decisiones sin la participación de seres humanos. Las rápidas mejorías en la robótica, la inteligencia artificial (IA) y el reconocimiento de imágenes están posibilitando ese tipo de armamento.

Ante esta situación, Peter Maurer, presidente del Comité Internacional de la Cruz Roja, recuerda que “a nivel ético, a la sociedad le preocupa que los sistemas de armas autónomas sustituyan a los humanos al momento de tomar decisiones de vida o muerte con sensores, software y procesos mecanizados”.

En la actualidad, la utilización de inteligencia artificial con machine learning para matar a una persona no sería considerado un homicidio sino un asesinato, pero el posible autor se podría localizar entre la cadena de los responsables de su creación (propietario, programador, cuidador…). Legalmente las máquinas con IA que ocasionan daño carecen de personalidad jurídica y no se les puede aplicar responsabilidad penal.

Las normas sobre responsabilidad para imputar una acción u omisión de los robots se refieren, en la mayoría de los casos, al fabricante, al operador, al propietario o al usuario que podría haber anticipado, previsto y evitado el comportamiento del robot que ocasionó los daños. Para Luis Ignacio Vicente, consejero estratégico de Pons IP, “desde el punto de vista técnico, este planteamiento presenta retos a la hora de su aplicación”.

El problema surge cuando se utilizan ordenadores o robots que funcionan con software de deep learning, que actualmente pueden llegar a tomar decisiones autónomas distintas de lo programado inicialmente.

La responsabilidad robótica

Cada vez está más cerca la posibilidad de que máquinas conformadas por IA puedan causar daños a intereses dignos de tutela penal como la vida o el orden económico, lo que “nos obliga a tomar en consideración sus implicaciones penales”, asegura Fernando Miró Llinares, catedrático de Derecho Penal y Criminología de la Universidad Miguel Hernández de Elche.

Igual que hace años era impensable que hubiera responsabilidad penal de las empresas, “no puede negarse que en el futuro exista una responsabilidad robótica”, vaticina Eloy Velasco.

La realidad es que la combinación de ciencia y tecnología está planteando situaciones muy complejas en lo que respecta a su calificación jurídica. La incorporación de material vivo a máquinas está demostrando que se podría acabar dotando a los robots de algo parecido a inteligencia humana sin que sus decisiones se derivasen exclusivamente en los algoritmos, sino que esta máquina pudiera tomar decisiones razonadas.

Francisco Pérez Bes, socio de derecho digital en Ecix Group, considera que “una vez se ha extendido la responsabilidad penal a las personas jurídicas (es decir, a seres no humanos), jurídicamente podría llegar a plantearse un escenario parecido” para estos robots.

Los jueces tienen en la actualidad muy complicado aplicar la responsabilidad civil y penal de las personas físicas y jurídicas a ese artilugio independiente que funciona con tecnología deep learning y que tiene capacidad para tomar decisiones sin intervención humana. Por ello, Velasco defiende la aplicación de “la responsabilidad civil para indemnizar a la víctima y poner en marcha las consecuencias accesorias como son el decomiso, la prohibición de uso o incluso su destrucción”.

En la actualidad, para el caso de un robot delincuente se podría aplicar el artículo 129 del Código Penal que permite imponer penas accesorias en los delitos cometidos por medio de organizaciones, grupos o cualquier otra clase de entidades que carecen de personalidad jurídica.

“Llegados a este punto, la atribución de responsabilidad penal, tal y como la conocemos en la actualidad, posiblemente deba ser replanteada de una manera específica”, asegura Pérez Bes, cuyo despacho usa algoritmos para ayudar en el cumplimiento normativo.

De hecho, la Comisión Europea baraja la posibilidad de dotar a los robots de personalidad jurídica. Hasta la aprobación de esta normativa, el compliance tecnológico adquiere una especial importancia. Raquel Navares, directora general de Pons Compliance, asegura que estos programas de cumplimiento normativo “son la herramienta necesaria para prevenir y vigilar la comisión de un delito por el incumplimiento de la legislación existente”.

Preocupación internacional

Getty Images
Getty Images

Sin acuerdo. En la ONU se debatió el pasado mes de diciembre la regulación o prohibición de los denominados robots asesinos o armas letales: drones, armamento y bombas que deciden por su cuenta, con cerebros artificiales, si van a atacar y matar. Expertos en inteligencia artificial y derecho humanitario mostraron su preocupación por esta tecnología. EEUU y Rusia vetaron un posible acuerdo para limitar el uso de armas robóticas con IA.

Reglamento europeo. El Parlamento Europeo está elaborando un reglamento para establecer normas armonizadas sobre inteligencia artificial. El objetivo es buscar un equilibrio entre la protección de derechos y el apoyo a esta tecnología que es pilar de la economía digital. El borrador propone un sistema de niveles de riesgo para distintos usos de la IA (el nivel de riesgo más alto estaría prohibido), así como distintos requisitos de transparencia en los algoritmos y la supervisión humana de los mismos.

Reconocimiento facial. En el rostro hay 150 puntos nodales que permiten identificar a los individuos mediante algoritmos. Policía Nacional, Guardia Civil y algunas policías autonómicas podrán utilizar el controvertido sistema ABIS, que permite utilizar la IA para identificar en menos de un segundo las personas captadas por una cámara de seguridad, cotejando las 5,6 millones de imágenes con una base de datos con 3,9 millones de individuos.

Primer delito con IA. En 2019, en Hungría, se cometió el primer delito con ayuda de inteligencia artificial al realizar una simulación de la voz de un CEO para solicitar un depósito urgente de 243.000 euros entre una empresa eléctrica y un proveedor que, efectivamente, se realizó

Normas
Entra en El País para participar