_
_
_
_
En colaboración conLa Ley
_
Tecnología
Tribuna
Artículos estrictamente de opinión que responden al estilo propio del autor. Estos textos de opinión han de basarse en datos verificados y ser respetuosos con las personas aunque se critiquen sus actos. Todas las tribunas de opinión de personas ajenas a la Redacción de EL PAÍS llevarán, tras la última línea, un pie de autor —por conocido que éste sea— donde se indique el cargo, título, militancia política (en su caso) u ocupación principal, o la que esté o estuvo relacionada con el tema abordado

La responsabilidad penal de los nuevos entes de inteligencia artificial

Su incorporación masiva al mercado trae consigo nuevas problemáticas que habrá que regular para garantizar la seguridad jurídica a nivel global

La inclusión de la responsabilidad penal de las personas jurídicas en nuestro ordenamiento jurídico supuso un cambio de paradigma en la persecución y castigo de los delitos. Un salto dogmático sin precedentes que tuvo como telón de fondo la escéptica mirada de un amplio sector doctrinal. Por aquel entonces parecía inimaginable que pudiera considerarse responsable de la comisión de un determinado elenco de delitos a una ficción legal encargada de mantener agrupado el capital y el trabajo, por cuanto sólo las personas físicas están provistas de la conciencia y voluntad necesarias para delinquir.

Sin embargo, para el legislador primó la idea de que las personas jurídicas constituían un foco de riesgo e impunidad que había que atajar, lo que obligó a reinterpretar la teoría general del delito prescindiendo, por primera y única vez en sus 50 años de historia, del concepto psicologista de la culpabilidad. Y lo cierto es que a día de hoy la imputación de personas jurídicas es habitual en la praxis judicial cuando ya se han cumplido diez años de su incorporación a nuestro Código Penal.

De la misma manera, hace una década muy pocos imaginaban que se encontrara integrada en nuestro día a día una tecnología capaz de percibir, razonar, aprender y, en definitiva, de realizar acciones antes reservadas a las personas. Esta tecnología se alimenta del llamado machine learning, técnica que permite a las computadoras aprender por sí mismas, sin tutelaje, y realizar acciones cada vez más complejas, mejorando su desempeño a través de la experiencia.

Existe consenso en que esta cuarta revolución industrial sentará las bases para la aparición de un tercer sujeto susceptible de cometer delitos: los entes de inteligencia artificial. No en vano, la resolución del Parlamento Europeo, de 16 de febrero de 2017, creó una nueva categoría jurídica a caballo entre las cosas y las personas físicas a la que denominó "persona electrónica".

Actualmente, el ejemplo más visible de inteligencia artificial –y aún muy incipiente– es el de los vehículos autónomos. Si bien la inteligencia artificial del vehículo ha sido diseñada para llevar una conducción independiente de la manera más segura posible, siempre existirá el riesgo, en mayor o menor medida, de que pueda causar daños personales y/o materiales. Tales accidentes plantean serios interrogantes acerca de quién debe ser considerado el verdadero autor del siniestro y, fundamentalmente, quién debe ser responsabilizado por éste.

Estos vehículos forman parte de los llamados sistemas de inteligencia artificial de primera generación. La máquina no es capaz de aprender sino únicamente de realizar aquellos actos para los que ha sido programada. Por tanto, en la medida en que esos daños sean consecuencia de una negligencia grave en su proceso de fabricación o, incluso, de una programación maliciosa para provocar lesiones o la muerte de un tercero, deberá considerarse responsable al fabricante o creador. Por el contrario, si estos riesgos fueran razonablemente previsibles y evitables de haberse guardado un mínimo de cuidado, será el usuario/conductor quien deberá responder de su conducción imprudente.

Pero el verdadero problema surge con los sistemas de inteligencia artificial de segunda generación. Éstos son capaces de tomar decisiones de manera automática o auto-aprendida, de ahí la gran cuestión que se nos plantea: ¿es posible considerarlos como sujetos activos del delito y, en consecuencia, responsables de sus actos con independencia de sus artífices, creadores y/o usuarios?

En este segundo caso el comportamiento de la máquina es mucho más imprevisible para el ser humano, por lo que no parece razonable culpar al fabricante o usuario de los daños que pudiera ocasionar como consecuencia de ese margen de acción librado al aprendizaje (o machine learning) en la medida en que se tratan de decisiones tomadas en un contexto distinto de aquél para el que fueron programados.

Sin embargo, la cuestión no es tan sencilla. La falta de conciencia y voluntad de los entes de inteligencia artificial supone un escollo que necesariamente habrá de salvarse si se quiere optar por considerarlos sujetos penalmente responsables.

Qué duda cabe de que esto exigirá la teorización sobre un concepto de autonomía de la voluntad en el ámbito de la inteligencia artificial que, quizás, pueda tener como punto de partida la ficción legalmente establecida por nuestro legislador para las personas jurídicas con el fin de atribuirles responsabilidad penal por estrictas razones de política criminal.

En conclusión, aunque aún resulta prematuro hablar de responsabilidad penal de las personas electrónicas, la incorporación masiva de sistemas de inteligencia artificial al mercado trae consigo la aparición de nuevas problemáticas que hasta el momento no han sido abordadas, pero a las que ineludiblemente habrá que dar respuesta para garantizar la seguridad jurídica a nivel global de todos los fabricantes y consumidores de estos sistemas de inteligencia artificial que, más temprano que tarde, inundarán nuestra vida cotidiana.

Javier Cuairán, abogado del departamento de Penal del despacho Ontier

Archivado En

_
_