Ir al contenido
_
_
_
_
En colaboración conLa Ley
Inteligencia artificial
Tribuna
Artículos estrictamente de opinión que responden al estilo propio del autor. Estos textos de opinión han de basarse en datos verificados y ser respetuosos con las personas aunque se critiquen sus actos. Todas las tribunas de opinión de personas ajenas a la Redacción de EL PAÍS llevarán, tras la última línea, un pie de autor —por conocido que éste sea— donde se indique el cargo, título, militancia política (en su caso) u ocupación principal, o la que esté o estuvo relacionada con el tema abordado

La inteligencia artificial y la responsabilidad en su uso: un desafío jurídico en la era digital

Hoy día en España no puede imputarse un delito a una IA; la responsabilidad penal recae en las personas físicas o, en ciertos casos, en las personas jurídicas

La inteligencia artificial (IA) no es una herramienta tecnológica tradicional. Aprende, se adapta y, en algunos casos, puede tomar decisiones autónomas. De hecho, es esta autonomía la que plantea desafíos inéditos para el marco jurídico de la responsabilidad civil y penal vigente en España, ya que partimos de la premisa de la intervención humana.

En el sector médico, por ejemplo, los algoritmos de IA pueden analizar imágenes radiológicas con una precisión que rivaliza con la de los mejores médicos especialistas. En la automoción, los vehículos autónomos prometen reducir drásticamente los accidentes de tráfico. Sin embargo, ¿quién es jurídicamente responsable si un vehículo autónomo causa un accidente o si un diagnóstico erróneo lleva a un tratamiento médico incorrecto?

La respuesta no es sencilla porque, en la actualidad, los sistemas de IA no pueden ser “sujetos con personalidad jurídica propia” y, por tanto, no pueden ser responsables por sí solos. Como consecuencia, la responsabilidad civil recae en los humanos que los diseñan, entrenan, comercializan o los utilizan. Pero ¿hasta qué punto puede exigirse responsabilidad a un operador que no controla completamente el comportamiento de un sistema que incorpora IA?

Partimos de que la responsabilidad civil derivada del uso de la IA debe abordarse desde los principios generales del derecho civil y mercantil. Nuestro Código Civil establece que quien causa daño a otro por acción u omisión debe reparar el daño causado (artículo 1902) y, por tanto, este principio debe ser aplicado igualmente a los daños causados por esta herramienta.

Como decimos, la IA también puede tomar decisiones autónomas, lo cual complica la identificación del responsable del daño. ¿Será responsable el desarrollador del software, el fabricante del hardware, el usuario que emplea la IA en su puesto de trabajo, o todos ellos conjuntamente?

Con el fin de intentar dar respuestas, la Unión Europea ha puesto en marcha un proceso legislativo para la creación de un marco jurídico específico para la IA. Recientemente, se aprobó el Reglamento de Inteligencia Artificial (RIA) y cuya aplicación completa se desplegará hasta el año 2026.

El RIA plantea un enfoque basado en el riesgo, clasificando los sistemas de IA en cuatro niveles: riesgo inaceptable (prohibidos), alto riesgo (sujetos a estrictas obligaciones), riesgo limitado (con requisitos de transparencia) y riesgo mínimo (sin regulación específica). Es más, esta clasificación persigue atribuir grados de responsabilidad a los distintos operadores implicados: desarrolladores, proveedores, distribuidores y usuarios.

Así, el RIA impone obligaciones de diligencia y trazabilidad, especialmente para los sistemas de alto riesgo, tales como los utilizados en procesos de selección de personal, diagnóstico médico o concesión de créditos. Además, introduce un régimen sancionador severo, con altas multas para las empresas que resultan responsables de su incumplimiento.

Pero no todas las propuestas europeas han podido culminarse con éxito. Así, la directiva sobre la responsabilidad de productos defectuosos (de 1985) fue objeto recientemente de una propuesta de actualización para incluir a la IA y a otras tecnologías emergentes. En febrero de este año, la Comisión Europea anunció su retirada y, por tanto, a falta de esta armonización europea, resulta de aplicación el régimen de responsabilidad civil que se prevé en cada ordenamiento nacional.

En lo que se refiere a la responsabilidad penal, el debate jurídico es todavía más complejo. ¿Puede imputarse un delito a quien entrena un sistema de IA que luego actúa de forma autónoma? ¿Qué ocurre si el daño punible es consecuencia de un sesgo no intencionado en los datos que sirvieron para entrenar al sistema de IA? Hoy día en España no puede “imputarse” un delito a una IA. La responsabilidad penal recae en las personas físicas o, en ciertos casos, en las personas jurídicas. Por tanto, quien entrena, diseña, despliega u opera un sistema de IA puede responder penalmente siempre que concurran los elementos del tipo penal correspondiente en materia de dolo o imprudencia, nexo causal y la generación de un daño no permitido. Por esta razón, resulta de todo punto previsible que los tribunales desempeñarán en esta materia una labor interpretativa fundamental.

El propio RIA conmina tanto a las empresas públicas como privadas a fomentar la formación en IA entre sus empleados. Sin embargo, más allá de la legislación vigente, surge en estos momentos la necesidad de generar una cultura empresarial de “responsabilidad algorítmica” consistente en que las entidades que desarrollan o utilizan IA incorporen en su diseño o uso principios éticos como son -entre otros- la transparencia, la explicabilidad, la no discriminación y la supervisión humana. Una adecuada formación que abarque aspectos tecnológicos, jurídicos y éticos se erige como el pilar fundamental sobre el cual se sustenta el correcto aprovechamiento de esta poderosa herramienta.

Rellena tu nombre y apellido para comentarcompletar datos

Archivado En

_
_