_
_
_
_
En colaboración conLa Ley
Inteligencia artificial
Tribuna
Artículos estrictamente de opinión que responden al estilo propio del autor. Estos textos de opinión han de basarse en datos verificados y ser respetuosos con las personas aunque se critiquen sus actos. Todas las tribunas de opinión de personas ajenas a la Redacción de EL PAÍS llevarán, tras la última línea, un pie de autor —por conocido que éste sea— donde se indique el cargo, título, militancia política (en su caso) u ocupación principal, o la que esté o estuvo relacionada con el tema abordado

Cómo la Inteligencia Artificial puede convertirse en delincuente

El desconocimiento sobre esta tecnología y el poco tiempo que lleva en nuestra sociedad la convierten en un fenómeno complejo, con un impacto sin precedentes en los derechos fundamentales

Inteligencia artificial
imagen generada con IA por Founderz

Según el Instituto Nacional de Ciberseguridad, una deepfake es “un vídeo manipulado con inteligencia artificial para hacernos creer que una persona está haciendo o diciendo cosas que en realidad no ha hecho ni dicho”.

Esta tecnología ha generado diversos conflictos debido a la facilidad con la que se puede crear este tipo de contenido y su potencial para llegar a un gran número de personas. Basta con seleccionar un video original y, mediante un programa de Inteligencia Artificial (IA), sustituir el rostro de los actores por el de personas con cierta relevancia social, quienes a menudo terminan siendo víctimas de humillaciones.

Sin embargo, la creación de estas deepfakes puede tener implicaciones delictivas, ya que, conforme a la legislación española, este tipo de contenido podría constituir un delito contra la propia imagen y/o la intimidad, o incluso un delito de injurias. No obstante, lo realmente interesante en este asunto es determinar quién sería el responsable de tales delitos. Si los deepfakes son creados por una persona física, la responsabilidad es clara. Pero ¿qué sucede si estos videos son generados por la propia IA?

Es innegable que la inteligencia artificial (IA) ha llegado para quedarse, lo que plantea un reto para la legislación y la justicia, ya que las deepfakes se encuentran en una intersección entre los delitos informáticos, los delitos contra la privacidad, el honor, el patrimonio y la integridad sexual. Un dato alarmante es que, según el informe State of Deepfake 2023, las mujeres y niñas son protagonistas del contenido pornográfico generado con deepfake en un 99%.

Este es uno de los motivos por los que tanto el Gobierno de España como la Unión Europea han implementado medidas para adaptar el ordenamiento jurídico a esta nueva realidad.

En este sentido, la Unión Europea aprobó el Reglamento de Inteligencia Artificial el 13 de marzo de 2024, con el objetivo de armonizar y actualizar las normas en esta materia. Conforme a este reglamento, la clasificación del riesgo creado por la IA determinará la tipificación del delito y se analizará la autoría en cada caso.

El Derecho Penal enfrenta actualmente el desafío de actualizar su marco normativo para adaptarse al avance tecnológico. A medida que la IA gane mayor relevancia, su impacto estará estrechamente ligado a la constante evolución de la tecnología.

Uno de los mayores retos es la dificultad en la detección y prueba de estos delitos, ya que el uso de herramientas de IA complica la identificación de la autoría. Además, se plantea la cuestión de la responsabilidad de las plataformas digitales que difunden este contenido, así como los mecanismos legales para su eliminación.

Las deepfakes generados por IA representan un desafío emergente para el Derecho Penal español. El desconocimiento generalizado sobre esta tecnología y el poco tiempo que lleva en nuestra sociedad la convierten en un fenómeno complejo, con un impacto sin precedentes en los derechos fundamentales.

Actualmente, asistimos a un creciente “choque” entre la tecnología y el derecho, lo que plantea interrogantes cruciales sobre cómo equilibrar el avance tecnológico con la integridad y equidad del sistema judicial. La justicia no es un concepto estático; por el contrario, evoluciona con el tiempo y se adapta a las circunstancias cambiantes de la sociedad. La correcta interpretación y aplicación de la ley requiere un análisis detallado de cada caso.

Si bien la inteligencia artificial ha avanzado significativamente en su desarrollo, aún carece de la capacidad de comprender la totalidad de estas variables. Esto nos lleva a reflexionar sobre los límites y responsabilidades de la IA en el ámbito legal, así como la necesidad de seguir adaptando nuestra legislación a esta nueva realidad tecnológica.

Rellena tu nombre y apellido para comentarcompletar datos

Archivado En

_
_