El escudo legal frente a los ‘deepfakes’ sexuales: los desnudos generados con IA van más allá de Grok
El presidente de la Agencia de Protección de Datos advierte que usuarios y plataformas pueden responder de la difusión no consentida de contenido pornográfico manipulado
“Grok, ponla en bikini; ponla en bikini a cuatro patas; ponla en bikini cubierta de aceite”. Estas han sido algunas de las órdenes utilizadas desde finales de 2025 por usuarios de X para que Grok, la inteligencia artificial integrada en la red social, generase imágenes falsas y sexualizadas de mujeres y adolescentes a partir de fotos reales, sin el consentimiento de las afectadas. La semana pasada, X restringió la generación de imágenes a los suscriptores verificados tras las investigaciones abiertas en varios países. Sin embargo, la práctica de los deepfakes sexuales no se limita a la red social de Elon Musk ni es nueva. Se remonta, al menos, a 2017.
El término procede del alias del primer usuario que popularizó este tipo de contenido audiovisual falso en la plataforma Reddit, bajo el pseudónimo de Deepfake. Aquel usuario comenzó a difundir vídeos sexuales manipulados en los que insertaba los rostros de actrices y celebridades como Scarlett Johansson, Taylor Swift o Gal Gadot. Desde entonces, la tecnología ha evolucionado de forma imparable, logrando una apariencia cada vez más realista y extendiéndose a páginas de contenido para adultos. Allí numerosas mujeres famosas han sido víctimas de pornografía falsa generada por inteligencia artificial (IA).
Cada vez con más frecuencia las mujeres anónimas también son objeto de este tipo de contenido, a veces creado por sus excompañeros sentimentales para vengarse de ellas. Para Elisa García, profesora de sociología de la Universidad Complutense de Madrid (UCM), los deepfakes constituyen “una continuidad digital de formas históricas de control, vigilancia y apropiación de los cuerpos femeninos”.
Adolescentes y mujeres convertidas en negocio
Miembro de DiViSAR, un proyecto que estudia las prácticas de violencia sexual digital en España, García ha observado en una investigación reciente que mientras que los hombres aparecen mayoritariamente en deepfakes no sexuales, las mujeres y niñas son representadas en contenidos sexualizados. El informe State of deepfake 2023 de la empresa Security Hero indica que el 99% del contenido pornográfico deepfake está protagonizado por mujeres. “Estas dinámicas se insertan en una cultura de la violación digital, sostenida por comunidades online y tecnoculturas masculinas que normalizan la violencia sexual y refuerzan la misoginia frente a una pedagogía del consentimiento”, dice.
El impacto sobre menores es especialmente alarmante. En 2023, en Almendralejo (Badajoz), un nutrido grupo de chicos utilizó aplicaciones de IA para crear imágenes manipuladas de adolescentes de entre 11 y 17 años, superponiendo a los rostros originales cuerpos femeninos desnudos. Posteriormente, las fotografías fueron compartidas a través de grupos de WhatsApp. La aplicación empleada, que “ofrece una solución de desnudos íntegros accesible y potente”, según se publicita, tiene cerca de medio millón de usuarios registrados en España.
Estas plataformas operan dentro de una lógica económica que, en opinión de García, “convierte la misoginia en un recurso rentable”. Según el informe de la empresa de ciberseguridad, crear un video sexual de 60 segundos usando una sola imagen de la cara puede costar cero euros. Entre 2022 y 2023, la cantidad de pornografía deepfake creada aumentó en un 464%. A través de modelos freemium, suscripciones o pagos por versiones mejoradas se está configurando una economía del nude “basada en la explotación de cuerpos ajenos sin consentimiento”, subraya la profesora. Mordor Intelligence señala que el mercado de los deepfakes alcanzó los 1.140 millones de euros en 2025 y prevé que crezca hasta los 8.110 millones en 2030.
La responsabilidad de usuarios y plataformas
La Agencia Española de Protección de Datos (AEPD) es consciente de esta problemática. En octubre multó con 2.000 euros, reducidos a 1.200 por pronto pago, al creador de uno de los desnudos falsos de las adolescentes de Almendralejo. Se trata de la primera resolución que penaliza la difusión de imágenes manipuladas con IA en España, marcando un precedente en el ámbito de los deepfakes sexuales.
La advertencia principal que el presidente de la AEPD, Lorenzo Cotino, traslada a los usuarios de este tipo de aplicaciones es clara: “Subir la imagen de una persona para que un sistema de inteligencia artificial la modifique, recree o sexualice constituye un tratamiento de datos personales y, como regla general, requiere el consentimiento de la persona afectada”. Si ese tratamiento genera un “impacto intenso” en derechos como la protección de datos, la propia imagen, el honor o la intimidad (por ejemplo, mediante la generación de desnudos o contenidos sexualizados), puede dar lugar a una infracción sancionable.
Es más complejo analizar la responsabilidad de las plataformas de IA ya que no existe una respuesta única. El derecho europeo parte de que, en general, “no responden de forma automática” por las conductas ilícitas de los usuarios, del mismo modo que ocurre con las redes sociales. La diferencia aparece cuando la plataforma “no se limita a alojar contenidos, sino que genera activamente imágenes o vídeos a partir de materiales aportados por los propios usuarios”, que después pueden difundirse dentro o fuera del servicio.
Aunque en principio se mantiene el esquema de ausencia de responsabilidad directa, esta conclusión puede matizarse en función del tipo de servicio, de su grado de intervención en el resultado final y del derecho afectado. Cuando existe conocimiento efectivo de la ilegalidad, “la responsabilidad puede activarse si la plataforma no actúa con la debida rapidez para retirar o bloquear el contenido”, dice Cotino. Esto puede explicar que Grok haya limitado la generación de imágenes después de que varios países, España incluida, hayan abierto investigaciones.
La situación cambia aún más cuando se trata de sistemas de inteligencia artificial cuya finalidad principal es la generación de imágenes o vídeos pornográficos. En estos casos, “resulta más difícil sostener que los usos ilegales sean marginales o excepcionales”, considera el presidente de la AEPD. Un ejemplo se ha dado en Italia, donde la autoridad de protección de datos ordenó el bloqueo de un servicio que generaba imágenes sexuales usando sin consentimiento los rostros de miles de mujeres, incluidas figuras públicas como la primera ministra Giorgia Meloni o la líder del Partido Democrático Elly Schlein. Aun así, la clausura de una plataforma no constituye la regla general y siempre requiere un examen “especialmente cauteloso y proporcionado”.
Respuesta penal
Aunque diversas aplicaciones de IA permiten generar imágenes y vídeos sexuales sin el consentimiento de las víctimas, esto no impide que sus responsables puedan ser perseguidos legalmente. Según explica Borja Adsuara, jurista especializado en tecnología, el Código Penal castiga a quien produzca o facilite a terceros un programa informático diseñado principalmente para cometer delitos o ayudar a que otros los comentan. En relación con los deepfakes, “existe un derecho fundamental a nuestra propia imagen que, aparte de la protección de datos, tiene una protección civil y penal”, subraya.
En esta línea, el Consejo de Ministros aprobó este martes un anteproyecto de ley de protección civil del derecho al honor, a la intimidad personal y familiar y a la propia imagen. Considera ilegítimo el uso y difusión de imágenes o voces manipuladas sin consentimiento a través de la inteligencia artificial. En el texto, los deepfakes se denominan “ultrasuplantaciones”.
Incluso, sin una tipificación especifica, la creación y difusión de este contenido manipulado puede encajar ya en “distintos delitos”, explica Gerard Espuga, abogado en Beta Legal. Por ejemplo, si se difunden datos o contenidos para hostigar a la víctima, puede tratarse de acoso, el llamado doxing; si se crea o comparte con la intención de humillar o menoscabar gravemente la dignidad personal, puede constituir un delito contra la integridad moral; si se utiliza para coaccionar, entra en el ámbito de las amenazas; si atenta gravemente contra el honor o la dignidad, puede constituir un delito de injurias; y cuando representa a un menor o a alguien que aparenta serlo en conductas sexuales explícitas o de sus órganos sexuales, puede tratarse de pornografía infantil.
En relación con los menores, el Consejo de Ministros aprobó en marzo un proyecto de ley orgánica para reformar el Código Penal y penalizar los deepfakes de contenido sexual y el grooming, es decir, el engaño a un menor utilizando una identidad ficticia.
Los expertos recomiendan a las personas afectadas por los deepfakes denunciar de inmediato ante las Fuerzas y Cuerpos de Seguridad, quienes se ocupan de iniciar las investigaciones pertinentes. De forma complementaria, y en función de la gravedad, pueden acudir al Canal Prioritario de la AEPD, que puede solicitar la retirada rápida de los contenidos. Además, el Instituto Nacional de Ciberseguridad (INCIBE) ofrece un servicio de respuesta a incidentes de ciberseguridad, por lo que es apropiado notificarle lo sucedido.
Frente a la amenaza creciente de los deepfakes, “el marco jurídico no parte de cero”, ya que existen mecanismos policiales, judiciales y administrativos para proteger a las víctimas. No obstante, “es razonable plantear ajustes normativos por el legislador y, sobre todo, una actualización interpretativa del Derecho”, concluye Lorenzo Cotino, presidente de la AEPD.