_
_
_
_

Las tecnológicas se arman para evitar los abusos de la inteligencia artificial

El caso denunciado en Almendralejo alerta de las aplicaciones que crean con IA generativa imágenes con fines delictivos. Google, Microsoft y otras empresas buscan soluciones para minimizar los riesgos de esta tecnología

Marimar Jiménez
ChatGPT
Los logos de ChatGPT, de OpenAi, y Bard, de Google en pantallas de móviles.NurPhoto (NurPhoto / Getty Images)

El grave caso denunciado en Almendralejo (Badajoz) por la difusión de imágenes de menores desnudas realizadas con inteligencia artificial ha desatado las alarmas ante los riesgos emergentes del uso de la IA generativa. En los últimos meses, y tras el éxito alcanzado por herramientas como ChatGTP, no paran de proliferar aplicaciones de IA que permiten crear imágenes pornográficas hiperrealistas, vídeos y fotos que buscan ir contra el honor, la intimidad y la imagen de una persona, fabricar pruebas falsas para un juicio o generar contenidos para llevar a cabo diferentes estafas. Y atajar este serio problema no resultará fácil.

“Ni la tecnología, ni estas aplicaciones se pueden prohibir, porque no solo se utilizan para usos ilegales. Igual que existe el sexting, donde hay personas que se mandan fotos de desnudos y no hay ningún problema porque es algo consentido entre ellas, también podrían decidir enviarse fotos suyas, pero creadas con IA. Por tanto, no es una cuestión de tecnología, sino de consentimiento, y de si se hace un uso legal o ilegal de la IA generativa”, explica Borja Adsuara, abogado especializado en derecho digital, privacidad y protección de datos.

Este experto aclara que hay muchas aplicaciones de IA que permiten hacer desnudos, pero también borrar a una persona de una foto o hacer otros retoques fotográficos, cosas absolutamente legales. E insiste en que si se prohíben estas herramientas, también habría que prohibir el Photoshop, pues “todo lo que se hace ahora con la IA generativa se hacía en los 90 con Photoshop. Lo que cambia es que ahora está al alcance de cualquiera; ya no es preciso saber manejar un programa (basta subir una foto), y encima, el resultado es mucho mejor que hace 20 años”.

Adsuara recuerda que este debate sobre si se puede prohibir una tecnología o unas aplicaciones ya se planteó en los 90 con la piratería intelectual, con las redes P2P. “Se intentó, pero los tribunales dijeron que no, porque esa tecnología también servía para el intercambio de archivos legales entre particulares”.

La pregunta que muchos se hacen ahora es si las grandes tecnológicas de la IA, como Google, Microsoft o OpenAI, tienen algún tipo de responsabilidad en casos como el de Almendralejo. Josep Curto, director del master de Inteligencia Artificial de la UOC, aclara que cuando la EU AI Act (la futura regulación europea de IA) esté vigente, estas empresas tendrán muchas responsabilidades “sobre todo para aquellos sistemas de IA de alto riesgo y para la categoría especial de IA generativa”.

Requisitos

Curto explica que, según esta ley, toda IA generativa tendría que cumplir con requisitos de transparencia: revelar que el contenido fue generado por IA, diseñar el modelo para evitar que genere contenidos ilegales y publicar resúmenes de datos protegidos por derechos de autor utilizados para la capacitación. Por ello, dice, tendrán que trabajar de forma activa para minimizar el riesgo de que sus tecnologías se utilicen para fines inapropiados o dañinos.

“Esto pasa por varios factores, como que deberán considerar la ética desde el inicio del proceso de desarrollo de sus herramientas de IA y establecer mecanismos de monitoreo y cumplimiento para identificar y abordar el uso inadecuado de sus herramientas de IA”. Algo que podría incluir la revisión de denuncias de mal uso y la cooperación con las autoridades pertinentes en investigaciones relacionadas con actividades ilegales.

También Adsuara habla del reglamento de la UE de lucha contra el contenido de abuso sexual infantil (CSAM), que se está tramitando ahora en el Parlamento europeo y que impone evaluaciones de riesgos y medidas de mitigación, de detección y de retirada de este tipo de contenidos a buscadores y plataformas.

Curto dice que la sensación que se tiene hoy es que el foco de las empresas (y desarrolladores) de IA ha sido el de demostrar la capacidad de construir y mejorar estos sistemas (buscando su viabilidad, escalabilidad, usabilidad...combinado con el hecho de cómo monetizarlos) y no tanto en el desarrollo y diseño ético.

“No quiero decir que adoptando prácticas de diseño ético se eviten todos los problemas, pero se minimizaría el impacto negativo en la sociedad”, sigue este experto, que advierte que en los últimos tiempos no solo han proliferado sistemas de IA generativa en la nube (“donde el proveedor puede tomar más cartas en el asunto”), sino que muchos de estos modelos son en abierto, instalables y tuneables en un ordenador propio, “y nos encontramos en el día después donde es necesario adoptar medidas de mitigación y colaborar con entidades para detectar estos casos lo antes posible y desactivarlos, pues son muy negativos para la sociedad”.

Empresas como Microsoft y Google ya han empezado a adoptar medidas para evitar la proliferación de malas prácticas fundamentadas en sus IA generativas, que amenazan con provocar un impacto social de alto calado y por muchas generaciones. Curto asegura que hay diferentes acciones que se pueden hacer para mitigar estos problemas, “porque atajarlos, no es posible, pues con los conocimientos adecuados las mitigaciones pueden ser evitadas”. Entre ellas cita cuatro. La primera, usar conjuntos de datos de entrenamiento sin este tipo de imágenes violentas, racistas o sexualizadas (como el caso de Almendralejo), pero aclara que “esto sirve si el fabricante tiene todo el control, si el usuario puede reentrenar sobre su conjunto de datos e incluye estas imágenes es una medida paliativa menor”.

Las otras tres serían modificar los modelos para evitar que tengan este tipo de casos de uso delictivos, introducir sesgos en el modelo para forzarle a no dar las respuestas correctas en este tipo de casos de uso, y utilizar marcas de agua. Aunque advierte que, en modelos de código abierto, si no está embebida dentro de la red neuronal, “esta medida no sirve para nada, puesto que puede ser borrada”.

Marcas de agua

Los dos gigantes tecnológicos citados, Google y Microsoft, anunciaron en agosto y ayer, respectivamente, herramientas para agregar marcas de agua digitales invisibles a las imágenes generadas por sus IA. Estas marcas, imperceptibles para el ojo humano, son detectables para su identificación. El anuncio, dicen, forma parte de su compromiso para crear IA generativa responsable. El buscador está construyendo también herramientas para poder evaluar contenidos que se produzcan con su IA generativa y combatir la desinformación. Una de ellas es ‘Acerca de esta imagen’, que ayuda a obtener más contexto sobre la misma.

Microsoft, por su parte, cuenta con una plataforma de moderación de contenidos, Azure AI Content Safety, que utiliza potentes modelos de IA para detectar contenido violento, sexual y de autolesión y asignarle una puntuación de gravedad para priorizar el contenido que revisan los moderadores. Esta solución, según explica, se puede personalizar para ayudar a las empresas a aplicar sus políticas. Además, ha anunciado un compromiso ante sus clientes en torno a la IA y la propiedad intelectual, de manera que si estos utilizan las salvaguardas y filtros de contenido que Microsoft ha incorporado a sus productos, asumirá la responsabilidad por posibles riesgos legales asociados si un cliente recibe una reclamación por motivos de propiedad intelectual.

Midjourney, otra herramienta de IA generativa, ha bloqueado palabras clave, y Stable Diffusion, un modelo de aprendizaje automático desarrollado por Runway y LMU Múnich para generar imágenes digitales, ha incluido un filtro de seguridad.

Adsuara recuerda que las grandes tecnológicas tienen la responsabilidad de vigilar las apps que tienen en sus tiendas de aplicaciones, algo que viene recogido en la nueva Ley de Mercados Digitales europea (DMA). “Pero salvo que se publiciten directamente para realizar una actividad ilegal es difícil que se pueda exigir su retirada de las plataformas. Hace dos años ya apareció la aplicación ‘Desnuda a tus amigas’ y se coló en las tiendas de Apple y Google. Las echaron de ahí, pero se fueron a un canal de Telegram”, se lamenta este abogado, que dice que el problema no es la IA generativa, “ya que la mayoría de los usos de esta tecnología son inocuos”, sino la IA degenerativa, porque al final lo que es denunciable es la “IA generativa utilizada por degenerados”.

Cientos de consejeros delegados y científicos de empresas como OpenAI, DeepMind (de Google), X (antes Twitter) y Microsoft, han alzado la voz pidiendo que se regule la inteligencia artificial, y los legisladores preparan regulaciones en EE UU, Europa y China para establecer salvaguardias contra los usos ilegales de la IA generativa. Mientras, las herramientas de IA generativa siguen proliferando. Las más conocidas son ChatGPT o Bard, pero hay otras muchas como Midjourney, Poe, QuillBot, Character.AI... La mayoría no existían hace un año. Más de 500 startups están trabajando en IA generativa, según Vincent Terrasi, cofundador de Draft & Goal.


Sigue toda la información de Cinco Días en Facebook, X y Linkedin, o en nuestra newsletter Agenda de Cinco Días

Newsletters

Inscríbete para recibir la información económica exclusiva y las noticias financieras más relevantes para ti
¡Apúntate!

Regístrate gratis para seguir leyendo en Cinco Días

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte

Gracias por leer Cinco Días

_

Sobre la firma

Marimar Jiménez
Redactora senior en la sección de Empresas de CINCODIAS. Sigue la actualidad del sector de tecnologías de la información y del ecosistema emprendedor español. Antes de incorporse al diario en 2000 trabajó en Actualidad Económica y los suplementos Futuro y Negocio en EL PAIS. Es licenciada en Periodismo por la Universidad Complutense de Madrid.

Más información

Archivado En

_
_