_
_
_
_
El Foco
Opinión
Texto en el que el autor aboga por ideas y saca conclusiones basadas en su interpretación de hechos y datos

La mala innovación

Las advertencias pidiendo frenar el avance de la inteligencia artificial (IA) están avivando el debate sobre los límites en el progreso tecnológico

Una captura de la aplicación de inteligencia artificial Chat GPT
Una captura de la aplicación de inteligencia artificial Chat GPTFlorence LO (REUTERS)

La cuestión sobre el control de la inteligencia artificial ha saltado a la esfera pública. La carta firmada por más de 1.000 personalidades expertas en inteligencia artificial (IA) que advierte de la necesidad de frenar, al menos seis meses, el desarrollo avanzado de la IA generativa está abriendo un extenso debate sobre el control de este tipo de tecnología y sobre la gobernanza de las empresas que la desarrollan. La carta coincidió con otras noticias relacionadas con el avance de la IA. La dimisión de varios miembros del Consejo Asesor de Inteligencia Artificial por motivos éticos, debido al convenio de colaboración científica firmado entre España y Emiratos Árabes Unidos, renueva la discusión acerca de los principios éticos que deben guiar el progreso de la IA. Al mismo tiempo, la Europol (la agencia de la Unión Europea para la cooperación policial) publicaba un informe analizando los riesgos que la IA generativa, como ChatGPT, plantea para la seguridad. Y más allá de los riesgos para la seguridad o el componente ético, también en el mismo mes diferentes medios publicaban sobre el enorme consumo de energía que se estima necesaria para el desarrollo de esta tecnología. Todas estas noticias aparecidas en un estrecho margen de tiempo suscitan varias preguntas. ¿Qué sabemos sobre los posibles efectos del desarrollo de la IA? O, mejor dicho, ¿por qué sabemos tan poco? ¿Por qué es importante fijarse, como apunta Javier Salas, en la concentración empresarial en el desarrollo e investigación en este campo?

Para responder a la primera pregunta es sugerente fijarse en un campo poco investigado en los estudios de ciencia e innovación. Se trata de la innovación oscura o dark innovation, tal y como se ha extendido en el ámbito académico, y que parte de la siguiente premisa: la investigación científica ha tendido a centrarse en el lado positivo del progreso tecnológico dejando un vacío de conocimiento sobre las consecuencias negativas que este puede tener. La hipótesis de partida es que la innovación necesita ser conducida y testada porque, incluso sin intención, puede llevar la marca del lado oscuro.

La investigación en las consecuencias negativas de la innovación es muy escasa. Por poner un ejemplo, en un área clave, como son los estudios medioambientales, la mayoría de la investigación en innovación se centra en proyectos de sostenibilidad o de innovación verde, mientras la investigación de los efectos nocivos del uso de pesticidas o de químicos usados en la industria cosmética o alimentaria es minoritaria. La investigadora Elisa Giuliani, del Responsible Management Research Center (Remarc), ha mostrado a través de Scopus cómo en los últimos años las investigaciones en innovación verde superan actualmente los 5.000 documentos anuales mientras que las investigaciones en innovación dañina no alcanzan los 10 el pasado año.

Esta falta de conocimiento impide que las Administraciones puedan regular para evitar los efectos indeseados de un avance tecnológico. En el caso de la inteligencia artificial parece que se está tomando conciencia de que vamos a tientas. Gary Marcus, reconocido experto en IA, dice que en estos momentos no le preocupa el riesgo de una super inteligencia artificial sin control, sino el de una IA mediocre que no es confiable y cuyo uso se extiende globalmente. Habla de una tormenta perfecta: irresponsabilidad de las empresas que desarrollan las IA, la adopción masiva por parte de la ciudadanía, la falta de regulación y un número demasiado grande de incertidumbres.

Abordando la segunda cuestión sobre tecnología y poder, hay personas expertas que opinan (como Shoshana Zuboff, Carissa Veliz o Marta Peirano) que en los últimos 15 años las grandes compañías tecnológicas se han constituido de hecho en un oligopolio, incrementando sus beneficios y su influencia hasta el punto que han podido mantener casi opaco el proceso de desarrollo de la IA. Este es, quizá, el punto más importante que conecta la falta de conocimiento sobre los posibles efectos negativos de la innovación concreta con la concentración de poder en su desarrollo: la falta de transparencia.

En el informe técnico del nuevo GPT-4 de OpenAI se da poca información sobre el modelo. No hay detalles de su arquitectura, el hardware, el método de entrenamiento de la IA o los datos que han utilizado para su construcción. Esta falta de transparencia es, según Nature, motivo de preocupación. La investigadora Kate Crawford profundizaba sobre el informe de GPT-4, expresando que la información sobre el modelo es necesaria para la investigación de sus posibles efectos y que “la ciencia se fundamenta en la transparencia”.

Esta falta de transparencia en el avance de la IA tiene relación con el dominio del sector privado en su investigación y posterior desarrollo. Christopher Hobson nos ayuda a comprender hasta qué punto esto es así: en los últimos años los equipos de investigación en IA provienen principalmente del sector privado y, además, la proporción de oferta pública en la inversión de IA es cada vez menor ante el rápido crecimiento de la inversión privada.

En este sentido es interesante que la CNMV haya incluido como línea estratégica para 2023-2024 monitorizar los efectos de la innovación financiera y tecnológica y proteger a los pequeños inversores ante las posibles consecuencias de su avance.

La falta de conocimiento sobre los efectos negativos de la innovación y la falta de transparencia de las empresas que la llevan a cabo obligan a las Administraciones públicas a tomar la iniciativa. La política debe entrar para garantizar que haya un conocimiento público suficiente ante los riesgos que estas tecnologías presentan y para proteger el mercado de un oligopolio tecnológico cada día con mayor poder. La innovación tiene una direccionalidad, no es neutra. Es parte de la responsabilidad pública dotarla de sentido y garantizar la seguridad en su uso. La propuesta de Giorgos Kallis en su libro Límites. Ecología y libertad, sobre diseñar “instituciones que limiten las direcciones que toma el conocimiento sin limitar el conocimiento mismo”, puede ser sugerente en este sentido.

Eduard Güell es investigador doctoral en política científica en Ingenio (CSIC-UPV) y en la UOC. Colaborador de Agenda Pública

Sigue toda la información de Cinco Días en Facebook, Twitter y Linkedin, o en nuestra newsletter Agenda de Cinco Días

Más información

Archivado En

_
_