Cautela con las capacidades de ChatGPT
No todo es negativo en la era de la IA, pero al difuminarse las fronteras entre lo verídico y lo interesado hay que ser prudentes
Hace unos días Bill Gates afirmaba que ya estamos metidos de lleno en la era de la inteligencia artificial y abundan las noticias acerca de los avances y beneficios de herramientas como ChatGPT. En febrero de este año, ChatGPT se convertía en la red con mayor crecimiento de usuarios activos de la historia alcanzando los 100 millones de usuarios mensuales activos y superando a TikTok. Todos en algún momento hemos entrado en la nueva y saturada red para hacer alguna pregunta esperando una respuesta. También hemos leído artículos que vaticinaban el fin de Google ante la amenaza imparable de ChatGPT.
Es cierto que recientemente ha habido una explosión del uso y que cada vez más son las empresas que incorporan en sus servicios algún tipo de IA. Este súbito aumento ha venido aparejado con una confusión generalizada de conceptos aparentemente intercambiables que hacen más vendible cualquier servicio que los lleve incorporados en su propuesta comercial. Ahora y sin saber porqué es más atractivo un proyecto de tecnología descrito junto a: machine learning o NLP (natural language processing). En esta marabunta de ruido de desconocido alcance se puede atisbar un caldo perfecto para el abuso o para los mejores avances nunca experimentados.
Este caos nos debería llevar a ser más críticos y dudar de ciertas propuestas. Observamos que ChatGPT continúa en fase beta donde ciertas respuestas no son del todo correctas, en ocasiones tóxicas y que si no se procede a una verificación posterior corremos el riesgo de seguir generando contenido que no aporta valor.
Para entender dónde está toda la magia, deberíamos conocer, aunque sea de manera superficial, como funcionan estos chatbots. Dentro de los grandes modelos lingüísticos entre los que se encuentran: OpenAI, Google AI o Meta AI, uno de los pilares fundamentales de su entrenamiento es el Reinforcement Learning Human Feedback (RLHF, o en español: aprendizaje por refuerzo de la retroalimentación humana). Con el RLHF se optimizan datos, y por ende las respuestas que arroja, basándose en su propia experiencia con las interacciones de los usuarios y mediante un sistema de recompensas va reforzando ciertas posturas y habrá más probabilidad de reproducirlas en el futuro.
Este sistema, sin conocer cómo funcionan las recompensas, puede ser poco objetivo y no contar con las mejores intenciones. Ya hay estudios que muestran respuestas tóxicas o discriminatorias a ciertos colectivos cuando se le hace pasar al chat por ciertos personajes como: Mohamed Ali o Steve Jobs. En este mismo sentido, pero con un interés comercial, si una empresa dueña del chatbot quiere que sus usuarios reciban respuestas interesadas, lo que tendrá que hacer es afinar el sistema de recompensas a su favor para alinear las respuestas con sus intereses corporativos. En el caso de ChatGPT, los creadores, sin desvelar el modelo de entrenamiento del chat ni el funcionamiento de recompensas, aluden que la herramienta es difícil de controlar y que aprende de los propios sesgos de los usuarios.
Ante la falta de transparencia es mejor siempre contrastar respuestas, pero no porque la inteligencia artificial tenga intención de engañarnos (por sí sola no tiene ninguna intención), sino porque detrás pueden existir intereses comerciales. En el caso específico de OpenAI, dueño de ChatGPT, vemos que a pesar de los esfuerzos iniciales por democratizar IA y fundarse como ONG, solo en 2019 recibió más de 1.000 millones de dólares de financiación por parte de Microsoft para desarrollar la IA en beneficio de la humanidad.
En el otro extremo están los avances de la tecnología que de verdad nos ayudan a progresar y con el potencial de cambiar drásticamente la economía y la sociedad. Es cierto que la utilización supervisada y comedida de la IA puede darnos muchas ventajas en muchos campos, pero sobre todo donde la innovación ha seguido un camino más conservador.
En el mundo de las ciudades inteligentes y la movilidad hay muchos ejemplos de tecnologías que introducen la IA para mejorar la calidad de vida de los ciudadanos sin entrar en conflicto con la ética o con intereses comerciales. Hoy en día existen automatismos y palancas posibles gracias a la IA como: la visión computerizada en los vehículos que reduce significativamente el nivel de siniestralidad en carretera o la utilización de los datos para activar mecanismos de actuación inmediata o preventiva ante información en tiempo real de: sensores, aplicaciones móviles y de los vehículos que circulan.
Poder, por ejemplo, reducir las muertes en las carreteras o los efectos de una inundación gracias a ciertos modelos de AI deberían de ser el principal foco de estas innovaciones y sí, aquí, los efectos de su uso superan con creces las potenciales externalidades negativas. Lo malo es que las utilidades comerciales son más limitadas que en otras áreas como: el entretenimiento o la publicidad. De ahí que se hable menos que de los chats conversacionales o de los que crean imágenes ficticias.
No todo es negativo en esta nueva era de IA, pero al difuminarse las fronteras entre lo verídico e interesado, debemos ser cautos. Hay que apostar por tecnologías que aporten valor e intentar evitar aquellos conglomerados de información pseudo-verídica y descafeinada. Las fronteras que nos permitían guiarnos entre tanta información a modo de brújula para nuestra escala de valores ya no están, pero nos queda nuestra capacidad de investigar y nuestra intuición humana. Podemos contribuir a cambiar la historia con avances significativos o conformarnos con ser arrastrados por la corriente de las tendencias.
Todo esto hace que estemos ante una mesa con todos los ingredientes para cambiar la trayectoria de la historia y eso conlleva con una gran responsabilidad en nuestras acciones. Es importante juzgar los resultados que arrojan estas herramientas y que analicemos con ojo crítico aquellas tecnologías que aseguran la utilización de estos avances.
Por eso, si los resultados no son revisados o discutidos y se dan inmediatamente por buenos, nadie saldrá beneficiado. Ahora que entramos en los primeros compases de la masificación de estas herramientas y, como ocurre con cualquier otra tecnología, no todo son beneficios.
Como desconocemos las fuentes de información que utiliza la herramienta, el sistema de recompensas con las interacciones de los usuarios ni cómo se entrena al modelo se han observado en las respuestas sesgos cognitivos propios de los usuarios que utilizan la herramienta y otras con carácter discriminatorio y tóxico hacia ciertos grupos.
Guillermo Campoamor es CEO de Meep
Sigue toda la información de Cinco Días en Facebook, Twitter y Linkedin, o en nuestra newsletter Agenda de Cinco Días