_
_
_
_
El Foco
Opinión
Texto en el que el autor aboga por ideas y saca conclusiones basadas en su interpretación de hechos y datos

Inteligencia artificial: ni siquiera la ley puede ponerle puertas al campo

La legislación busca limitar el mal uso de la tecnología, pero siempre irá por detrás de su desarrollo, por eso hay que aprender a autorregularse

ChatGPT
FILE PHOTO: ChatGPT logo is seen in this illustration taken September 28, 2023. REUTERS/Dado Ruvic/Illustration/File PhotoDADO RUVIC (REUTERS)

Ya estaba prácticamente acabada la legislación sobre la inteligencia artificial hacia finales del 2022 cuando, de repente, aparece en escena ChatGPT, una IA generativa a la que se le arrogan grandísimas posibilidades, pero a la que también se teme. Esta nueva tecnología es vista como algo mágico, como ocurre con cualquier evolución tecnológica si es realmente disruptiva, y eso nos fascina. La inteligencia artificial cuenta con ese potencial mágico y ese peligro, igual que ocurre por ejemplo con la energía nuclear; y obviamente nos parece preciso, urgente e importante gobernarlo para asegurar su correcta utilización. De ese modo, el legislador se pone manos a la obra y adapta la regulación que ya tenía casi preparada para que acoja los nuevos paradigmas de la IA generativa.

Lo cierto es que la industria lleva más de 20 años utilizando la IA de forma masiva para multitud de usos: saber si nos conceden un crédito, el precio de nuestra póliza de seguros, ayudar al oncólogo a averiguar si padecemos un cáncer o al juez a dictar mejores sentencias. Y en nuestra vida privada la IA ha ganado concursos de televisión, ha vencido a los más famosos jugadores de ajedrez, nos ayuda a no quedarnos dormidos al volante, nos pone la música que nos gusta y ajusta nuestras fotos para que se nos vea mejor. Entonces, ¿qué ha pasado para necesitar regularla ahora? ¿Por qué ahora? ¿A qué se debe tanta prisa?

Hasta ahora la IA hacía tareas sencillas muy concretas, y de pronto es capaz de realizar muchísimas cosas en un amplio espectro de disciplinas, desde rapear hasta cocinar, hacer chistes o películas y canciones; y esto nos parece mágico, sin embargo, no lo es. En realidad, todavía no hemos llegado al paradigma de una IA general que sepa hacer de todo como un humano al estilo HAL9000 en la película 2001: Odisea del espacio o R2D2 en La guerra de las galaxias; una IA que pueda ser buena o mala, que tenga sentimientos y consciencia. Lo que tenemos frente a nosotros es la inteligencia artificial generativa; un gran avance con respecto a las inteligencias artificiales anteriores, pero todavía a gran distancia de una IA general que realmente suponga una amenaza que nos deba preocupar. Nadie hoy día es capaz de predecir cuánto tardaremos en llegar a ese paradigma. Pueden ser cinco meses, cinco años o 50 años. La principal razón de querer crear urgentemente una regulación es que el uso de la IA se ha democratizado. Ahora cualquier persona, con o sin conocimientos tecnológicos, puede usarla, y cualquier empresa puede utilizarla bien, mal o muy mal. Es como repartir armas entre toda la población, sin filtro.

La nueva regulación busca fomentar un uso razonable de esta tecnología con la implementación de soluciones justas, que eviten la discriminación; también evitar que estas soluciones sean manipulables por atacantes y puedan generar problemas de ciberseguridad o de integridad de las personas. La regulación deberá exigir transparencia, de manera que todo ciudadano pueda saber el uso de IA que realicen las empresas o las administraciones con las que interactúa. Y también deberá imponer que las decisiones tomadas con base a información obtenida con IA se expliquen convenientemente a los afectados. Pero sobre todo deberá ser una regulación robusta que impida “dejar todo en manos de la IA”, para que en caso de que no funcione podamos seguir recibiendo los mismos servicios a través de un plan B sostenido por humanos.

La regulación, en definitiva, lo que hará es intentar controlar un posible aumento de la mala utilización de esta tecnología, pero nunca podrá poner puertas al campo. Queramos o no, la tecnología avanzará, mutará y se transformará en una infinidad de nuevas aplicaciones y soluciones que aparecerán en tiempo récord y a las cuales el regulador tendrá dificultad para legislar en tiempo y forma. Por eso, debemos estar preparados para autorregularnos, usarla de manera apropiada, conocer sus riesgos, pero sin tenerle miedo, creando un espíritu crítico que, como sociedad y empresas, nos permita sortear los problemas que puedan surgir en el camino.

Del mismo modo que estamos comenzando a hacernos conscientes de los riesgos de exponer a los niños a tecnologías que dañan su aprendizaje, o igual que nos protegemos en nuestra vida diaria de los peligros del mundo, debemos fomentar un juicio digital como sociedad. Educación, conocimiento y juicio van de la mano, y es por ahí por donde debemos empezar.

Martín Piqueras es profesor de OBS Business School y experto en estrategia digital en Gartner

Sigue toda la información de Cinco Días en Facebook, X y Linkedin, o en nuestra newsletter Agenda de Cinco Días

Más información

Archivado En

_
_