Inteligencia artificial : un 'déjà vu' para las empresas
Será capaz de identificar riesgos, diseñar medidas de prevención más efectivas, pudiendo predecir posibles delitos en las compañías
Todavía recuerdo, casi con vergüenza (por lo que suponía en aquel momento) y con asombro (por lo que supone ahora) el efecto 2000.
Para los no tan “arcaicos”, y en palabras de Wikipedia, así se denominó a “un error de software causado por la costumbre que habían adoptado los programadores de omitir la centuria en el año para el almacenamiento de fechas (generalmente para economizar memoria), asumiendo que el software solo funcionaría durante los años cuyos números comenzaran desde 1900 a 1999”.
Aquello iba a ser el fin del mundo hasta el momento conocido.
Pues bien, me recorre el mismo pensamiento ahora, cuando leo y oigo hablar del impacto tan desmesurado que la Inteligencia artificial (IA) tendrá sobre la vida inteligente que hasta ahora conocemos.
Es verdad que desde aquel efecto 2000 hasta nuestros días, tan solo distan 24 años, si, tan solo. Sin embargo, estamos asistiendo a un cambio radical del paradigma que nos toca vivir (en lo profesional) como lo pudo hacer la imprenta, la máquina de vapor o las sucesivas revoluciones industriales o tecnológicas, que es lo que hoy en día, cambia las cosas.
Pero, nada más lejos de la realidad, todas esas premoniciones agoreras que acabarían con todo lo bueno conocido, nunca se cumplieron, y sin embargo el desarrollo de las personas y profesiones ha sido (casi) el esperado. Como cualquier otra cosa en la vida, las profesiones nacen, se desarrollan y mueren.
El impacto real de la IA, hasta lo que hoy en día conocemos en nuestros quehaceres profesionales, no son si no buenas noticias. Amplían con certeza los campos profesionales, destruyen y remodelan las actividades que pudieran ser “no productivas” y, además, permiten a las personas y profesionales, desarrollarse en otras materias, que o bien no podían, o bien no sabían que podían.
La inteligencia artificial ha conseguido convertirse en campos profesionales como el del compliance o la Sanidad (sectores muy dispares), en la bola de cristal. La IA de Google es capaz de ayudar a predecir a través del estudio del ojo determinadas enfermedades. La IA aplicada a sistemas de cumplimiento normativo, a través del machine-learning y su aproximación “ruled-based”, será capaz de identificar riesgos, diseñar medidas de prevención y detección más efectivas, pudiendo predecir (con todas las salvedades) posibles, delitos en el seno de las compañías. Un Minority Report en toda regla.
La primera normativa pactada sobre IA anunciada en Europa, conocida como IA Act, con lo que se espera será un amplio desarrollo, esta nueva norma pone el foco en aspectos tan sensibles como el uso de sistemas de identificación biométrica, y sus desarrollos para acciones de control gubernamental y que podría menoscabar los derechos de todos ciudadanos.
El pacto para el desarrollo de esta nueva normativa no es sino un indicativo más de la necesidad imperante de formular “un campo de juego viable” en todo lo que respecta a la inteligencia artificial. Signos como la rapidez en sus desarrollos, las implicaciones económico-sociales incluso hasta la posible autonomía de la propia inteligencia artificial, pergeñan de alguna manera, este gran pacto.
La labor que se pretende hacer en cuanto a la clasificación de la IA respecto del riesgo que pudiera representar, es, sin duda, una de las características inspiradoras de esta norma, que quiere buscar y encontrar un equilibrio cuasi-perfecto entre la seguridad en el uso y desarrollo de la inteligencia artificial y los derechos humanos.
Una de las medidas que se quiere, o se debe impulsar en este sentido, es el conocimiento común de los desarrollos de IA.
El trinomio inteligencia artificial – vigilancia – derechos humanos es el eje vertebrador principal de la nueva norma, que a todas luces pretende consensuar en otro gran pacto global, un control férreo pero productivo de los desarrollos y aplicaciones de la IA.
Y por supuesto, en la picota la IA generativa (ChatGPT), donde los límites vendrán impuestos por la obligación de la transparencia. El reglamento no prohíbe su uso, pero sí ha establecido una serie de criterios para detectar los modelos que pueden generar un alto riesgo en función del contexto en el que se usen y obliga a sus desarrolladores a cumplir unas salvaguardas más estrictas antes de sacarlos al mercado.
Sólo debemos exigir que, inteligencia artificial y marcos regulatorios vayan de la mano, de este modo, las empresas que lideran podrán reducir costes y aumentar su eficiencia y, al mismo tiempo, ser capaces de cumplir con sus obligaciones de proteger la privacidad y transparencia que se les puede exigir.
Para finalizar, quiero recordar que para que, al menos hoy en día, la IA tenga éxito, necesita del expertise de un humano.
Sergio Carpio Mateos, abogado y socio del área legal compliance officer de ETL Global.