Las empresas aplauden que se regule la inteligencia artificial, pero alertan de su coste

Les preocupa que la estructura para validar si se cumple con la ley se articule correctamente y a tiempo

Sistema de reconocimiento facial.
Sistema de reconocimiento facial.

La Comisión Europea presentó la semana pasada su legislación sobre inteligencia artificial. La propuesta, que aún debe ser debatida y aprobada, es el primer marco legal del mundo que describe cómo las empresas y los gobiernos pueden utilizar esta tecnología, que pasa por ser una de las más transformadoras del mundo. Según las autoridades comunitarias, el nuevo reglamento pretende “garantizar la seguridad” y “fortalecer la inversión en IA en la UE”, pero las reglas que establece -prohíbe algunos usos, fija estrictas obligaciones para otros y marca fuertes multas en caso de infracción- tendrán un enorme impacto.

Y no solo para las empresas de tecnología, incluidas Amazon, Google, Facebook y Microsoft, que han invertido mucho dinero en el desarrollo de inteligencia artificial. También para muchas otras empresas que utilizan la tecnología en atención médica, seguros, finanzas, procesos de contratación, y para los gobiernos que igualmente hacen uso de ella.

Daniel Pope, CEO y fundador de Submer, se muestra “totalmente partidario de regular” la inteligencia artificial porque “permitirá dar garantías de calidad y seguridad a una industria que está creciendo a un ritmo increíble y de la que no vemos aún ni la punta del iceberg. La IA tiene un potencial que ahora mismo no somos capaces de entender, y está claro que los riesgos son muy variados y enormes, así que hay que poner límites y un control proporcional al riesgo que puede conllevar”.

Algunas voces apuntan que la regulación europea a la IA podría sofocar la innovación. Ramon Villot, responsable de Legal de FacePhi, no lo cree así. “Lo que sí será es un reto para las empresas. Quizás no puedan innovar aquellas que quieran desarrollar tecnologías invasivas, pues lo siento, pero yo no quiero estar en ese grupo”, dice mientras aplaude que se establezcan líneas rojas “para evitar usos indebidos de la IA. Concretamente en biometría, que es nuestro sector”.

Algo similar opina Moisés Martínez, responsable de Inteligencia Artificial en Paradigma Digital, del grupo Indra. “Es posible que la regulación pueda limitar la innovación, pero sobre todo lo que logrará es acabar con la innovación de quienes no tienen en cuenta los criterios éticos. Ya hay un montón de aplicaciones que utilizan la IA y que están sesgando a la población por el mero hecho de que el algoritmo no está bien construido”, señala mientras cuenta cómo la IA se está utilizando ya para determinar si una persona es apta o no para un empleo o para que se le conceda un crédito bancario. “Pero se puede llegar a más. En China, por ejemplo, se está utilizando para calificar a las personas según unos estándares definidos por el Gobierno y darles prioridad a la hora de acceder a una serie de servicios. Con esta legislación, vamos a poder evitar que surjan aplicaciones como esta en Europa”, subraya.

No prevén que se limite la innovación, "salvo la no ética", pero sí que haya cierto parón inicial en su actividad por temor a incumplir la ley

Este experto reconoce, sin embargo, que la normativa europea complicará el proceso de desarrollo de las aplicaciones, que “tardarán más tiempo en ponerse en el mercado”, y elevará los costes, “especialmente en el caso de los sistemas que tengan que cumplir un mayor número de requisitos, pues habrá que demostrar que los sistemas desarrollados cumplen las reglas”.

Alberto Moreno, director de Tecnología de Syntonize, confía en que a las empresas se les dé tiempo para adoptar la normativa, igual que ocurrió con el Reglamento General de Protección de Datos (RGPD). En su opinión, la regulación de la IA llevará a muchas empresas a repensar cómo diseñan inteligencia artificial, “y al principio, habrá cierto parón; se entorpecerá un poco el trabajo, pues se generará cierto miedo sobre si se están haciendo bien las cosas”. Las multas que contempla el reglamento de la CE por infringirlo (hasta un 6% de la factura anual de la compañía o 30 millones de euros) son, asegura, “desproporcionadas, y cometer un error puede arruinar el negocio de una pyme”.

Moreno, que al igual que sus colegas aplaude la normativa, coincide también con ellos en que el reglamento elevará los costes de las empresas que desarrollan soluciones de IA. “Al menos en el apartado de asesoramiento, igual que ha ocurrido con el RGPD, porque deberán ser sometidas a auditorías antes de pasarlas a producción”.

“No soy financiero, y claro que habrá que hacer más desembolsos para poner filtros [y como dice Martínez para reforzar equipos internos y contratar servicios externos que permitan verificar que la documentación y pruebas que mandas para demostrar que tu aplicación cumple con los requisitos están perfectamente hechas], pero yo a eso lo llamo inversión, porque cumplir con la ley tendrá un retorno positivo para las empresas”, apunta Villot. “Pero, todo esto, sin duda, dará muchísima más seguridad”, remarca el directivo de Paradigma Digital.

Surgirán nuevos empleos como el de verificador de datos o el experto en buscar sesgos en las inteligencias artificiales

“Lo que se está intentando hacer es que este tipo de aplicaciones sigan una serie de procedimientos como cuando se construye un edificio, que tiene que ser aprobado y tiene que haber un proyecto firmado por un arquitecto. Probablemente llegaremos a algo parecido para que se dé fe o se demuestre que la aplicación de IA cumple con las características que marca la Comisión y esta pueda incluirla en uno de los niveles de riesgo que ha establecido”, continúa Martínez.

Lo que más preocupa a este experto es que toda la estructura necesaria para validar si se cumplen los requisitos se articulará correctamente y en tiempo para que el reglamento no suponga un parón en la actividad de las compañías. “Me preocupa cuánto se va a tardar en dotar, una vez se apruebe la ley, de todas las infraestructuras necesarias para que las empresas nos sintamos cómodas y tengamos la facilidad de poder seguir construyendo nuestros productos digitales basados en IA. Creo que probablemente se necesitarán varios años de trabajo hasta que pueda aplicarse una normativa como la planteada por Europa, pues hará falta establecer los diferentes organismos que comprueben que los datos que se van a utilizar son válidos y las aplicaciones de IA son seguras”, dice.

Los robots ya eligen el candidato adecuado para un puesto de trabajo.
Los robots ya eligen el candidato adecuado para un puesto de trabajo.

Algunos expertos creen que será difícil cumplir con la regulación, pues es difícil lograr una transparencia en los datos. “Efectivamente, falta legislación. No hay normas que nos digan qué prácticas hay que cumplir para asegurar que los datos son correctos, fiables y no existen riesgos. El principal problema que tiene esta normativa es que para poder aplicarse se tendrán que crear otras leyes alrededor que nos permitan asegurar ciertas cosas que exige la propia ley. Por ejemplo, se exige que los algoritmos sean explicables, pero uno de los problemas que tenemos hoy con la IA es que hay muchos algoritmos que, debido a su complejidad, no lo son. Y eso limitará el uso de ciertos algoritmos para ciertas tecnologías”, subraya Martínez.

Villot admite que cumplir con la regulación, que debe llegar “no por imposición sino por consenso y buscando el beneficio del usuario final”, no será fácil. “Nada lo es en este ámbito, pero tenemos mucha tecnología que nos ayuda a ello. Está la anonimización de los datos y la seguridad de los datos y si yo tengo información sensible y tengo la ISO 27001 de seguridad de la información ya es más fácil tener otra puerta más cerrada y estar más cerca del cumplimiento”. Para el directivo de FacePhi “debe haber inquietud y deseo de cumplir, y es evidente que a las empresas que ya están apostando por todo esto, como es nuestro caso, les costará menos cumplir con la nueva normativa cuando esta se apruebe”.

"No hay normas que nos digan qué prácticas hay que cumplir para asegurar que los datos que usamos son correctos y sin riesgos"

Pope, como sus colegas, vería “lógico” que, una vez se apruebe la legislación, se dé un plazo “razonable” para que las empresas se adapten a la nueva normativa. Y no duda que establecer esta normativa dará a Europa una posición de liderazgo. “Ocurrirá como con las criptomonedas, donde también había un boom de adopción antes de que existiese una regulación, pero el hecho de que los países europeos hayan definido una normativa sobre cómo utilizar y operar con criptomonedas no ha limitado su uso. Al contrario, lo ha impulsado”.

Moreno también opina como el resto que las propuestas presentadas por la CE deben concretarse más, por ejemplo, en temas como el reconocimiento facial y la conducción autónoma. “Hay cosas que no están contempladas y otras que se presentan de forma muy vaga y que dejan el tema a la libre interpretación de cada uno”. “Confío en que, como ocurrió con el RGPD, este reglamento hable de cumplimiento y de proactividad, que anime a las empresas a ir incluso más allá de la norma”, señala Villot, que está convencido de que esta normativa no penalizará a las empresas europeas, “porque al final obligará a otros países a ir por la misma senda, algo que ya está ocurriendo con el RGPD”.

Como apuntes positivos, Martínez también añade que surgirán nuevos puestos de trabajo que no existen hoy, como verificador de datos, personas que analizan el perfecto funcionamiento de las inteligencias artificiales o expertos en buscar sesgos en las IA. Y Pope remarca que habrá un beneficio que compense el coste y trabajo adicional de validar los procesos y de comprobar que los desarrollos cumplen la normativa: “Las tecnologías de inteligencia artificial se adoptarán con mucha más seguridad, algo clave si tenemos en cuenta que cada vez más robots y más software toman decisiones por nosotros”.

Adsuara: “La defensa de los derechos humanos da sentido a la innovación”

Borja Adsuara, abogado experto en derecho digital, ve necesario regular algunos aspectos generales de la IA, pero cree que la regulación específica se debe hacer en las leyes sustantivas de cada aplicación o uso de la IA. Asegura que ve bien que el reglamento planteado por la CE se base en el enfoque del riesgo, pero en usos concretos. “No se puede hacer una valoración del riesgo en general. Por eso hay que regular usos concretos”, insiste.

También apunta que algunas obligaciones establecidas por el reglamento presentado son más bien principios generales o conceptos jurídicos indeterminados, “que no quiere decir que sean indeterminales. Habrá que concretarlos en las leyes que regulen usos específicos”.

Preguntado sobre qué pasará con todos los sistemas de IA ya comercializados y utilizados por decenas de miles de empresas, asegura que “nuestro sistema jurídico, incluido el Código Penal, no regula tecnologías, sino resultados. Puede haber regulaciones de algunos aspectos específicos de una tecnología, pero lo importante es prever, vigilar y sancionar malos usos de la tecnología”.

Adsuara también opina sobre si este reglamento ayudará a Europa a posicionarse en el terreno de la IA o, por el contrario, limitará su desarrollo en este campo frente a China o EE UU. “Una de las mejores cosas que sabe hacer Europa, y que es la base del desarrollo de la civilización occidental, es el derecho. A veces es verdad que nos pasamos, pero la defensa de los derechos humanos no es un límite a la innovación, sino lo que le da sentido”, remarca.

Normas
Entra en El País para participar