Inteligencia artificial: por una regulación razonable y un uso responsable
Un exceso de normativa frenaría la capacidad de las empresas europeas para su aplicación, lo cual impactaría al sector TIC y a la competitividad
La inteligencia artificial (IA) no es algo nuevo, lleva desarrollándose varias décadas y en la actualidad está presente en muchos usos que la población pone en práctica a diario, como los asistentes virtuales tipo Alexa o Siri, las recomendaciones que nos hace la plataforma de contenidos en streaming e incluso el famoso algoritmo del buscador de Google. La ingente cantidad de información con la que cuenta y se entrena esta tecnología ofrece ya un salto cualitativo en lo que a la experiencia de usuario se refiere.
...
Regístrate gratis para seguir leyendo en Cinco Días
Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
La inteligencia artificial (IA) no es algo nuevo, lleva desarrollándose varias décadas y en la actualidad está presente en muchos usos que la población pone en práctica a diario, como los asistentes virtuales tipo Alexa o Siri, las recomendaciones que nos hace la plataforma de contenidos en streaming e incluso el famoso algoritmo del buscador de Google. La ingente cantidad de información con la que cuenta y se entrena esta tecnología ofrece ya un salto cualitativo en lo que a la experiencia de usuario se refiere.
La IA es una tecnología en constante evolución, cuyo impacto positivo ha quedado demostrado, que ha experimentado un gran salto a raíz de la reciente irrupción de lo que conocemos como IA generativa, cuyo potencial es sin duda incuestionable y al mismo tiempo inabarcable (al menos por ahora), provocando un nuevo paradigma.
Y es que, a diferencia de la IA tradicional que requiere procesos largos y complejos de entrenamiento de los sistemas cognitivos para aprender de los datos y tomar decisiones basadas en esos ellos, la IA generativa en general y, desde noviembre de 2022, ChatGPT, permite acelerar la adopción en todos los campos, ya que no aprende con los datos obtenidos, sino que es capaz de crear algo nuevo de forma automática en formato texto, imagen, música e incluso código.
Teniendo esto en cuenta, es totalmente lógico que surjan con la misma fuerza preocupaciones legales, éticas y sociales que hagan necesaria su regulación. Estamos, por tanto, ante un nuevo marco de actuación al que la mayor parte de los gobiernos y empresas dirigen ahora su atención.
En este contexto, se sitúa la reciente sesión en el Senado de Estados Unidos a la que asistieron los líderes de las mayores compañías tecnológicas del mundo, como el propio Sam Altman, cofundador de OpenAI y responsable de ChatGPT; y en la que todos estuvieron de acuerdo en regular la IA al ser preguntados. En esa misma línea, trabaja también el Parlamento Europeo con el objetivo de que los sistemas de IA sean seguros, transparentes, trazables y bajo la supervisión de personas físicas para evitar resultados perjudiciales.
A diferencia del software tradicional, que sigue un enfoque determinista en el que la secuencia de instrucciones está escrita y sigue la directriz definida por el programador, los sistemas de IA funcionan basándose en decisiones que el propio sistema toma de manera autónoma. Esto hace, que la aplicación, tanto de IA como de IA generativa, requiera una supervisión y un gobierno específico para asegurar que los sistemas se comportan de acuerdo con las reglas de uso adecuadas a nuestras necesidades.
El desafío radica ahora en que los modelos de lenguaje masivos (LLM) construidos sobre técnicas de IA generativa presentan una complejidad mayor a la hora de determinar su origen: es complicado conocer cuáles han sido las fuentes utilizadas para crear el contenido que nos devuelve la IA. Por ejemplo, en una conversación en ChatGPT, según como se use, puede resultar imposible conocer el origen de la información que el sistema utiliza para crear las respuestas que obtenemos. Y esto plantea a su vez otras cuestiones legales o éticas en torno a la propiedad intelectual. La IA generativa se alimenta y utiliza contenido original generado por otros para crear un nuevo contenido que devuelve al usuario. El debate está encima de la mesa.
Este es uno de los motivos por el que una regulación es necesaria, pero a un nivel razonable y buscando el equilibrio entre protección y beneficios. Un exceso de normativa frenaría la capacidad de las empresas españolas y europeas para su aplicación, lo cual impactaría no solo al sector TIC sino también a la competitividad de todo nuestro tejido empresarial, así como a las decisiones de dónde invertirán las empresas extranjeras.
No solo es importante una regulación, sino también la existencia de una autoridad competente que la interprete y la aplique. En este sentido, la reciente creación de la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), creemos que es un paso en la dirección correcta. Tenemos retos considerables por delante, más aún para las empresas tecnológicas como Inetum, para seguir innovando -para nosotros mismos y para nuestros clientes- y también para atraer y fidelizar a los mejores talentos que desarrollen competencias en esta tecnología.
Una regulación razonable puede fomentar la innovación en torno a estos ejes estratégicos, al permitir la experimentación y la creatividad en el desarrollo de nuevos sistemas y aplicaciones. La naturaleza rápida y dinámica de la IA requiere flexibilidad en las regulaciones para adaptarse a los avances tecnológicos y permitir el descubrimiento de nuevos usos y beneficios. Al evitar una regulación excesiva, se pueden mantener abiertas las puertas para la exploración de ideas disruptivas y el surgimiento de nuevas soluciones que impulsen el progreso. Igualmente, puede facilitar el proceso de adopción de la IA en diferentes industrias y sectores, al permitir que las organizaciones y los profesionales experimenten y adapten la tecnología a sus necesidades específicas. De esta forma, se promovería una mayor implementación de la IA, impulsando la transformación en sentido amplio, mejorando la eficiencia y la productividad.
Además, desde una regulación razonable podemos promover más la colaboración entre diferentes actores que trabajan con la IA, desde desarrolladores a investigadores o empresas y Gobiernos. Si podemos reducir las barreras regulatorias, se facilita un intercambio de conocimientos, se fomenta la cooperación en proyectos y la promoción de unos estándares comunes. Gracias a ello, podríamos crear ecosistemas de IA dinámicos que fomenten la innovación y el desarrollo conjunto.
Manuel García del Valle es director general de Iberia y Latam de Inetum
Sigue toda la información de Cinco Días en Facebook, X y Linkedin, o en nuestra newsletter Agenda de Cinco Días