_
_
_
_
Breakingviews
Opinión
Texto en el que el autor aboga por ideas y saca conclusiones basadas en su interpretación de hechos y datos

Los detractores de la regulación de la IA protestan demasiado

Los primeros intentos de legislar la inteligencia artificial dividen a Gobiernos y a grandes empresas tecnológicas

ChatGPT
Una captura de la aplicación de inteligencia artificial ChatGPTReuters

Los reyes de la inteligencia artificial (IA) están rumbo a un enfrentamiento en materia de supervisión. Los legisladores votaron este mes la Ley de IA de la Unión Europea, en uno de los primeros intentos significativos de regular el incipiente sector. Otros países también se apresuran a elaborar normas. Aunque los líderes del sector, como Sam Altman, jefe de OpenAI, advierten de que algunos planteamientos son demasiado onerosos, los riesgos de complacer a las peticiones particulares superan los peligros de ahogar una nueva tecnología.

La IA se está desarrollando tan rápidamente que ni siquiera hay consenso sobre si necesita una normativa específica. Como señala el inversor de capital riesgo Marc Andreessen, los modelos de IA se componen de códigos y algoritmos, igual que otros programas informáticos. Lo que los distingue, sin embargo, es que no siguen mecánicamente instrucciones establecidas por humanos, sino que sacan conclusiones de forma independiente. Así es como la IA puede capacitar a las herramientas de generación de fotos para crear imágenes que parezcan personas reales. Además, la capacidad de los modelos de IA para extrapolar datos a gran velocidad explica por qué casi todas las industrias están desplegando esta tecnología con la esperanza de aumentar la productividad.

Estas ventajas son también las razones por las que la IA puede crear grandes problemas. Entrenar modelos basados en conjuntos de datos específicos puede reproducir sesgos humanos históricos, sesgando las aprobaciones de hipotecas o las solicitudes de empleo. La capacidad de la IA para aprender de datos de libre acceso también plantea grandes interrogantes sobre las violaciones de la ley de derechos de autor. Y es comprensible que el potencial de la tecnología para desplazar rápidamente un gran número de puestos de trabajo ponga nerviosos a los políticos.

Poner límites no es sencillo. Precisamente porque los modelos de IA pueden reproducir tareas realizadas por humanos, es más difícil detectar cuál es cuál. La capacidad del modelo para tomar decisiones aparentemente independientes también difumina las líneas de responsabilidad y hace más difícil que el diseñador, o un organismo oficial, lo controle.

A pesar de estos retos, los gobiernos han acordado algunos principios generales. Un acuerdo de 2019 negociado por la Organización para la Cooperación y el Desarrollo Económicos especifica que la IA debe ser transparente, sólida, responsable y segura. Sin embargo, más allá de estas generalidades, hay un desacuerdo generalizado sobre lo que cuenta como IA, cosa que deben tratar de resolver los reguladores, y hasta qué punto necesitan hacer cumplir sus objetivos.

Los responsables políticos se han dividido en distintos bandos. En un extremo del espectro están la UE, China y Canadá, que intentan construir una nueva arquitectura reguladora. En el otro extremo están India y el Reino Unido, cuyo Libro Blanco de abril afirmaba que la IA no requiere ninguna regulación especial más allá de una serie de principios similares a los articulados por la OCDE. En algún punto intermedio se encuentra Estados Unidos, donde el Presidente Joe Biden ha propuesto una Carta de Derechos de la IA, mientras que el Congreso sigue debatiendo la necesidad de normas específicas. Esta divergencia sugiere que es improbable que el mundo vea un regulador mundial de la IA, una idea que Altman sugirió al Congreso el 16 de mayo.

La propuesta de ley de la UE aboga por clasificar las aplicaciones de la IA en cuatro categorías diferentes. Se prohibirá una minoría de usos de “riesgo inaceptable de la IA, como el reconocimiento facial en tiempo real para vigilar a los ciudadanos. La mayoría se considerarán limitados, de bajo riesgo y sujetos a una supervisión mínima. Los sistemas de IA que podrían utilizarse para influir en los votantes y en el resultado de las elecciones y los sistemas utilizados por plataformas de medios sociales con más de 45 millones de usuarios se califican de “alto riesgo”. La queja de Altman es que los sistemas de IA de propósito general, incluida la herramienta ChatGPT de OpenAI, son la base de estas aplicaciones, lo que les haría responsables de estos riesgos.

No le falta razón. La ley de la UE exigirá que las aplicaciones de “alto riesgo” revelen los contenidos generados por la tecnología, publiquen resúmenes de los datos protegidos por derechos de autor utilizados para ello, y castigará a las empresas que hagan revelaciones inadecuadas con multas de hasta el 7% de sus ingresos totales. Esto parece excesivo para aplicaciones como ChatGPT, que se utilizan principalmente para resumir documentos y ayudar a escribir código. Las exigentes normas también podrían disuadir a empresas más pequeñas u organizaciones sin ánimo de lucro de desarrollar sistemas de IA de propósito general, limitando la innovación y limitando los rivales a gigantes de la industria como OpenAI, respaldada por Microsoft, o Alphabet, propietaria de Google. Esto, a su vez, podría ahogar los usos positivos de la IA en ámbitos como el desarrollo de fármacos o el diseño de semiconductores, o garantizar que los países con una normativa menos estricta se beneficien de la innovación.

Sin embargo, detrás de esta tecnología novedosa y posiblemente revolucionaria se esconde un pulso entre los reguladores y las grandes empresas tecnológicas. Los organismos de control de Bruselas y Estados Unidos intentan, con retraso, limitar el poder de gigantes como Alphabet, Microsoft y Meta Platforms, propietaria de Facebook. E incluso la propuesta de reglamento de la UE permite de hecho a los profesionales de la IA marcarse sus propios deberes. Dada la velocidad de la innovación y el riesgo de que ChatGPT y otros modelos generativos de IA den lugar a aplicaciones más problemáticas, la amenaza de un exceso de regulación es menos desalentadora que la alternativa.

La autora es columnista de Reuters Breakingviews. Las opiniones son suyas. La traducción, de Lucía Manchón Cabrera, es responsabilidad de CincoDías

Sigue toda la información de Cinco Días en Facebook, Twitter y Linkedin, o en nuestra newsletter Agenda de Cinco Días

Más información

Archivado En

_
_