El puzle regulatorio global de la inteligencia artificial
Los diversos Estados tienen visiones muy dispares acerca de cómo debe regularse la IA
Los responsables políticos y los diversos Estados tienen visiones muy dispares acerca de cómo debe ser regulada la inteligencia artificial. El resultado es que los enfoques normativos se están fragmentando a escala mundial. La colaboración jurídica transfronteriza a gran escala parece asimismo limitada a corto plazo. El primer tratado internacional, adoptado por el Consejo de Europa en mayo de 2024, cuenta con débiles mecanismos de aplicación y deja un amplio margen de discrecionalidad a los Estados firmantes. Aunque existe colaboración entre organismos nacionales para evaluar la seguridad de los modelos de IA más potentes, su labor depende en gran medida de la cooperación voluntaria.
La Unión Europea pretende liderar la regulación jurídica de la IA por medio del reglamento europeo de inteligencia artificial (el RIA o AI Act), basado en las normas vigentes sobre seguridad de los productos. Esta norma establece distintas obligaciones para proveedores, usuarios y demás implicados en la cadena de valor. Una parte de los sistemas de IA están prohibidos o fuertemente regulados en función del riesgo inherente. La norma está respaldada por fuertes multas: hasta 35 millones de euros o el 7% de la facturación anual.
En Estados Unidos el panorama es distinto: estados como Colorado y California tienen leyes propias, pero varían mucho. Por ejemplo, la ley de Colorado, al igual que el reglamento europeo de IA, adopta un enfoque basado en el riesgo. Sin embargo, las obligaciones que impone difieren notablemente. También California aprobó una serie de leyes específicas relacionadas con la IA, pero el gobernador vetó la propuesta de ley más completa.
Igualmente se han promulgado nuevas leyes en China o Corea del Sur, y hay proyectos en otros países como Brasil y Canadá. Ahora bien, las leyes de muchas jurisdicciones, más limitadas, se centran en aspectos específicos, como la transparencia (así, en Utah, Illinois y Maryland, para garantizar que las empresas revelen cuándo se utiliza la inteligencia artificial en determinados casos), para hacer frente a las ultrasuplantaciones (deepfakes) o para proteger la integridad de las elecciones.
En cambio, muchos países – y estados de EE UU– siguen basándose en gran medida o exclusivamente en las leyes existentes que también se aplican a la IA. Mientras que algunos países importantes también han puesto en marcha políticas u orientaciones para racionalizar la forma en que sus normas vigentes se aplican a la IA (incluidos el Reino Unido, Estados Unidos y Singapur), en otros territorios las empresas tienen grandes dificultades para conocer cómo los reguladores abordarán la IA.
Para aumentar la incertidumbre, algunos países que habían descartado inicialmente la regulación se están moviendo en la dirección contraria. Así, en 2023 India declaró que no tenía ninguna intención de regular la inteligencia artificial, y luego aprobó una ley de protección de datos personales digitales para regular los sistemas de IA de alto riesgo, entre otras cuestiones. Y algunos de los pioneros en regulación (China y Singapur) muestran ahora un enfoque más cauteloso.
Por su parte, Tailandia estaba trabajando en un real decreto sobre los servicios de sistemas de IA desde 2022, pero los funcionarios han decidido estudiar primero las normativas que se están desarrollando en otros países antes de acabar su norma. Del mismo modo, la orden ejecutiva sobre inteligencia artificial del presidente Biden, del 30 de octubre de 2023, estableció la senda sobre cómo Estados Unidos abordaría su regulación, pero el presidente Trump la acaba de revocar.
Por eso, en 2025 el panorama normativo seguirá evolucionando rápidamente, con un mosaico de enfoques diferentes en los distintos países. Esto supone que las partes interesadas en proyectos transfronterizos de inteligencia artificial tienen que navegar por esas diferencias y estar debidamente asesorados para asegurar el cumplimiento normativo.