_
_
_
_

Biden aprueba una orden ejecutiva para impulsar una IA más segura y mitigar sus riesgos

El presidente de EE UU quiere liderar la regulación de la IA, objeto de una feroz competencia internacional

Marimar Jiménez
El presidente de EE UU Joe Biden.
El presidente de EE UU Joe Biden.Jonathan Ernst (AP)

Joe Biden quiere que EE UU lidere el camino en la regulación de la inteligencia artificial, objeto de una feroz competencia internacional. El presidente estadounidense ha firmado una orden ejecutiva para establecer reglas sobre la IA generativa e impulsar una IA más segura y mitigar los riesgos de esta tecnología. El anuncio, con el que el mandatario estadounidense se adelanta a cualquier legislación sobre IA proveniente de los legisladores, tiene lugar a dos días de la cumbre de Bietchley Park en Reino Unido, donde líderes mundiales y empresariales discutirán sobre posibles reglas para un desarrollo fiable de la inteligencia artificial.

La orden tiene ocho objetivos, según detalla The Verge: crear nuevos estándares para la seguridad de la IA, proteger la privacidad, promover la equidad y los derechos civiles, defender a los consumidores, pacientes y estudiantes, apoyar a los trabajadores, promover la innovación y la competencia, promover el liderazgo estadounidense en tecnologías de inteligencia artificial, y garantizar el uso gubernamental responsable y eficaz de esta tecnología.

Entre las medidas incluidas está la de exigir que los desarrolladores de IA compartan con el gobierno estadounidense los resultados de sus pruebas de seguridad y otra información que se consideren “crucial”.

El demócrata de 80 años se ha basado en una ley que data de la Guerra Fría, la Ley de Producción de Defensa, que da al Gobierno federal cierto poder de restricción sobre las empresas cuando está en juego la seguridad del país, según precisó AFP.

De acuerdo a esta ley, las empresas que desarrollen sistemas que puedan suponer un riesgo grave para la seguridad nacional, la seguridad económica nacional o la salud pública deberán notificar a la administración cuando vayan a poner a prueba ese modelo. Una medida que busca garantizar que los sistemas de IA sean “seguros y de confianza antes de que las empresas los hagan públicos”.

El citado medio añade que varias agencias gubernamentales tienen la tarea de crear estándares para proteger contra el uso de IA para diseñar materiales biológicos, establecer mejores prácticas en torno a la autenticación de contenido y crear programas avanzados de ciberseguridad.

El Instituto Nacional de Estándares y Tecnología será el que establezca los “rigurosos” estándares para las pruebas de seguridad antes de su lanzamiento público. Además, los Departamentos de Energía e Interior se encargarán de vigilar las posibles amenazas de sistemas de IA sobre infraestructuras críticas y los riesgos que pueda suponer en los campos químico, biológico, radiológico, nuclear o de ciberseguridad. La norma incluye medidas para tratar de evitar tanto la creación de “materiales biológicos peligrosos” como el fraude y el engaño mediante el uso de la IA, en este caso para etiquetar con claridad el contenido generado por la inteligencia artificial, informó Efe.

La orden ejecutiva también establecerá un programa para que la IA descubra y arregle vulnerabilidades del software. Finalmente se desarrollará un memorándum de seguridad nacional para el uso ético de la IA por parte de las fuerzas armadas y los servicios de inteligencia.

Un alto funcionario de la administración Biden ha dicho a los periodistas en una sesión informativa que las pautas de seguridad se aplican principalmente a los futuros modelos de IA. “No vamos a retirar del mercado los modelos disponibles públicamente que estén disponibles”, añadió el funcionario. “Los modelos existentes todavía están sujetos a las normas antidiscriminatorias que ya están en vigor”.

La orden ejecutiva de Biden llega después de que siete empresas líderes en IA estadounidense -Google, Meta, Microsoft, OpenAI, Amazon, Anthropic e Inflection AI- se comprometieran el pasado julio a gestionar los riesgos que plantea esta tecnología y a adoptar “de forma inmediata” medidas para asegurar que “la innovación no se produce a expensas de los derechos y seguridad de los estadounidenses”, según señaló entonces la Casa Blanca. Esto incluía promover la transparencia y probar la seguridad de los desarrollos de la inteligencia artificial y hacer públicos los resultados de esas pruebas.

Según la información facilitada por la Casa Blanca, se trata del “conjunto de acciones más fuertes puesto en marcha por un gobierno en todo el mundo”. Así lo apuntó el subjefe de gabinete, Bruce Reed, quien señaló que este decreto con rango de ley es el “siguiente paso” de una “agresiva” estrategia para actuar en todos los frentes “aprovechando los beneficios de la IA y mitigando sus riesgos”.

El mismo funcionario explicó que EE UU está trabajando con otros países para que haya unos compromisos multilaterales y una aproximación “armonizada” al control de la IA. Sobre esta cuestión aseguró que esta misma semana se conocerán algunos frutos y recordó que el martes la vicepresidenta, Kamala Harris, viajará al Reino Unido para la citada reunión sobre IA en la que dará un discurso sobre la posición estadounidense.

Aunque Biden quiere que EE UU tome la delantera sobre la regulación en torno a la IA, un área en la que también avanza Europa, que prevé aprobar la suya propia en su totalidad a finales de año, una orden ejecutiva “no es una ley permanente” y, como advierte The Verge, por lo general solo dura mientras dure la administración de Biden. En EE UU, como en otras geografías, los legisladores todavía están discutiendo cómo regular la IA, aunque algunos políticos dijeron que quieren aprobar leyes sobre la IA antes de fin de año. Los observadores de la industria dijeron que la orden ejecutiva es al menos un paso adelante en el establecimiento de estándares en torno a la IA generativa.

Navrina Singh, fundadora de Credo AI y miembro del Comité Asesor Nacional de Inteligencia Artificial, indicó que una orden ejecutiva es una fuerte señal de que EE UU se toma en serio la IA generativa. “Es la medida correcta por ahora porque no podemos esperar que las políticas sean perfectas desde el principio mientras todavía se debate la legislación. Creo que esto realmente demuestra que la IA es una máxima prioridad para el gobierno”, añadió.

Desde AFP advierten, sin embargo, que Biden tiene un margen de maniobra limitado, ya que cualquier legislación verdaderamente vinculante y ambiciosa sobre IA debería pasar por el Congreso de EE UU. Pero este último está muy dividido, lo que hace muy improbable la adopción de una ley a gran escala, según la citada agencia. Por eso, la UE tiene aún la esperanza de marcar el ritmo regulatorio en IA a nivel mundial.

La popularidad de la IA generativa se ha acelerado, especialmente tras el lanzamiento del robot conversacional ChatGPT. La IA está generando muchas esperanzas en campos como la medicina, pero también está desatando grandes temores ante una eventual pérdida masiva de puestos de trabajo, un incremento de la desinformación y la discriminación y ataques a la privacidad. También muchos expertos y ONG advierten contra el uso que pueden hacer de la IA regímenes autoritarios y organizaciones criminales. Un riesgo al que se alude cada vez con más insistencia es el uso de la IA para llevar a cabo ciberataques cada vez más sofisticados.

Sigue toda la información de Cinco Días en Facebook, X y Linkedin, o en nuestra newsletter Agenda de Cinco Días

Sobre la firma

Marimar Jiménez
Redactora senior en la sección de Empresas de CINCODIAS. Sigue la actualidad del sector de tecnologías de la información y del ecosistema emprendedor español. Antes de incorporse al diario en 2000 trabajó en Actualidad Económica y los suplementos Futuro y Negocio en EL PAIS. Es licenciada en Periodismo por la Universidad Complutense de Madrid.

Más información

Archivado En

_
_