_
_
_
_
Análisis
Opinión
Texto en el que el autor aboga por ideas y saca conclusiones basadas en su interpretación de hechos y datos

¿Cómo regular la IA en las empresas?

Las normativas internas de inteligencia artificial no solo pueden mitigar los riesgos, sino también permitir un uso más eficiente

UE.- Un total de 60 organizaciones instan a España a fortalecer la protección de derechos en el reglamento de IA de la UE
Karl-Josef Hildenbrand (DPA vía Europa Press)

Las grandes compañías del Ibex 35, como Telefónica o BBVA, han comenzado a limitar el uso a sus empleados de herramientas para la generación de contenidos por IA como ChatGPT, y fuera de nuestras fronteras, empresas como Apple o Samsung directamente han prohibido su uso. El riesgo de filtraciones de información confidencial y las dudas sobre el uso de los datos están detrás de estas restricciones, pero no debemos caer en el error de pensar que esta es la única solución para una regulación interna de estas tecnologías que garantice un uso ético y seguro.

La utilización de la inteligencia artificial (IA) se ha convertido en una herramienta fundamental para las empresas en todo el mundo. Sin embargo, a medida que la adopción de la IA se acelera, se está volviendo cada vez más evidente que las compañías se encuentran en un terreno desconocido.

El desconocimiento y el miedo suelen andar de la mano. En el caso de la IA, este miedo a lo desconocido puede llevar a las empresas a tomar la decisión drástica de prohibir completamente su uso, aunque esta actitud defensiva podría privarlas de los beneficios que esta tecnología puede proporcionar. En lugar de evitar lo que no entendemos, lo que realmente necesitamos es una mayor comprensión de qué es realmente la IA, qué es capaz de hacer, quién debe usarla y cómo podemos utilizarla de manera efectiva y segura.

Está previsto que la regulación europea de la IA entre en vigor en 2024 y Bruselas asegura que su objetivo principal es abordar los riesgos generados por los distintos usos de la IA. A pesar de ello, la denominada AI Act, está centrada en proteger a los usuarios y controlar y regular tanto a los desarrolladores como a las compañías de software, pero no entra en cómo estas tecnologías deben ser usadas en el ámbito corporativo.

La responsabilidad de controlar el buen uso de estas herramientas por parte de sus empleados es de las propias compañías y esta regulación interna de la IA representa un desafío en sí mismo. Con su rápida evolución y aplicación en una amplia variedad de sectores, las empresas deben tener en cuenta no solo los riesgos potenciales, sino también la conveniencia de utilizar estas tecnologías. Es crucial entender que, aunque la IA puede ser aplicada a diversas tareas, esto no implica que deba ser utilizada en todas las situaciones. Es preciso tener en cuenta el contexto y el propósito de su uso para minimizar cualquier riesgo asociado. En este escenario es imprescindible que las empresas desarrollen guías corporativas de uso de la IA de manera proactiva.

Además de minimizar los riesgos, una regulación interna adecuada puede proporcionar numerosos beneficios a las empresas. Mediante la implementación de KPI (indicadores clave de rendimiento), las empresas pueden medir el impacto de la IA y tomar decisiones basadas en datos concretos sobre su uso. Para llegar a este punto, las empresas deben hacer un ejercicio de introspección, mediante la realización de talleres internos que permitan identificar los casos de uso adecuados de la IA y desarrollar flujos de trabajo eficientes y seguros para los equipos de personas seleccionados para su uso.

Sin embargo, la IA no es una herramienta que todos los trabajadores puedan utilizar de manera efectiva sin la formación adecuada. Por lo tanto, una parte esencial de la regulación interna de la IA es proporcionar formación específica a los empleados. Al hacerlo, se les permitirá explotar al máximo el potencial de las herramientas de generación de contenidos por IA, aumentando su productividad y eficiencia.

La rapidez con la que estas tecnologías se están desarrollando e implantando obliga además a las empresas a estar preparadas para adaptarse y evolucionar al mismo ritmo. Para ello, es imprescindible que estas guías de uso corporativas no solo abarquen las herramientas actuales como ChatGPT, Bing, Bard o Midjourney, sino que también se anticipen a las que están por venir. Hay desarrollos de código abierto que pronto van a poder superar, o al menos igualar, a estas herramientas por lo que la oferta de soluciones basadas en la IA para todo tipo de tareas se va a multiplicar de una manera considerable en los próximos meses. A esto hay que sumar que estamos al borde de un cambio radical en la forma en que interactuamos con la tecnología. La IA se integrará en nuestras suites ofimáticas de Microsoft y Google e incluso en los propios sistemas operativos, lo que cambiará para siempre la forma en que trabajamos.

Para asegurar que todos los trabajadores, independientemente de su nivel de habilidad, puedan utilizar estas herramientas de manera segura y efectiva, la regulación interna de la IA es una necesidad urgente. Las empresas deben tomar la iniciativa en este asunto, preparándose para el futuro y garantizando un uso ético y seguro de la IA sin esperar a que un regulador externo se ocupe de esta patata caliente. Como ha alertado recientemente Geoffrey Hinton tras abandonar la vicepresidencia de Ingeniería de Google: “Si hay alguna forma de controlar la inteligencia artificial, debemos descubrirla antes de que sea tarde”.

Las regulaciones internas de la IA no solo pueden mitigar los riesgos, sino que también pueden permitir un uso más eficiente y productivo de esta tecnología revolucionaria. Las empresas que aborden de manera efectiva este proceso podrán adquirir una ventaja competitiva sobre aquellas que no lo hayan hecho con la profundidad y seriedad necesaria.

Una de las condiciones indispensables para el éxito de este ejercicio de auto regulación, es la necesidad de que las guías de uso corporativas de la IA no se conviertan en un documento para guardar en el cajón, sino que se conviertan en una herramienta viva que requiere una revisión periódica y una actualización constante. Las empresas deben estar atentas a los cambios legislativos y regulatorios que puedan afectar al uso de estas herramientas y mostrarse abiertas al diálogo y a la colaboración con otras partes interesadas como gobiernos, organizaciones civiles o académicas. Se juegan, nos jugamos, mucho.

Luis Martín Pérez es director de Influencia y Comunicación Digital en LLYC

Sigue toda la información de Cinco Días en Facebook, Twitter y Linkedin, o en nuestra newsletter Agenda de Cinco Días

Más información

Archivado En

_
_