Multas, regulación y obsolescencia: la banca alerta del riesgo de la inteligencia artificial para su negocio
Santander, Goldman Sachs, Citi, Unicredit o ING ya advierten en sus comunicaciones al mercado del impacto de esta tecnología en el sector financiero
La inteligencia artificial (IA) ha desatado la euforia en los mercados, pero no es oro todo lo que reluce en el sector. Los grandes bancos ya incluyen esta tecnología como uno de los riesgos de negocio a los que se enfrentan. Santander, Goldman Sachs, Citi, Intesa Sanpaolo o ING han introducido esta tecnología dentro del catálogo de riesgos que afrontan a corto plazo.
Santander es el banco que más detalles ofrece sobre los riesgos de la IA. En varios informes remitidos recientemente tanto a la Comisión Nacional del Mercado de Valores (CNMV) como al supervisor estadounidense de los mercados (SEC) el banco señala que el rápido avance de esta tecnología y la regulación que se está desarrollando para delimitar su uso pueden provocar gastos adicionales para adaptarse a los marcos regulatorios y que el grupo incurra en incumplimientos normativos que llevan a aparejadas sanciones. “Existe el riesgo de que el software o las aplicaciones actuales o futuras del grupo basadas en IA puedan clasificarse como ciertas categorías de riesgo que pueden obligar a cumplir con los requisitos aplicables de la Ley de IA, lo que puede suponer costes adicionales para el banco, aumentar el riesgo de responsabilidad o afectar negativamente a su negocio”, indica Santander en el documento.
Igualmente, señala que debido a la rapidez con la que está avanzando la inteligencia artificial, pueden surgir nuevas normas que obliguen a reformular las aplicaciones de inteligencia artificial y que conllevarían costes adicionales. “Es posible que el grupo no pueda anticipar cómo responder a estas leyes y regulaciones en rápida evolución, y puede que necesite gastar recursos para adaptarse a la normativa en todos los mercados en los que opera. Además, debido a que la tecnología de la IA en sí es muy compleja y se desarrolla rápidamente, no es posible predecir todos los riesgos legales o regulatorios que pueden surgir relacionados con su uso”, añade el banco.
De todas formas, hay que tener en cuenta que las entidades financieras, en sus comunicaciones con el supervisor, deben incluir todos los riesgos que pueden impactar en el negocio (por muy hipotéticos que sean) y abarcan una amplia variedad de casuísticas. Por ello, que un riesgo aparezca en sus informes, no significa que represente un peligro inminente o que vaya a provocar pérdidas en el negocio.
Regulación europea y posibles multas
La inteligencia artificial ha desatado una carrera empresarial para incorporar esta tecnología bajo la promesa de que revolucionará los sectores en términos de eficiencia, productividad y seguridad. En el sector financiero, las principales aplicaciones de la IA están dirigidas a la valoración del riesgo de las carteras, el análisis de la solvencia de los clientes, el asesoramiento a usuarios del banco, la posibilidad de hacer ofertas personalizadas, la reducción de costes en procedimientos que se pueden automatizar, o el refuerzo de los sistemas de prevención de fraude. Fuentes de Santander detallan que el banco lleva años apostando por el uso de datos y la analítica avanzada para “atraer nuevos clientes y mejorar la experiencia de los ya existentes, así como para potenciar la eficiencia”. De hecho, el grupo cuenta con un laboratorio de IA en el centro corporativo y las unidades de negocio.
Pero más allá de los beneficios que pueda generar para las compañías, los organismos supervisores están desarrollando normativa para regular la IA y evitar usos que puedan poner en peligro la seguridad de los ciudadanos, las empresas o que no cumplan con criterios éticos. En esa línea, la Unión Europea avaló en marzo una reglamento de Inteligencia Artificial, que busca crear un entorno seguro para promover inversiones en este campo, pero asegurando que las empresas respetan la seguridad y los derechos de las personas.
Entre las principales cuestiones, establece cuatro categorías de riesgos para las aplicaciones de IA: riesgo mínimo (se pueden usar libremente), riesgo limitado (están sujetas a requisitos de transparencia), riesgo alto (están sujetas a requisitos adicionales de seguridad) y riesgo inaceptable (su uso está prohibido). En lo que respecta al sector bancario, las principales aplicaciones que estarán sujetas a la regulación tiene que ver con el análisis de solvencia para la concesión de crédito, sistemas de gestión de recursos humanos, aplicaciones que utilizan datos biométricos o sistemas que basados en contenido audiovisual. Para las empresas que incumplan los requisitos de la normativa (que previsiblemente entrará en vigor en 2026) afrontan multas que pueden ir desde los 7,5 millones de euros a los 35 millones, o el 7% de la facturación global de la compañía, en función de la gravedad del incumplimiento y del tamaño de la empresa.
El gobernador del Banco de España, Pablo Hernández de Cos, advirtió ayer en Washington, durante su participación en las jornadas organizadas por el Instituto de Finanzas Internacionales (IIF), del riesgo de que la inteligencia artificial amplifique las crisis bancarias. En ese sentido, Cos apuntó que los bancos deben anticipar y supervisar los riesgos y retos que plantea la inteligencia artificial y el aprendizaje automático y los incorporen a sus mecanismos cotidianos de gestión de riesgos y gobernanza.
Fuga de datos y pérdida de competitividad
Otros grandes bancos europeos también han alertado en los informes que remiten al mercado de los riesgos que supone la incorporación de la IA en su negocio. ING señala en su informe anual de 2023 el peligro de que datos confidenciales o personales tanto del banco como de clientes queden revelados por una fuga. “A medida que los bancos incorporan cada vez más la IA en sus procesos y sistemas, el riesgo de fugas de datos e información sensible, patentada o confidencial nuestra o de nuestros clientes podría filtrarse, divulgarse o revelarse como resultado del uso que hagamos nosotros o nuestros proveedores externos”, explica el banco.
“Si confiamos en modelos de IA desarrollados por terceros, dependeríamos en parte de la manera en que esos desarrollen y entrenen sus modelos, incluidos los riesgos que surgen de la inclusión de cualquier material no autorizado, sobre los cuales podemos tener visibilidad limitada. Podría exponernos a responsabilidad o consecuencias legales y regulatorias adversas y dañar nuestra reputación y la percepción pública de nuestro negocio o la efectividad de nuestras medidas de seguridad”, detalla en la misma línea el banco estadounidense Goldman Sachs,
Al otro lado del Atlántico, en Estados Unidos no existe un reglamento tan ambicioso como el desarrollado por la Unión Europea, pero está trabajando en desarrollar normativa, recomendaciones y estándares para el uso de la IA. A finales del año pasado, el presidente Joe Biden firmó una orden ejecutiva que obliga a las grandes empresas de IA a comunicar al Gobierno los resultados de las pruebas de seguridad y a varias agencias a que desarrollen normas y recomendaciones en las que se incluyan los riesgos de la inteligencia artificial. Por ello, algunos de los grandes bancos también incluyen la inteligencia artificial como factor de riesgo en sus comunicaciones a la SEC (el regulador estadounidense de los mercados).
Y no solo por las implicaciones legales, sino también en términos de negocio y reputación. “No aprovechar estratégicamente el potencial de la inteligencia artificial puede resultar en una desventaja competitiva. Al mismo tiempo, como nueva tecnología, el uso de la IA sin suficientes controles, gobernanza y gestión de riesgos puede derivar en mayores riesgos en todas las categorías. Por ejemplo, los productos de pagos instantáneos podrían ir acompañados de desafíos para pronosticar y administrar la liquidez, así como mayores riesgos operativos y de cumplimiento”, detalla Citi.
Sigue toda la información de Cinco Días en Facebook, X y Linkedin, o en nuestra newsletter Agenda de Cinco Días