La inteligencia artificial, palanca clave para gestionar el riesgo de crédito
El ‘machine learning’ y el ‘big data’ están ayudando a las entidades financieras a ofrecer servicios muy personalizados y ganar en eficiencia. Pero estas nuevas tecnologías generan inquietudes en un sector muy regulado
La inteligencia artificial (IA) se ha colado en el sector financiero, y lo ha hecho, como en otras industrias, para quedarse. “No va a ser una moda pasajera, pues gracias a esta tecnología estamos viviendo un momento de disrupción en la humanidad”, aseguró Lola Serrano, directora de Banca y Seguros de Microsoft, durante un encuentro informativo celebrado en CincoDías y patrocinado por Axesor sobre La adopción de la inteligencia artificial en el sector financiero.
En Axesor lo tienen claro. La inteligencia artificial supone un avance enorme para minimizar los riesgos asociados al crédito empresarial en los que incurren constantemente las empresas y para reducir sus costes, que son muy relevantes. Julián Villalba, Chief Risk Officer de Axesor, explicó durante el encuentro que su empresa ha creado una solución con esa finalidad usando técnicas de aprendizaje automático. Se llama A360 y cruza mediante inteligencia artificial más de 400 variables que se van actualizando a través del machine learning. “Ello permite crear un modelo de riesgo empresarial de alta capacidad predictiva, algo que hasta el momento no se podía hacer a escala comercial”, remarcó.
Según Villalba, hasta ahora la tecnología no era suficiente para implantar modelos de riesgo personalizados en el tejido industrial a un coste viable para las empresas, pero la plataforma de gestión de riesgo de crédito que ha lanzado su empresa, localizada en la nube, “permite manejar a diario y de forma personalizada para cada empresa un gran volumen de datos”, gracias a los avances en los motores de cálculo y las capacidades de desarrollo de aplicaciones en las áreas de data science.
Elena Alfaro: “Hay que tener claro cómo la inteligencia artificial puede ayudar. Al final, todo son datos y matemáticas. No Terminator”
“Gracias a este esfuerzo tecnológico podemos ofrecer a las empresas algo a lo que hasta ahora no podían acceder: poder gestionar su riesgo de crédito, como parte de la actividad comercial, con la misma seguridad de la que se dotan las entidades financieras cuando conceden préstamos. Así democratizamos servicios y funciones a las que antes solo accedían las grandes corporaciones”, subrayó el directivo de Axesor, que defendió, no obstante, que la decisión final siempre la tiene el gestor de la empresa, y que lo que aporta la inteligencia artificial es mayor información y capacidad para tomar mejores decisiones.
Villalba también anotó un punto importante: lo difícil y caro que es contratar en las empresas data scientist, “ya que las grandes empresas se los llevan casi todos”. Por eso, dijo, “para afrontar este pequeño abismo [relativo a la gestión del riesgo de crédito], hay dos formas: o lo haces de forma interna o busca un partner que te ayude, y ahí Axesor quiere servir de puente para que las empresas lleguen a utilizar las mejores prácticas”.
Lola Serrano: “Con la inteligencia artificial no hace falta inventar la rueda. Las empresas deben perder el miedo a subcontratar recursos"
Elena Alfaro, responsable de Data e Innovación abierta de BBVA, prefiere hablar de técnicas como el machine learning y evitar el concepto de inteligencia artificial por estar demasiado ligado a imágenes de un futuro amenazante como la destrucción de empleo o la revolución de las máquinas. Alfaro insistió en que la IA ya está muy presente en nuestra vida a través de Netflix, Google Maps, o Spotify. “Hay que tener claro cómo esto puede ayudar a mejorar la vida de la gente y también la economía”, resaltó. “Al final, todo son datos y matemáticas. No Terminator”, ironizó.
Alfaro contó cómo la apuesta de BBVA pasa por usar estas tecnologías para ayudar a tomar decisiones a sus clientes a través de servicios muy personalizados, al mismo tiempo que hacen más eficaces los procesos internos. El objetivo es que el banco resuelva las tareas que son muy tediosas para los clientes (como un análisis de los gastos mensuales) y al mismo tiempo pueda ayudar a que alcancen sus metas vitales (como comprar una casa). BBVA ya ha empezado a lanzar servicios en este sentido como son BBVA Valora o Baby Planner.
Julián Villalba: “A360 permite crear un modelo de riesgo empresarial de alta capacidad predictiva, algo que hasta ahora no se podía hacer a escala comercial”
Para desplegar este tipo de servicios, lo primero que se deben plantear las compañías es “cuál es su ventaja competitiva y si tienen capacidad de desarrollar los algoritmos”, subrayó Alfaro para quien los desarrollos internos deben de estar enfocados en las áreas diferenciadoras de cada negocio. “Me gusta poner el ejemplo de la Termomix, que la tiene el que no tiene ni idea de cocinar y le resuelve la vida; y el superchef, a quien le facilita parte del proceso. Muchas soluciones de generación de algoritmos van en ese sentido: te permiten hacer cosas solo con ellas si no tienes la capacidad de ir más allá o puedes tenerla como complemento al trabajo de otras personas”, reflexionó.
Para Aitor Chinchetru, fundador y COO de Fintonic, una fintech conocida por su app para controlar las finanzas personales, la inteligencia artificial es una herramienta para generar una experiencia de usuario realmente única. Y es clave, dice, porque “la batalla en el mundo de los servicios financieros está hoy en quién gana la relación con los usuarios; lo mismo que ha pasado en otras industrias, como vemos con los casos de Airbnb o Booking.com. No son dueñas de ningún activo, pero son fuertes porque son dueñas de la relación con el usuario, y es algo que han logrado gracias a su capacidad y habilidad para utilizar modelos predictivos para mejorar esa relación”.
José R. Morales: “A los reguladores les inquieta el riesgo de caja negra. Insisten en la transparencia de los criterios que usan los algoritmos”
Chinchetru defiende que para Fintonic el usuario es el centro de toda esta revolución, y en finanzas, como ha ocurrido en otros sectores, lo que están pidiendo los usuarios es inmediatez, transparencia y sencillez. “Básicamente, lo que nos están reclamando es que hagamos magia. Quieren que les categoricemos todas las transferencias, que le digamos lo que se van a gastar el mes que viene, que le digamos cuál son sus pérfiles de riesgo de crédito. Y todo, sin hacer nada. En nuestro caso, el usuario se conecta, le da a un botón y le aparece todo. Y ahí es donde estamos aplicando la inteligencia artificial. Hacemos modelos de categorización, de propensión, de sensibilidad a precio.
Fintonic espera estar para final de año en cerca de 1.000 millones de transacciones, “un volumen sobre el que ya se pueden construir máquinas que aprenden sobre los datos y son capaces de predecir el futuro”, señaló Chinchetru, que también destacó un segundo uso que hacen de la inteligencia artificial: “intentamos ayudar a nuestros clientes a tomar mejores decisiones: de precio, de producto, de lanzamientos. Le damos la variable del dato”.
Aitor Chinchetru: “La batalla está hoy en quién gana la relación con los usuarios. Y para ello es clave usar modelos predictivos”
Con todo este contexto de fondo, José Ramón Morales, socio responsable de Tecnología y Outsourcing de Garrigues, aclaró cuáles son las derivaciones jurídicas del uso de la inteligencia artificial en un sector altamente regulado como el financiero. Advirtió que aún no hay reglas muy profundas, pero sí “algunas sueltas” en materia de protección de datos, pues explicó que los consentimientos por ejemplo son distintos en función de si los perfilados de los clientes se hacen exclusivamente a través de una máquina.
Este experto resaltó que una de las principales inquietudes que hay entre los reguladores es el riesgo de “caja negra”. Se refiere a que las entidades financieras utilizan cada vez más algoritmos de machine learning para tomar decisiones de riesgo, como dar un crédito a una persona o empresa, pero muchas veces tienen difícil explicar cómo han tomado la decisión. “Al regulador esto le preocupa e insiste en la necesidad de transparencia sobre los criterios utilizados, con el fin de poder demostrar que no están desfavoreciendo a nadie. Además, sobre este punto los propios sujetos que sufren las consecuencias de la aplicación de los algoritmos tienen derecho a conocer cómo se ha hecho la evaluación”, señaló.
Inmaculada González: “En las empresas más tradicionales hay cierto vértigo a automatizar determinados procesos de toma de decisiones"
Otro ámbito regulatorio clave tiene que ver con la prevención de fraude y, sobre todo, del blanqueo de capitales. “Habrá que ver si se puede sustituir la intuición que en muchas ocasiones usan las entidades financieras para detectarlo por sistemas basados en elementos más científicos”.
Morales planteó igualmente otros debates abiertos: ¿Hasta qué punto ofertas muy personalizadas podrán chocar con el derecho a la privacidad? ¿se están abriendo los créditos, gracias a la inteligencia artificial, a personas para las que las propias entidades no están preparadas? ¿Cubren las actuales pólizas de ciberriesgo los riesgos generados en un entorno de ciberataques sobre entornos de machine learning? ¿Quién tiene la responsabilidad ante un mal funcionamiento de estas tecnologías si un proveedor aporta el algoritmo, pero los datos los pone la propia entidad financiera? ¿Tiene el usuario derecho a saber que está interactuando con una máquina, aunque parezca que está hablando con un humano gracias a los bots?
Fernando Valles: “A medida que haya más ‘data scientists’ en el mercado, la oferta y demanda se igualará y los precios se moderán”
A estos debates, y según explicó Inmaculada González, socia de KPMG en Financial Risk Management, se suman algunos miedos. “En las empresas más tradicionales hay cierto vértigo a automatizar determinados procesos de toma de decisiones, a pesar de que el sector financiero necesita redefinir su modelo de negocio y que la transformación digital, con la inteligencia artificial, es una de sus palancas”.
Según González, esta tecnología se está aplicando tanto en la parte operativa como en la de negocio. “En la primera, para buscar eficiencia y reducir costes. Y, en la segunda, para mejorar la relación con el cliente, ya que se conseguirá más margen, cuanto mejor sea la relación con él”.
Pero González insistió en que el uso de la inteligencia artificial, que sin duda trae mejoras, conlleva una gestión del cambio a tener en cuenta, especialmente en el excedente de capacidad que se genera en las organizaciones “y esas personas tienen que aprender a desarrollar nuevas habilidades. Por otro lado, se precisan de nuevos perfiles (como los data scientists), difíciles de encontrar y que permitan evaluar la calidad de los datos que se utilizan para automatizar procesos. “Llevamos años acumulando datos, pero ahora que sabemos para qué queremos la información, igual sería más sencillo volver a capturarlos”.
La democratización de la tecnología
Subcontratar a terceros. Lola Serrano, directora en Banca y Seguros de Microsoft en España, defendió que no hay que inventar la rueda en el uso de la inteligencia artificial en el sector financiero. “Hay mucho empeño en las empresas en hacerse ellas todo, pero es como si ahora quisiéramos hacernos los coches en casa. Es importante hablar de la democratización de la inteligencia artificial, y las compañías deben perder ciertos miedos. Lo que tienen que determinar es qué hacen ellas (debería ser aquello que de verdad le da un valor diferencial a su negocio) y qué subcontratan, ya sean los algoritmos, los datos o incluso decisiones que me recomiendan”.
‘Cloud’ pública. Serrano destacó que para abaratar la adopción de estas tecnologías la cloud pública es fundamental. “Microsoft invierte 1.000 millones al año en ciberseguridad, y eso no lo puede hacer cualquier empresa. Y tenemos 8.000 data scientists desarrollando en el día a día. Al final, son como piezas de lego, y las empresas deben decidir cuáles hacen dentro y cuáles subcontratan. Yo creo que, al final, el coste va asociado a tu capacidad de hacer las cosas de forma diferente”. Aún así, Morales, indicó que en el sector financiero, la decisión sobre qué hacen interna o externamente las entidades también tiene un componente regulatorio. “Los supervisores señalan el riesgo de una excesiva dependencia de terceros”.
Moderación de precios. Fernando Valles, director de Riesgos Financieros y Regulación de Minsait (Indra), destacó, por su parte, que el 80% de la mejora en la predicción viene por los datos más que por el algoritmo. Y resaltó el cambio de paradigma en cuanto a la computación. “Los sistemas están habilitando el uso de algoritmos, algo que antes no se podía porque eran muy costosos”. Valles también avanzó que, a medida que haya en el mercado más data scientists, “algo que llegará con el tiempo”, la oferta y la demanda se igualará y los precios se moderarán. El ejecutivo recordó que Indra ofrece tanto consultoría como productos (chatbots, robótica...). “Queremos ser socios de nuestros clientes, y ofrecerles proyectos end to end”.
Modelos no supervisados. Chinchetru dijo que para no depender tanto de los datos (Fintonic mira para cada usuario hasta 800 datos diferentes), las empresas pasarán de usar modelos supervisados por personas a otros no supervisados, donde un algoritmo inventará la muestra y otro intentará identificar si es buena o no. “Eso nos permitirá enfrentarnos a nuevas situaciones”..