_
_
_
_
Tribuna
Artículos estrictamente de opinión que responden al estilo propio del autor. Estos textos de opinión han de basarse en datos verificados y ser respetuosos con las personas aunque se critiquen sus actos. Todas las tribunas de opinión de personas ajenas a la Redacción de EL PAÍS llevarán, tras la última línea, un pie de autor —por conocido que éste sea— donde se indique el cargo, título, militancia política (en su caso) u ocupación principal, o la que esté o estuvo relacionada con el tema abordado

Inteligencia artificial y blanqueo de capitales

Los casi 3.000 notarios españoles detectaron 275 operaciones con indicio de blanqueo de capitales durante el año 2007, más del doble de las 126 que este mismo colectivo notificó al Servicio Ejecutivo para la Prevención del Blanqueo de Capitales (Sepblac) en 2006.

Es difícil exagerar el daño que los blanqueadores infringen al Estado, así como el riesgo reputacional que arrastran las entidades financieras (recuérdese el caso Banco Espírito Santo o BNP). Pero, ¿cómo detectar los comportamientos fraudulentos?

Las herramientas disponibles en el mercado han de enfrentarse a una serie de hechos de naturaleza compleja, como son la creatividad de los blanqueadores, un entorno cambiante y la visión necesariamente parcial e incompleta que de esta problemática tienen las entidades de crédito. En efecto: ¿de qué artimañas nos dotaremos para avizorar las ponzoñosas intenciones de la bestia informe? ¿Cómo adelantarnos a su zarpazo?

Existen una serie de técnicas clásicas (y necesarias) para detectar patrones de blanqueo, tales como los mecanismos basados en reglas para filtrar transacciones sospechosas apoyándose en la experiencia de la entidad o el análisis discriminante, que construye perfiles estadísticos de cuentas y transacciones, diferencia por grupos homogéneos y extrapola predicciones a partir de la segmentación obtenida con el tratamiento estadístico de los datos.

No obstante, la mutabilidad y el carácter camaleónico de los blanqueadores hacen que para cazarlos sea conveniente añadir a las técnicas anteriores otro tipo de enfoques, como son los de inteligencia artificial. æpermil;stos representan un paso más evolucionado del análisis discriminante, apropiados para abordar problemas donde los patrones son complejos y la relación entre las variables es de carácter no lineal. El conocimiento queda incorporado en las bases de datos y en máquinas de aprendizaje una vez han sido entrenadas. Los métodos que más vienen empleándose en blanqueo son de emulación biológica, en concreto las redes neuronales y los algoritmos genéticos, apoyados ambos en la lógica difusa.

Las redes neuronales imitan la forma de procesar la información de nuestro cerebro. Se trata de suministrar información a la neurona artificial a través de cada una de las variables de entrada (al igual que nuestros sentidos proporcionan información filtrada a nuestro cerebro). Cuando se supera un umbral, la neurona se activa. Para que la red neuronal descubra las conexiones entre los datos habremos de entrenarla (de la misma manera que nosotros aprendemos las cosas por repetición). Para ello, se utiliza de manera reiterada un algoritmo de aprendizaje que modifica los pesos de las variables (que en el inicio de la red tendrán un valor aleatorio), tratando de encontrar los que consigan que, con los datos suministrados, se obtengan los resultados requeridos (de manera similar a como, a través de ensayo y error, nuestras estructuras neuronales van mejorando sus respuestas al entorno).

Los algoritmos genéticos buscan soluciones basándose en la selección natural y los mecanismos de la genética. Estas técnicas copian el algoritmo de selección propio del decurso evolutivo, esto es, dejan que las mejores soluciones se crucen entre sí generando soluciones aún mejores (del mismo modo que la evolución asegura a largo plazo la supervivencia de los más aptos y adaptados a su medio). Requieren una población inicial, o conjunto de soluciones factibles al problema, a la que aplican los mecanismos de selección, recombinación y mutación (que generan o destruyen información en los individuos de la población).

La lógica difusa o borrosa se combina con los métodos precedentes para obtener unos resultados más ajustados y flexibles, que reflejen mejor el sensado de la naturaleza (frecuentemente pensamos en términos probabilísticos, como cuando intuimos que alguien es una buena persona). Se trata de una extensión de la lógica convencional (booleana) para manejar el concepto de verdad parcial -valores de verdad entre absolutamente cierto y absolutamente falso-. Sus principales ventajas son la flexibilidad y la tolerancia a la imprecisión de los datos.

Por último, y sin desmerecer en absoluto la validez de los métodos descritos, conviene recordar que no son inmunes a las limitaciones del análisis estocástico; por lo que no está quizá de más citar como herramienta valiosa el sentido común, ya que, generalmente, la sensación de que algo huele a podrido en Dinamarca cuando tratamos con un cliente es un excelente predictor…

César Pinto. Socio de Cumbria Consulting

Archivado En

_
_