_
_
_
_

Análisis masivo de información en tiempo real

En las gerencias de las empresas se ha impuesto, al menos en algunas culturas, la creencia de que los conceptos grandes cantidades de datos más análisis exhaustivo en tiempo real son irreconciliables entre sí. Por este motivo, cuando alguien quiere crear sistemas de análisis de su información que les permita tomar mejores decisiones suele empezar creando data-warehouses donde recopilar, crear datos resumen elaborados a partir de otros datos básicos, etcétera. Una vez que tiene el data-warehouse implementa los mecanismos para hacer y visualizar la información allí contenida para poder tomar las decisiones que se querían en un principio. Lo descrito es un proceso complejo, largo y muy costoso, y la mayoría de las veces no resuelve el problema que se tenía al principio: analizar la información que se ha generado de manera masiva para tomar decisiones acertadas, es decir, obtener conocimiento útil de la ingente cantidad de información almacenada.

Dejemos por un momento los sofisticados sistemas informáticos de cualquier empresa y fijémonos en otro sistema que realmente es eficaz en el tratamiento de grandes cantidades de información para la obtención de conocimiento útil y en tiempo real: el cerebro. Cualquier disco duro actual puede guardar una información muchísimo más exacta que la que es capaz de guardar el cerebro, cualquier procesador actual puede procesar instrucciones a una velocidad mucho mayor que las neuronas que forman el sistema nervioso, pero, sin embargo, el cerebro sí es capaz de analizar en tiempo real las señales que está recibiendo y responder de manera adecuada a esa situación, manejando múltiples variables y en contextos altamente cambiantes.

Preguntémonos por qué no podemos analizar en tiempo real grandes cantidades de información obteniendo conocimiento muy importante para nuestro negocio, aplicando la filosofía actual de crear bases de datos transaccionales, data-warehouses y datamarts con sus correspondientes sistemas de visualización. Si aplicamos la filosofía con la que funcionan los sistemas nerviosos biológicos basados en el aprendizaje a partir de la experiencia y usamos dicho aprendizaje para dar respuestas correctas ante nuevas entradas, y predecir hacia dónde va a evolucionar una determinada situación, nos encontramos con la rama de conocimiento denominada inteligencia artificial aplicada a la obtención automática de conocimiento por aprendizaje.

Podemos estar pensando que esto de la inteligencia artificial queda muy bonito, pero sólo sirve para escribir artículos como éste o hacer alguna que otra película; veamos ejemplos reales.

Nos hemos parado a pensar cómo el buscador de internet más usado es capaz de darte millones de enlaces en un tiempo ridículo y además sugerirte otras palabras de búsqueda porque piensa que puedes haberte equivocado. Y todo esto, en remoto, se tarda más en buscar cualquier cosa en tu disco duro que en la base de datos de Google; esto es posible porque aplica técnicas de aprendizaje y no sólo se dedica a guardar información en repositorios de información y a hacer búsquedas más o menos indexadas y rápidas sobre ellos.

Otro ejemplo mucho más próximo y que ha aparecido en los medios de comunicación: la detención de un jefe de ETA gracias, al parecer, a la información sobre comunicaciones por correo electrónico pasada por una agencia de inteligencia americana al CNI, proveniente del escaneo automático de esos mensajes electrónicos. Nadie puede pensar que esas comunicaciones son todas vistas por personas, sino que existen softwares que una vez captadas las comunicaciones son capaces de evaluar si ese correo en concreto es interesante o no, y no sólo basándose en la sintaxis concreta de las palabras, sino en la semántica del conjunto de todas las palabras. Este software de lectura automática de correos electrónicos ha aprendido de la experiencia qué correos pueden ser interesantes y cuáles no.

En resumen, para cumplir el objetivo de analizar gran cantidad de información y obtener respuestas útiles y rápidas a nuestros problemas de conocimiento sobre la realidad de mi negocio no es necesario gastar grandes cantidades de tiempo y recursos en crear cada vez repositorios de información con más datos y sistemas de consulta más sofisticados, quizá deberíamos implementar procedimientos capaces de aprender de manera automática de los datos actualmente guardados en diferentes bases de datos.

Fernando Pavón. Director tecnológico de Gamco

Más información

Archivado En

_
_