Del ‘big data’ a la empresa inteligente
Las compañías cognitivas utilizan solo datos de calidad Ese conocimiento se mezcla con información externa y desestructurada
Desde que en febrero de 2011 Watson, el ordenador inteligente de IBM, ganase al resto de concursantes de un popular programa televisivo de Estados Unidos, el mundo del análisis de datos se ha revolucionado. “Fue en ese momento cuando nos dimos cuenta de que los datos tenían un potencial real para cambiar la sociedad”, explicó el pasado jueves Lucía Álvarez, directora de IBM Analytics para España, durante el primer ciclo de Los grandes retos sociales, organizado por la Fundación de la Universidad Autónoma de Madrid (FUAM), en colaboración con IBM y del Grupo PRISA, editor de CincoDías.
Hoy el superordenador es 90 veces más rápido de lo que era hace cinco años. Entonces, por su tamaño, solo cabía en una gran habitación. Hoy ocupa el espacio de unas pocas cajas de pizza y su habilidad para analizar, entender, crear, innovar y resolver problemas es mucho mayor. “Y es esa capacidad cognitiva la que debe aplicarse en la empresa”.
¿Pero cómo puede ser cognitiva una empresa? ¿Cómo una organización puede entender su entorno para innovar, aprender de los errores o anticiparse a una situación? Las respuestas las ofrece Lucía Álvarez: “Gracias a los datos, que se han convertido en la nueva materia prima que debe ser explotada para generar valor”. Pero también gracias a lo que ocurre fuera de ese análisis del consumidor. Como ejemplo citó al sector médico, que cada año genera en torno a 700.000 documentos entre ensayos clínicos, pruebas o informes. “No hay médico en el mundo capaz de digerir toda esa información”, prosiguió Álvarez. Por eso, un sistema de datos que almacene, gestione y analice todo ese conocimiento ayudará a que a un enfermo se le pueda implantar un tratamiento acorde a sus necesidades, mucho más personalizado, y no uno genérico que quizá no le haga tan buen efecto.
Hoy en día, todo deja un rastro de información. El análisis de datos tiene el reto de combinar esa pista con todo lo que ocurre de puertas hacia afuera. Es decir, “poder mezclar información interna de la compañía, que se obtiene mediante transacciones, encuestas o conversaciones con los consumidores, con información externa a ella”, resumió Álvarez.
La ejecutiva de IBM ejemplificó esta metamorfosis hacia la empresa inteligente con el trabajo que su grupo está llevando a cabo junto a compañías aseguradoras, simplemente sumándole a los datos información meteorológica. “El clima influye en los negocios. Una aseguradora de coches que avise a sus clientes, en tiempo real, del daño que pueden sufrir por culpa de una tormenta, en lugar de gestionar siniestros predecirá accidentes”.
Las posibilidades, además, son mucho más extensas. El director general del Instituto de Ingeniería del Conocimiento-UAM, Alberto Barrientos, apuntó cómo en el sector sanitario, gracias al big data se puede predecir si una persona va a tener una enfermedad u otra; o en el sector de las eléctricas, cuánta energía eólica va a producirse en un periodo concreto. “En estos años se ha aplicado el big data a los datos estructurados. Ahora tenemos que hacer lo propio con la información desestructurada”.
Pero esto supone un verdadero reto para el sector, ya que la cantidad de datos que maneja es “realmente mareable”, afirmó Álvarez. Se producen 26.000 millones de predicciones diarias, y cada dos años, el ser humano crea tanta información como la que generó la humanidad hasta 2003, por poner dos ejemplos. Si a esto se le suma todo el conocimiento desestructurado, la tarea se vuelve realmente tediosa, por no decir imposible.
Es en esta tesitura cuando el origen y la naturaleza de los propios datos se convierten en el valor añadido del análisis. “La calidad de la materia prima condiciona todo lo demás”, argumentó Ramón Mahía, profesor de Economía Aplicada de la UAM y socio de SmartQuest, ya que la captura de datos fiables, buenos y útiles va a repercutir en todo lo que los expertos hagan posteriormente con ellos.
El análisis de conocimiento debe transitar, por lo tanto, de la cantidad a la calidad. El director de la Escuela Técnica Superior de la UAM, Javier Ortega, recordó que existen muchas formas de extraer la información. “Hay encuestas pésimas, estudios mal enfocados y técnicas de medición mal diseñadas”. Lo que se obtiene de ellos siguen siendo datos a los que se les va a aplicar tecnología, análisis y matemáticas, pero si la materia prima no es de calidad, “el resultado obtenido será erróneo”. Por esa razón, un requisito para conseguir que una organización sea realmente inteligente es que la materia prima con la que trabaje sea óptima.
Este, de hecho, ha sido uno de los escollos que la empresa ha encontrado en su transición a la cognición. “Muchas organizaciones han recopilado datos porque quedaba bien decir que hacías big data, pero después no sabían qué hacer con todo ese conocimiento”, señaló Julián Pérez, subdirector del Instituto de Predicción Económica Lawrence R. Klein de la UAM. Por eso, otra de las recetas para convertir en inteligente a una compañía es, antes de comenzar a almacenar información, “partir del caso de uso y fijar qué quieres conseguir. A partir de ahí ya puedes empezar a trabajar”, recomendó Lucía Álvarez. “Las empresas deben entender que el big data no es una fábrica de sueños”, añadió Barrientos.
De todo el potencial que requiere una empresa cognitiva, los datos más difíciles de recopilar son aquellos que se obtienen a través de lo que Ramón Mahía definió como análisis artesanal. “¿Qué hay de aquella información que tiene que ver con actitudes y opiniones de los consumidores, con sus intenciones, con su subjetividad? Hay datos que solo pueden obtenerse de forma manual”, recordó.
Una de las grandes ventajas es que el grueso de la sociedad ya es consciente de que el dato está presente en todos los lugares y en todos los movimientos. “Y aunque la mayoría de la gente no conoce cómo es el proceso del análisis de datos, sabe que ahí está, y por lo general, lo permite”, remarcó Pérez.
No debe dejarse de lado tampoco toda la información relativa a las emociones y a la interacción con el entorno, “ya que hoy todo es modelable y estructurable. Es posible saber qué siente el consumidor por su forma de mover el ratón del ordenador al estar en una página web, o al ver cómo mueve sus pupilas al mirar una pantalla a través de una cámara especial”, recordó Ortega. Pasada la fiebre inicial del big data, utilizar de forma efectiva todo este conocimiento es el único modo en el que las empresas pueden convertirse en organizaciones inteligentes.
Escaso interés por el dato
Como ocurre con cualquier herramienta disruptiva, el big data ha sido adoptado por muchas organizaciones que no han entendido el ritmo que el análisis de datos requiere. “Las culturas de las empresas están muy ligadas a los recursos y a los tiempos, pero el big data presenta mucha más incertidumbre. A veces arrancas y no sabes cuándo vas a acabar, o incluso en ocasiones no sabes si vas a obtener resultados”, explicó Alberto Barrientos.
Esta es una de las principales trabas en el mundo empresarial. Otra es que los perfiles que las compañías solicitan casi ni existen. “Ingenieros y analistas que se interesen por el dato no son muchos, y que además sean creativos e innovadores, muchos menos”, recordó Julián Pérez. Por eso, a las organizaciones no les queda más remedio que aceptar los ritmos de los campus.
La Universidad, eso sí, también debe evolucionar. “No solo tenemos que adaptar la tecnología, también tenemos que hacer lo mismo con las ideas y con las materias, ya que hoy existen conceptos nuevos”, recordó Ramón Mahía. Una solución posible es, poco a poco, empezar a formar en análisis de datos en diferentes disciplinas, ya que el big data, en la práctica, requiere de una gran versatilidad que solo puede ofrecer el conocimiento de varias materias. De momento, eso sí, hay que ir poco a poco. Tal y como explicó Pérez, al menos en la UAM, “solo el 10% de los egresados en Administración y Dirección de Empresas muestra algo de interés por el dato”.