Gestión

‘Big data’, de la teoría a la práctica

Empresas de sectores tradicionales como el inmobiliario ya apuestan por estas técnicas

‘Big data’, de la teoría a la práctica
Thinkstock

El mundo de los datos ha entrado con fuerza en las empresas. La valiosa información que dejan los consumidores y clientes con cada paso que dan supone una revolución para las compañías: a mayor facilidad para acceder al conocimiento también es mayor la cantidad de información que puede recolectarse. Y a mayor cosecha, más amplio es el abanico de productos y servicios que las empresas pueden ofertar.

Sin embargo, como suele ocurrir siempre que un término se pone de moda, surgen los palos de ciego y muchas organizaciones, confusas por la fiebre del momento, intentan subirse al tren sin tener claro cuál es el camino. Ahora, aproximadamente tres años después de la irrupción del big data en el día a día de la sociedad y del mundo corporativo, diferentes compañías comienzan a utilizar esta herramienta con objetivos claros. Algunas de ellas, de hecho, pertenecen a sectores tradicionales que no se caracterizan precisamente por el uso de la tecnología.

Una de ellas es la consultora inmobiliaria JLL, que tal y como comenta su director de asesoramiento de carteras, Emilio Portes, ya ha pasado de la teoría a la práctica. “El big data ha sido un tema tan etéreo que terminaba quedándose en las ideas”. Por eso ahora, tras varios años investigando en la analítica de datos, la firma está comenzando a utilizar una aplicación propia que se sirve de este conocimiento y que, según elucubra Portes, “puede transformar un sector tan tradicional como el inmobiliario”.

¿Cómo puede el análisis masivo de datos trastocar por completo un sector como el inmobiliario? “Contando con una información detallada y concisa de cada edificio, de los pisos de viviendas, de los locales y de los aparcamientos o trasteros”, explica Portes. Así, la compañía inmobiliaria ha analizado todos los pisos de España y, a través de una aplicación propia, testea cualquier zona censal del país para saber de primera mano cuáles son sus características y atributos. “Lo bueno de esta herramienta es que acota mucho más cada zona y así se puede saber con mucha más precisión a cuánto está el metro cuadrado, cuál es el tipo de edificio que encaja más en un lugar o la tipología de gente que vive en cada barrio, atendiendo al número de habitaciones de cada vivienda, a si el edificio tiene ascensor o si la parcela cuenta con parque infantil o piscina”, describe.

  • Un mundo de posibilidades

Esto implica un arduo trabajo de análisis y monitorización, reconoce Portes. Pero las posibilidades son infinitas: “Gracias a este almacenamiento y estudio de datos, una empresa puede saber si el precio que se le pide por un inmueble es el adecuado, de la misma forma que una firma inmobiliaria encargada de una promoción cualquiera averigua qué edificio pega más en la zona en la que tiene que construir”. Pero esto va mucho más allá, continúa el directivo, ya que el big data se vuelve mucho más potente cuando es utilizado por los expertos de un sector para mejorar su negocio. En JLL, por ejemplo, beben en un 60% de datos ajenos a la organización, “como instituciones públicas y otras empresas”. El 40% restante se sirve de datos propios que maneja la inmobiliaria. De esta forma, por ejemplo, el big data permite segregar por completo un edificio entero, “ya que no es igual el precio de un décimo piso con vistas a la calle Serrano de Madrid que un primero de las mismas dimensiones y del mismo inmueble con vistas a un patio interior”.

‘Big data’, de la teoría a la práctica
Thinkstock

Pero si algo llama la atención del análisis de datos a las empresas es su capacidad para poder establecer tendencias y adivinar el futuro. Desmembrar por completo un barrio posibilita saber los cambios que está viviendo en materia demográfica, “viendo las edades de sus habitantes, el tipo de servicios que solicitan o su clase social”. De esta manera, las empresas pueden anteponerse a las necesidades de una zona, así como los servicios que mejor acogida pueden tener en cada lugar.

El big data es así, predictivo. Por eso, otro de los sectores que está apostando por él es el turístico. Durante 2015, España recibió 68 millones de turistas, a los que se sumaron otros 40 millones que no pernoctaron, según datos de la OIT, “y el big data puede potenciar estas cifras si las empresas y los gestores turísticos toman decisiones que permitan aumentar la capacidad productiva, impulsar la competitividad y evaluar el retorno de las acciones de fomento de la actividad”, explica el presidente de la Sociedad Estatal para la Gestión de la Innovación y las Tecnologías Turísticas (Segittur), Antonio López de Ávila.

Precisamente para ello, esta sociedad dependiente del Ministerio de Industria, Energía y Turismo lanzó el Sistema de Inteligencia Turística, para captar toda la información relevante que los visitantes dejan antes, durante y después de su estancia. “Trabajamos con proveedores de información útil, como bancos o compañías telefónicas. Así, en función de la conexión de los teléfonos o de los movimientos en los cajeros podemos saber la nacionalidad, edad y perfil sociológico de cada turista”.

De esta forma, apunta López, hoteles, restaurantes, museos, comercios y el sinfín de empresas que intervienen en el sector “pueden adecuar su oferta y sus productos en tiempo real, dependiendo del tipo de visitante que vaya a haber cada día en su zona. Podemos saber qué planifica el turista antes de venir, qué hace al llegar y, si ha cambiado sus planes, ver por qué lo ha hecho”.

Uno de los proyectos piloto de la organización ha sido monitorizar el centro de Badajoz. “Por eso, viendo la conexión wifi del casco histórico de la ciudad, sabemos los móviles que se conectan a la red y vemos de qué nacionalidad son. Un comercio puede, por lo tanto, cambiar sus productos a tiempo real dependiendo de si delante de su escaparate va a pasar un grupo de turistas chinos o de turistas franceses”.

‘Big data’ para predecir terremotos

Terremotos como el que la semana pasada asustó a Japón no tienen mayor relevancia. Las consecuencias de otros, sin embargo, son realmente catastróficas. El análisis de datos se erige como una de las herramientas que puede ayudar a minimizar sus impactos. Equake es un sistema ideado por un equipo de investigadores de la Universidad Politécnica de Valencia que trata de convertir los teléfonos móviles en pequeños sismógrafos.

En las tripas de los smartphones habita un pequeño chip llamado acelerómetro, encargado de hacer rotar el móvil cuando el usuario quiere ponerlo en posición horizontal, entre otros cometidos. “La idea es que este sensor recoja los movimientos anómalos y envíe la señal a un servidor de zona, en el que se procesan y almacenan las alertas transmitidas por el conjunto de móviles de su misma área”, explica el coordinador Manuel Esteve. Por la posición de los teléfonos y el instante de tiempo en el que se detecta la aceleración se puede estimar “si se trata de un terremoto, la dirección en la que se desplazan las ondas y la velocidad de propagación de las mismas”, y así ganar un plus de unos 12 segundos antes del seísmo.

También para salvar vidas está implementándose el big data en el sector médico. La directora de desarrollo de negocio en ciencias de la vida de Atos, Natalia Jiménez, comenta cómo el análisis y almacenamiento de datos está haciendo posible la secuenciación del genoma humano, “que ocupa aproximadamente unos 150 gigabytes”. De esta forma, prosigue, se puede integrar el dato en el entorno o historial médico de cada paciente “y así diseñar alarmas clínicas, sugerencias de fármacos o cuáles son los tratamientos más útiles para cada persona”.

Todo se basa, resume, en cumplir con la velocidad que la medicina exige y que el análisis de datos proporciona: “Hay enfermedades como el cáncer que exigen rapidez, y la secuenciación del genoma ofrece esta celeridad para poder implementar en cada paciente un tratamiento personalizado, algo que ya se está haciendo en lugares como el Centro para la Investigación Genómica y Oncológica, Genyo, de la Universidad de Granada y Pfizer”, donde tuvo lugar una conferencia el pasado jueves en la que diferentes expertos disertaron sobre el tema.

El futuro se antoja, augura Jiménez, en una medicina predictiva, preventiva y personalizada: “El big data cumple la regla de la velocidad, la variedad, el volumen y la veracidad, algo que encaja perfectamente con las ciencias de la vida, y más en concreto con la medicina”. Por eso, todos estos adelantos que ya están a la orden del día y que avanzan con cada vez más fuerza, “únicamente son posibles con herramientas de almacenamiento y análisis de datos como estas. La secuenciación del genoma a gran escala y gran velocidad, que es desmembrar por completo la tipología y orden de los genes, solo es posible hacerla con estas tecnologías”.

Normas