El Big Data llegó hace algunos años para unirse a otros de los elementos que están transformando el mundo por completo: inteligencia artificial, internet de las cosas, visión artificial, machine learning…
En líneas generales, big data consiste en tomar un conjunto enorme de datos y, utilizando algoritmos matemáticos, extraer correlaciones que a simple vista o con herramientas convencionales de procesamiento no se podrían detectar.
Es decir, se puede predecir el comportamiento de un sistema de interés a partir del tratamiento matemático de un conjunto de datos suficientemente grande.
La diferencia con el método científico es que no se parte de una hipótesis previa en busca de una causa por la que ocurre un fenómeno. Simplemente se analizan montones de repeticiones del fenómeno en busca de la relación que pueda tener con algunas variables.
Como resultado, se conoce qué ocurre, pero no por qué. La causa se podría inferir después, o no averiguarse nunca.
Pero la información obtenida del tratamiento de los datos es suficiente para tomar decisiones.
En 2009 Google desarrolló una aplicación que podía predecir con precisión la expansión de la gripe A en diferentes estados o incluso ciudades de Estados Unidos, con un plazo de tiempo mucho menor que el que necesitaban los organismos sanitarios. Se basó en el análisis de millones de búsquedas que los ciudadanos hacían en su portal, incluyendo miles de palabras clave que podían estar de una manera u otra relacionadas con la gripe A.
El modelo predecía qué ocurriría en un estado, sin saber el por qué. Suficiente para poder tomar medidas preventivas o reforzar los controles.
Mientras que la ciencia necesita disponer de conjuntos de datos precisos y ordenados, y conocer las variables que van a influir en el fenómeno, big data puede trabajar con datos imprecisos y no estructurados, y no parte de unas condiciones previas.
Big data se aplica para tomar decisiones de inversión, predecir fallos mecánicos en maquinaria compleja, establecer las mejores condiciones de compra de algunos bienes o servicios, etc.
La información contenida en los datos -invisible en un principio- es el mineral precioso que se busca hoy en día. Sin pretender averiguar las causas de lo que ocurre, solo predecir lo que va a ocurrir con el adelanto suficiente.
El pasado mes de abril asistí al segundo evento organizado por el IE Supply Chain Club en la sede madrileña del IE: «Aplicación de big data en la cadena de suministro».
Las primeras ponencias corrieron a cargo de personal de Airbus ( Manuel Santaolalla, Head of Procurement Operations Boxes and Fairings, y Luis Miguel del Saz, Head of Airframe Supply Management Spain). Explicaron la situación actual de Airbus respecto a las nuevas tecnologías y su gestión de una cadena de suministro de gran complejidad.
La compañía está inmersa en un gran proceso de digitalización, al mismo tiempo que refuerza sus operaciones con un principio: cero defectos, cero concesiones. Todo ello, mientras estandariza los procesos de una cadena de suministro global con un gran porcentaje de externalización.
Les sucedió Eduardo Zapata Coello, Contract Manager Aeorospace & Industry en Kuehne + Nagel, que describió cómo su compañía trataba de integrarse por completo en los procesos de Airbus, y destacó la visibilidad y la velocidad como elementos clave que su compañía aporta a la cadena de suministro de su cliente.
Documentación, trazabilidad, útiles adecuados y monitorización son las cuatro premisas fundamentales que utilizan para optimizar su servicio, para lo que utilizan nuevas tecnologías de manejo de información.
En resumen, dos casos de grandes compañías que se adaptan al avance de la tecnología para mejorar sus resultados.
La segunda parte estuvo centrada en las capacidades que el big data puede dar a empresas como Airbus o Kuehne-Nagel para optimizar sus cadenas de suministro.
Cristóbal Rodríguez Fraile, académico y data scientist en Analyticae Solutions, expuso qué es el big data y cómo la analítica avanzada sirve de herramienta para la gestión de las empresas.
Big data se puede aplicar cuando confluyen tres factores relacionados con los datos: volumen, variedad y velocidad.
Para rentabilizar una inversión en big data recomendó la contratación de servicios de análisis a empresas con un conocimiento tanto del negocio, como de la tecnología disponible y las técnicas analíticas para facilitar la obtención de conclusiones de negocio coherentes y útiles.
Cerró la mesa redonda Alberto Turégano Schirmer, Global BI & Big Data Architecture Head en Telefónica, que habló sobre “Luca transit”.
Se trata de un proyecto en el que la compañía utiliza los datos que obtiene de los terminales móviles de sus clientes para hallar pautas de comportamiento útiles para hacer operaciones de marketing, etc., lo que da como resultado la monetización de los datos.
Después de las ponencias hubo un interesante debate con el público asistente en el que se trataron diversos temas como técnicas estadísticas, aplicación de big data al entorno industrial, propiedad de los datos, aplicación de Six Sigma a big data o aplicaciones de bajo coste para iniciarse en el big data.
Y como conclusión del evento, un tiempo de networking con cocktail de cortesía para los asistentes, que pudimos seguir comentando estos y otros temas de manera distendida.
Con Cristóbal Rodríguez Fraile, especialista en big data.
Un evento muy interesante e inspirador acerca de tecnologías actuales de gran potencial transformador para las empresas.