Mejora tu currículum con la mejor formación

9%

¿Qué quieres estudiar?

Carlos Gil Bellosta

Mayte Guillen

24 de septiembre de 2015

Carlos es un científico de datos. Estudió matemáticas y estadística en la Universidad de Zaragoza y Washington University en San Luis, EE.UU. Fundó datanalytics en 2005 y ha trabajado con datos grandes y pequeños desde entonces. Es un miembro activo de la comunidad de usuarios de R. Ha desarrollado varios paquetes, como los cada vez más populares rPython y pxR, y ha sido presidente de la asociación de usuarios de R (Comunidad R Hispano) desde su fundación en 2011.

Carlos Gil Bellosta
Foto: Carlos-Gil-Bellosta

El futuro del Big Data

En la empresa —particularmente en la empresa pero no solo en ella— es necesario tomar decisiones en situaciones de incertidumbre: por ejemplo, aunque solo tengamos una intuición vaga sobre cuáles van a ser las ventas en el ejercicio venidero, es necesario decidir hoy si ampliar capacidad o si contratar más personal. El de la decisión bajo incertidumbre es, precisamente, el gran tema de la estadística.

La experiencia, la corazonada, han servido y siguen sirviendo para navegar el mar de la incertidumbre. Muchas de nuestras decisiones personales están basadas en ella. Pero, producto del avance tecnológico, cada vez existen más situaciones en las que es posible argumentar alrededor de datos y usarlos para evitar los errores en los que en ocasiones incurre la intuición.

Los viejos del lugar oímos hablar de big data antes de que existiese el big data. En determinados sitios —el CERN, algunas grandes empresas, organismos públicos, etc.— manejaban volúmenes de datos increíbles. Lo que llamamos big data no es sino la democratización de las herramientas y técnicas para recopilar y procesar información: son cada vez más las organizaciones y son cada vez más los problemas a los que se enfrentan en los que existen datos alrededor de los que ponderar escenarios. La era del big data —¿los últimos diez o quince años?— ha puesto en manos de muchas organizaciones herramientas antes únicamente circunscritas a un puñado de instituciones especialísimas.

En estos primeros años de esta nueva era, el mundo del big data está todavía dominado por una visión ingeneril: aún supone un reto tecnológico crear la infraestructura de hardware y software para recibir y almacenar esos datos que, en tiempos, o bien se perdían o bien se acumulaban en ficheros (de papel) inaccesibles e inoperables. Eso está a punto de cambiar. A la par que la democratización del hardware y del software, se está produciendo una comoditización del conocimiento necesario para echar a andar y mantener debidamente engrasados los engranajes físicos del big data.

Pero hay más. El big data resuelve solo parcialmente el problema de la toma de decisiones. De hecho, pone de manifiesto otro: el déficit de expertos en, si se me permite el lugar común, convertir datos en información. Desde un punto de vista teórico, información es el inverso de la varianza (una medida de la incertidumbre) y esta decrece como 1/n (donde n es el número de datos). Pero esa reducción ni es automática ni —a pesar del empeño de determinados vendedores de soluciones software— automatizable: exige el trabajo de estadísticos o, como ahora se los llama, científicos de datos. A ellos corresponde aportar la parte del león del valor añadido.

La intuición y la corazonada desempeñan y seguirán desempeñando un papel fundamental en la toma de decisiones empresariales: es carísimo someter toda decisión al escrutinio de los datos. Pero, sin duda, el big data bien entendido, contribuirá —aunque solo sea por la vía del abaratamiento— a ensanchar los ámbitos en los que argumentos fundamentados en datos ayudarán a tomar mejores y más eficaces decisiones empresariales.