Economía de la información: el reto de la gestión del «big data»

El big data (macrodatos o datos masivos) está aumentando la importancia y el valor añadido que aporta la información frente a otros factores de producción, como el trabajo o el capital. A través del aumento de la velocidad, cantidad, detalle y calidad de la información, el big data permite una gestión más eficiente de los recursos disponibles y anticipar y personalizar los servicios y productos ofrecidos a los usuarios. La OCDE identifica la innovación facilitada por la información como uno de los pilares del crecimiento y el bienestar en el siglo XXI. Cada vez más, los agentes que no se incorporen a esta revolución de la economía de la información se estarán quedando en una posición de desventaja competitiva en el mercado.

En este sentido, está creciendo la literatura sobre los retos que plantea incorporar el big data al día a día de la gestión empresarial. Es un reto al que también se enfrenta la administración para la mejora de la gestión de los servicios públicos (el FMI  proporciona una buena síntesis, aplicado al caso de las estadísticas). La administración debe abordar además los desafíos regulatorios que impone un mercado con un creciente peso de la economía de la información. En otras entradas hemos visto parte de estos retos regulatorios, por ejemplo, en la política de competencia (aquíaquí), el sector financiero (fintech), o la política fiscal.

Las estimaciones sobre el creciente peso del big data en la economía y sobre su potencial para mejorar el crecimiento no son aun concluyentes, aunque, en general, apuntan a una contribución significativa. Los servicios de investigación del Parlamento Europeo resaltan algunas estimaciones, relativas a su impacto sobre el conjunto de la economía, incluyendo: un mayor crecimiento de la productividad de las empresas que aplican big data sobre las que no (entre un 5 y 10 % mayor), un mayor crecimiento del PIB, que podría suponer hasta un 1.9 por ciento más en el crecimiento acumulado de la UE entre 2014 y 2020, o una reducción de los costes administrativos en el sector público entre un 15 y un 20%, a través de mayor eficiencia y mayor recaudación (menor fraude).

La propia industria de la información como sector en sí mismo, podría alcanzar un crecimiento medio anual del 23% entre 2014 y 2019, con unos ingresos que podrían aproximarse a los 200,000 millones en 2019, generándose más de la mitad en EEUUU, que está a la cabeza de la incorporación de esta revolución. A medida que el big data se convierte en un factor con mayor valor añadido se aumenta su comercialización y las empresas que ofrecen los servicios de su gestión, los cloud-vendors (con Amazon, Google y Microsoft a la cabeza). No es una opción quedarse atrás.

Pese a que el término se usa con frecuencia, no existe una definición de big data comúnmente aceptada. En general, se refiere al análisis de un gran volumen de datos mediante el uso de nuevas tecnologías de la información y las telecomunicaciones. La novedad se refiere a las características de esa información que se suele definir en términos de “tres uves”: alto “volumen” de datos, alta “velocidad” de creación de los datos y alta “variedad” del tipo y las fuentes de datos. Más recientemente se añaden otras dos uves asociadas a los riesgos del big data: los problemas de la “veracidad” (sesgo de los datos) y la “volatilidad” de los datos ligados, por ejemplo, a los cambios en las tecnologías o los modelos de negocio.

El big data también puede aproximarse a partir de las fuentes de los datos para lo que es común seguir la clasificación de la UNECE, que distingue tres fuentes principales: (i) redes sociales, como por ejemplo, Facebook, twitter, instagram, videos, email, blogs; estas redes proporcionan datos generados por humanos (los usuarios) y, en general, es información poco estructurada. Y otras dos fuentes de información en general bien estructurada, la que se obtiene a través de (ii) los sistemas tradicionales de datos procesados por empresas (transacciones comerciales, registros bancaros) o agencias públicas (datos médicos o fiscales); o (iii) la que se obtiene a través del “internet de las cosas”, es decir datos procesados por máquinas, derivados por ejemplo de sensores (GPS, sensores polución), cámaras de seguridad, coches o imágenes de satélite.

El big data aporta nuevos elementos para la toma de decisiones de los agentes que permiten  mejorar la eficiencia. El FMI lo sintetiza en tres elementos principales, dos de ellos aplicables a empresas y sector público: (i) acelera el input y la calidad de las  reacciones de los agentes con información más granular, lo que permite mejorar los tiempos, calidad y precisión de respuesta en el proceso productivo o en la toma de decisiones públicas. (ii) El big data aporta nuevas preguntas y nuevas posible respuestas. A diferencia de las estadísticas tradicionales que se elaboran en respuesta a una pregunta, el big data es de naturaleza más espontánea, en el sentido de que aparece como el subproducto de otras actividades gracias al procesamiento de los datos que permite las nuevas tecnologías de la información. En muchos casos, describe una realidad que no había sido tenida en cuenta por los agentes –por ejemplo, patrones socioeconómicos, movimientos de población, situaciones de estrés en mercados inmobiliarios o financieros– y, con ello, nuevas respuestas.

(iii) Un tercer elemento que afecta al sector público se refiere a la utilidad del big data como complemento a las estadísticas oficiales. El big data aporta sobre todo correlaciones y nuevas perspectivas, por ejemplo, tendencias, movimientos o sentimientos, en contraste con la información real que aportan las estadísticas tradicionales (el cuadro refleja algunos ejemplos). Plantea además un problema de calidad, como sesgos a favor de la población usuaria de las fuentes del big data (en perjuicio de los no usuarios), rupturas de las series a medida que varían las fuentes. En la UE, se ha acordado un memorando para la  incorporación del a las estadísticas oficiales en combinación con fuentes tradicionales.

Algunos ejemplos de uso estadístico de big data

Fuente

Uso

LinkedIn Uso de datos granulares para publicar datos de diversidad de género (Karani, 2017)
Google, Facebook Uso de las búsquedas en Google y Facebook para predecir liquidez en el mercado bursátil (Arouri et al) y para construir índices de confianza y predecir movimientos en bolsa (Karabulut, 2013)
Swift Uso de datos de transacciones interbancarias vía Swift para estimar flujos comerciales y movimientos de capital internacionales y la actividad económica
Twitter Uso para nowcast de precios de alimentos (UNGP, 2014)
Comercio online Cruce de datos de precios para estimar inflación (MIT Prices Project)
Redes colaborativas y sociales Predecir riesgo geopolítico, protestas sociales, huelgas o resultados electorales (Predata, 2016)
Datos de roaming de móviles Uso por parte de autoridades de estadística de Estonia para sustituir encuestas de viajes y turismo en frontera
Fuente: FMI

La incorporación del big data y su gestión afecta a tres dimensiones principales: la gobernanza, los aspectos relativos a la formación y la protección de los datos. Respecto a la gobernanza, Thomas Davenport (uno de los principales referentes en big data) propone (junto con Leandro DalleMule) un esquema de “fuente” de datos uniforme, que sin embargo puede tener múltiples “versiones” (single source of truth and multiple versions of the truth). En lugar de compartamentalizar los datos entre departamentos o líneas de negocio, son más productivos y eficientes si se agrupan en un único repositorio con todos los datos estandarizados. Ahora bien, la información, es decir, la interpretación de los datos debe tener múltiples versiones en función del departamento que esté trabajando con los datos –por ejemplo, marketing, atención al cliente, proveedores o venta al público–.

En su modelo señalan que las empresas reforzaran más fuente o versiones, en función de que su estrategia frente al mercado sea más de defensa o de ataque (símil deportivo). La prioridad en las empresas más defensivas debe ser reforzar la fuente, la normalización y la seguridad de los datos, lo que se da sobre todo en sectores altamente regulados. Las empresas más de ataque deben apostar por la flexibilidad y poner más énfasis en la multiplicación de versiones o interpretaciones, lo que permitirá idear nuevas estrategias, sin perjuicio de que pueda haber una mayor imprecisión en los datos. El sector publico pertenecería al primer grupo con mayor paso aún de la seguridad. En este sentido, Alemania está intentando lanzar una infraestructura federal para datos en nube, el Bundes-Cloud.

En formación, el modelo que está primando es el de equipos multidisciplinares para obtener el mayor fruto del big data que combinan distintos tipos de expertise, incluyendo: estadísticos (proceso de datos), especialistas en tecnología de la información (aplicación de las últimas tecnologías de programación y telecomunicaciones), especialista en el servicio o producto en cuestión (interpretación de los datos) y gestores (dirección del proyecto y estrategia de uso y comunicación de los datos). Un perfil multidisciplinar que combine varios de estos elementos, como el conocimiento cuantitativo y la comprensión del comportamiento humano, está de moda en el sector.

Las empresas tienen que establecer también mecanismos de seguridad y protección de los datos individuales. En este ámbito, de nuevo las nuevas tecnologías con sistemas criptográficos como el blockchain (que veíamos aquí) están llamadas a jugar un papel creciente. En este ámbito la UE ha optado por una regulación especialmente restrictiva comparado con otras jurisdicciones. La nueva regulación de protección de datos, que será efectiva a partir de mayo de 2018, refuerza los elementos de privacidad y protección de datos, incluyendo el derecho de los ciudadanos a conocer los datos personales que se utilizan y el uso que se les da, o el derecho al olvido, a que se borren datos personales. La regulación incluye sanciones por incumplimiento y afecta a todas las empresas que obtengan datos de residentes en la UE, con independencia de su localización, y limita la exportación de datos fuera de la UE si no está sujetos al mismo tipo de protección.

Las “tres uves” siempre habían sido veni, vidi y vici, probablemente, también muy oportunas aplicadas a la necesidad de incorporar al big data, si no queremos quedarnos atrás.