Historia del Big Data


Historia del Big Data

Si buscamos en Google el término Big Data, encontraremos diferentes tipos de conceptos, entre los cuales veremos de forma repetida palabras como «masivos», «gran escala», «grandes conjuntos de datos», «enormes cantidades de datos», “Petabytes” y “Exabytes”.

¿Sabes cuanta cantidad de información contiene un Exabyte? La respuesta es un billón de Gigabytes. Una cantidad de datos inimaginable para nosotros como humanos, pero no para una máquina. Las grandes compañías como Google suelen hablar de Petabytes y Exabytes de información con mucha frecuencia, y es algo normal por la cantidad de datos que manejan. En cambio, si rebajamos la escala y nos ponemos a hablar de pymes, lo común sería hablar de Gigabytes y Terabytes. Es decir, de Small Data.

Las necesidades de gigantes como Google fueron incrementándose con el paso del tiempo. En un momento dado, se tuvieron que plantear qué hacer con tanta cantidad de datos y cómo sacar provecho de los mismos. Esto les llevó a comprender que, si analizaban toda la información que recopilaban, podían llegar a entender mejor el mercado y a crear estrategias personalizadas en base a esos datos con el objetivo de satisfacer mejor las necesidades de los consumidores.

Así, toda esa información se convirtió en la nueva clave para tomar decisiones inteligentes y acertadas minimizando riesgos. Además, lo más importante, podían predecir el comportamiento de los consumidores y estar en el momento exacto en el que quisieran satisfacer alguna necesidad.