L’historique du Big Data
La nécessité de mettre en place des outils de traitement de données
L’histoire du Big Data remonte à bien avant le temps des ordinateurs modernes. Plusieurs statisticiens, constatant une croissance exponentielle des données, ont souligné la nécessité de mettre en place des outils de traitement de données. Déjà en 1944, l’écrivain et inventeur américain Arthur Fremont Rider, voyant la rapidité avec laquelle se développaient les librairies universitaires américaines, publie, dans le livre The Scholar and the Future of the Research Library, qu’en 2040, il sera nécessaire d’avoir des étagères d’une longueur de plus de 9,6 kilomètres pour contenir les 200 millions de volumes publiés.
Au fil des ans, une certaine adéquation s’est établie entre les inquiétudes quant à la croissance du stockage des données, l’amélioration des capacités de stockage et de calcul des ordinateurs et les données générées par une population de plus en plus connectée et intéressée par le monde du numérique.
La croissance exponentielle des données
Avec la popularité d’Internet, la croissance exponentielle des données générées s’accélère. En 2000, les chercheurs de l’université de Californie, à Berkeley, estiment, dans la revue How Much Information?, que les données numériques générées par l’humanité équivalent à 11,5 exabits, ce qui leur semble déjà gigantesque. Après 2010, le volume des données générées explose avec l’arrivée de l’Internet des objets, l’accessibilité des appareils mobiles et la popularité des réseaux sociaux (Facebook, Instagram, Snapchat, etc.). Parallèlement, cette nouvelle réalité numérique occasionne un ajustement des outils de traitement et d’exploitation des données volumineuses.