Sauter au menu Sauter au contenu
PraedictIA

Comment traiter le Big Data ?

Les plateformes de Big Data

Sans surprises, la majorité des grands fournisseurs de services infonuagiques offrent des solutions de gestion de données volumineuses. Amazon, Google, Microsoft, IBM, Alibaba et bien d’autres joueurs proposent des services permettant de couvrir l’ensemble du spectre du Big Data, à savoir :

  • La collecte de données volumineuses : les données volumineuses se caractérisent par leur grand volume, leur variété et leur importante vélocité. Dans une architecture infonuagique de Big Data, cette collecte de données se fait en temps réel (cours boursiers, données de capteurs sur des machines, etc.).

    Les outils de collecte de données volumineuses sont nombreux, par exemple :

    • Amazon Kinesis Firehose ;
    • Apache Kafka ;
    • Google Cloud Dataflow.
  • Le stockage de données volumineuses : dans le monde du Big Data, le stockage de données permanent ou volatil obéit à des règles et à des stratégies spécifiques permettant une gestion efficace, et efficiente des données qui affluent à haute vélocité, sous des formats différents (images, vidéos, HTML, etc.).

    Les approches de stockage des données volumineuses dépendent de la nature du flux de données :

    • Données en diffusion continue (Streaming data), comme Amazon Kinesis Data Stream et Microsoft Azure Stream Analytics ;
    • Stockage de données régulier, comme Amazon S3 et Microsoft Azure Blob.
  • Le traitement et l’analyse de données volumineuses : il existe un large éventail d’outils et de technologies capables d’explorer les données de Big Data. Le traitement des données volumineuses requiert la capacité de paralléliser plusieurs machines et de joindre les puissances de calcul distribuées pour produire un résultat en temps opportun. Il existe aussi des technologies d’analyse de données spécifiquement conçues pour un environnement de données volumineuses telles que :

    • Le traitement de données volumineuses : les hébergeurs infonuagiques sont souvent compatibles avec la plupart des technologies, comme Apache Hadoop et Apache Spark ;
    • L’analyse des données volumineuses : la plupart des fournisseurs infonuagiques offrent un large éventail d’outils d’analyse et d’apprentissage machine permettant l’extraction du contenu à partir des données volumineuses, comme Amazon SageMaker, Microsoft Azure Machine Learning Studio et Google Cloud AI.
  • La consommation des résultats : les résultats produits par les outils de traitement de données volumineuses se distinguent selon les besoins des organisations et peuvent se présenter sous la forme :

    • D’interface de programmation (API) permettant de fournir automatiquement à d’autres applications les connaissances et les données de résultats émanant de l’exploration des données volumineuses ;

    • D’outil de visualisation de données, comme Tableau Software, Microsoft Power BI et QlikView.