Le Big data, c'est quoi ?

Le terme Big data signifie ,littéralement, grosses données ou plus simplement mégadonnées. Ces mégadonnées désignent un ensemble très volumineux de données qu’aucun outil classique de gestion ne peut travailler.

En effet, nous procréons environ 2,5 trillions d’octets de données tous les jours. Ce sont les informations provenant de partout : messages que nous nous envoyons, vidéos que nous publions, informations climatiques, signaux GPS, enregistrements transactionnels d’achats en ligne et bien d’autres encore.

Le Big data en chiffres

0 %
des données mondiales ont été créées au cours des deux dernières années
0
C'est le nombre (en milliards) d'objets connectés d'içi 2020
0 Mo
de données sera créé chaque seconde/personne en 2020

Les évolutions technologiques derrière le Big data

Il existe plusieurs solutions qui peuvent entrer en jeu pour optimiser les temps de traitement sur des bases de données géantes à savoir :
  • les bases de données NoSQL ;
  • les infrastructures du serveur pour la distribution des traitements sur les nœuds ;
  • le stockage des données en mémoire.

La première solution permet d’implémenter les systèmes de stockage considérés comme plus performants que le traditionnel SQL pour l’analyse de données en masse.

La deuxième, aussi appelée le traitement massivement parallèle, consiste en l’utilisation d’un grand nombre de processeurs (ou d’ordinateurs distincts) pour effectuer un ensemble de calculs coordonnés simultanément (en parallèle). 

La dernière solution accélère le temps de traitement des requêtes.

B2DIGIT & le Big data

Organisée autour de son pôle d’expertise BI & BIG DATA, B2DIGIT a choisi de se concentrer sur les solutions suivantes :

Cassandra
Hadoop
Mongo DB
Spark

Exemple de mission

Jean-Baptiste, Responsable technique Data :

« Je porte l’expertise Big data de B2DIGIT. J’ai en charge la construction du partenariat avec les éditeurs »