Les 3 commandements d’une solution Big Data

Go big, Make Big Data”. Effet de mode, buzzword, argument marketing ou véritable solution professionnelle ? Les technologies Big Data offrent à présent aux entreprises la possibilité d’exploiter leurs données numériques dans des temps très courts et sur des volumes chiffrables en téraoctets (To). L’objectif étant de réinvestir dans la connaissance des informations stockées par les entreprises, qui jusque là ne faisaient l’objet d’aucun traitement et qui en définitive, peuvent s’avérer décisives dans une optique d’innovation, de développement marketing ou de stratégie décisionnelle. Cependant, une solution Big Data doit répondre à un certain nombre de critères techniques et fonctionnels. Voici quelques points de repère pour mieux s’y retrouver.

Commandement N°1 d’une solution Big Data : La scalabilité

Toute solution Big Data doit pouvoir monter en charge de façon linéaire par l’adjonction de serveurs ou de matériel. Cela doit se faire en adéquation avec l’architecture existante sans saut technologique majeur.

Les solutions les plus onéreuses ne sont pas nécessairement les meilleures (Oracle, IBM, etc). Certains vous conseilleront d’opter pour un système plus complet, à forte capacité de montée en charge.

L’important reste dans la linéarité et non dans la montée en charge. Cette linéarité de puissance de stockage et de traitement peut s’étendre de 1 To à 100 To de données sans que l’on remette en cause les limites de plafonnement des performances.

Commandement N°2 d’une solution Big Data  : La facilité de déploiement

Une solution Big Data doit être facile et rapide à déployer. On doit pouvoir déployer et ajouter de la puissance à la demande sans se soucier de la complexité du système informatique qui entre en jeu. Il faudra ainsi privilégier les solutions ouvertes et intégrables à des environnements Cloud afin de bénéficier d’outils de déploiement à la demande (Firmware, OS, Stack logicielle), tout comme se rapprocher d’un prestataire Big Data travaillant sur les technologies ciblées.

deploiement solution big data

Nos expertises pour accompagner votre projet Big Data

Commandement N°3 d’une solution Big Data : Le cloisonnement des données

Une solution Big Data devra être capable d’accueillir des volumes importants de données (voir notre infographie sur le Fast Data) et de différentes sources (clients, services). Dans une démarche de qualité, on devra constamment garder à l’esprit l’importance du cloisonnement des données et de leurs traitements pour chaque utilisateur du système. En effet, chaque utilisateur peut théoriquement bénéficier de la puissance maximale de la plateforme, mais ne disposera que de la puissance qui lui est attitrée en cas de partage des ressources. De même, la sécurité des accès et la confidentialité des données restent primordiales, là où ces points peuvent être volontairement omis de par les difficultés et les coûts importants mis en œuvre.

Il est possible de trouver des solutions propriétaires (voir Cloudera Data Platform) qui répondent à ces trois commandements sur le marché. Il faut cependant ne pas écarter des solutions open source, telles que Hadoop, Ansible, Terraform et d’autres encore, pour pouvoir les associées entre elles au sein d’une architecture Big Data hébergée dans le cloud ou on premise.

Bien qu’une solution open source ne pourrait à elle seule remplir les conditions des 3 commandements évoqués ici, c’est très probablement un mix de technologies opensource qui permettra de répondre aux particularités d’un projet big data.

Partager

Inscrivez vous à la Newsletter

Restez au courant de nos dernieres actualités !