serveur de données

Le stockage du Big Data : 7 facteurs clés

La Big Data représente un enjeu pour les entreprises de stockage des données. Ci-dessous les principaux facteurs que vous devriez prendre en compte.

 

Définir la Big Data est en fait bien plus compliqué que cela n’y parait. Certains font même le raccourci suivant : la big data représente une masse de données non structurées. Mais en réalité il s’agit plutôt de données fusionnées de plusieurs sources, à la fois structurées et non structurées, afin de créer un pool de données stockées qui peut par la suite être analysé afin d’en extraire des informations utiles.

Vous vous posez peut-être la question de savoir quelle est la taille de la Big Data ? La réponse des professionnels du stockage est la suivante : « Enorme, Gigantesque » ou « Pétaoctet», mais encore une fois, il existe plusieurs segments de taille. Certaines données deviennent inutiles après seulement quelques minutes d’exploitation alors que d’autres nécessites d’être conserver plus longtemps. Cela rends la gestion du cycle des données vraiment essentielle. Vous ajoutez à cela la mondialisation, qui apporte une clientèle des quatre coins du monde à une petite boutique américaine. La politique concernant la gestion des données personnelle rentrera en vigueur en Mai 2018 par l’impulsion de l’Union Européenne avec son règlement européen sur la protection des données. Ce règlement prévoit l’application de sanction, y compris pour les entreprises étrangères, à hauteur de 4% de leur chiffre d’affaires annuel par personne concernée.

Pour l’industrie informatique qui vient à peine de s’accommoder du terme de téra-octet, l’expression « pétaoctet de nouvelles données » représente dans leur imaginaire des sommes astronomiques et l’expression même est intimidante. Cela est particulièrement le cas avec le stockage RAID, jadis, un commercial aurait pu directement prendre sa retraite après avoir vendu un pétaocet de stockage ! Mais aujourd’hui les capacités de stockage ont évolué plus particulièrement depuis la démocratisation des logiciels open-source.

En fait, il y a eu presque un buzz lors du congrès Flash Memory en Aout 2017 lorsque les exposants affichaient leur petaoctet de données dans une simple baie informatique 19 pouces de 1 U. Avec leurs nouveaux coffrets à petits facteurs de forme, des sociétés comme Schroff vont bientôt pouvoir atteindre l’objectif de placer 1PB.

La compression des données aide à maintenir un niveau acceptable de données en supprimant par exemple les mêmes images contenu plusieurs fois dans un fichier Word. Les nouvelles méthodes de compression qui utilisent le GPU permettent de gérer des énormes débits de données.

La partie passionnante de la Big Data est vraiment une histoire de logiciel. Les données non-structurées sont généralement stockées dans un format key/data, au dessus du traditionnel bloc IO, qui est une méthode peu efficace et qui essaie surtout de masquer les problèmes de compatibilité.

Pour finir, le Cloud grand public propose de stocker d’importants volumes de données pour les particuliers. Evidemment leur capacité dit sans cesse s’adapter au besoins croissants des utilisateurs.

Laissez un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *