Les datacenters à l’heure du Big Data

Gratuit
Recevez toutes nos informations et actualités par Email.

Entrez votre adresse email:

Confrontés aux enjeux posés par le Big Data, les datacenters doivent faire un saut technologique. Une bonne nouvelle pour leurs clients, et une reconfiguration du marché pour les acteurs du secteur.


40 zettaoctets de données, soit 40000 milliards de gigaoctets, devraient être produites par l’Internet des objets en 2020, selon le cabinet IDC. Une illustration parmi d’autres de l’expansion colossale et apparemment sans limite des flux de données générées par les applications quotidiennes. Si le traitement de ce « Big Data » est un enjeu de taille à venir, la première question qui se pose aux entreprises est avant tout celle du stockage de toutes ces informations.

Pendant des années, le système de stockage se basait sur la définition d’un volume prédéterminé. Par conséquent, si une entreprise ne connaissait pas à l’avance l’espace requis, les datacenters auxquels elle s’adressait étaient bien en peine de lui formuler une proposition de stockage précisément adaptée à ses besoins. Finalement, le mieux était de « compter large », d’autant plus que les données devaient être dupliquées au fur et à mesure des changements de génération des disques durs utilisés pour assurer une continuité de lecture. Voilà comment on est arrivé à construire ici ou là des grandes fermes de serveurs.

Mais depuis quelques années la donne a changé, grâce à une rupture technologique de taille : l’utilisation d’algorithmes de stockage élastique. L’idée est de ne plus recourir à un système physique forcément limité, mais d’utiliser un système logiciel. On « éclate » alors les données dans des endroits différents et c’est un logiciel qui recombine ces fragments épars en une information cohérente. Une technologie inventée par les hébergeurs américains et qui permet non seulement de stocker les données sans limite, mais aussi d’adapter au mieux les offres aux besoins. L’offre « Stockage Cloud » chez CELESTE propose ainsi une facturation à la consommation : 10 euros par Téra de données et par mois. Une simplicité appréciée par les entreprises et collectivités clientes.

Aujourd’hui, le marché des datacenters est donc en train de se transformer. La demande s’oriente désormais vers un nombre de baies plus faible qu’avant, mais avec une puissance et une densité plus importantes. Les entreprises vont répartir leurs données dans plusieurs datacenters. C’est la raison pour laquelle CELESTE travaille depuis plusieurs années maintenant avec des datacenters partenaires. Les entreprises pourront également choisir d’équiper chacun de leurs sites avec un mini datacenter comme le StarDC, créant ainsi une sorte de Cloud privé.

Le stockage élastique n’étant pour l’instant qu’à ses débuts en France, mais constitue une réponse prometteuse aux enjeux posés par le Big Data. En attendant une nouvelle révolution, peut-être celle d’une forme de stockage inédite, atomique ou biologique, pour pouvoir proposer un système robuste, permanent et moins consommateur d’énergie.

Nicolas Aubé, président de CELESTE

  • »
  • »
  • »
  • »
  • »
  • »
  • »
  • »
  • »
  • »
  • »
  • »
  • »
  • »
  • »
  • »
  • »
  • »
  • »
  • »
  • »
  • »
  • »