Nicolas Aubé, Président de Celeste
40 zettaoctets de données, soit 40000 milliards de gigaoctets, devraient être produites par l'Internet des objets en 2020, selon le cabinet IDC. Une illustration parmi d'autres de l'expansion colossale et apparemment sans limite des flux de données générées par les applications quotidiennes. Si le traitement de ce « Big Data » est un enjeu de taille à venir, la première question qui se pose aux entreprises est avant tout celle du stockage de toutes ces informations.
Pendant des années, le système de stockage se basait sur la définition d'un volume prédéterminé. Par conséquent, si une entreprise ne connaissait pas à l'avance l'espace requis, les datacenters auxquelles elle s'adressait étaient bien en peine de lui formuler une proposition de stockage précisément adaptée à ses besoins. Finalement, le mieux était de « compter large », d'autant plus que les données devaient être dupliquées au fur et à mesure des changements de génération des disques durs utilisés pour assurer une continuité de lecture. Voilà comment on est arrivé à construire ici ou là des grandes fermes de serveurs.
Mais depuis quelques années la donne a changé, grâce à une rupture technologique de taille : l'utilisation d'algorithmes de stockage élastique. L'idée est de ne plus recourir à un système physique forcément limité, mais d'utiliser un système logiciel. On « éclate » alors les données dans des endroits différents et c'est un logiciel qui recombine ces fragments épars en une information cohérente. Une technologie inventée par les hébergeurs américains et qui permet non seulement de stocker les données sans limite, mais aussi d'adapter au mieux les offres aux besoins. L'offre « Stockage Cloud » de CELESTE propose ainsi une facturation à la consommation : 10 euros par Téra de données et par mois. Une simplicité appréciée par les entreprises et collectivités clientes.
Aujourd'hui, le marché des datacenters est donc en train de se transformer. La demande s'oriente désormais vers un nombre de baies plus faible qu'avant, mais avec une puissance et une densité plus importantes. Les entreprises vont répartir leurs données dans plusieurs datacenters. C'est la raison pour laquelle une analyse du marché conduit à une réflexion sur la démultiplication de centres d'hébergement plus petits, mieux répartis sur le territoire et vers le Cloud Privé.
Le stockage élastique n'est en pour l'instant qu'à ses débuts en France, mais constitue une réponse prometteuse aux enjeux posés par le Big Data. En attendant une nouvelle révolution, peut-être celle d'une forme de stockage inédite, atomique ou biologique, pour pouvoir proposer un système robuste, permanent et moins consommateur d’énergie.
Pendant des années, le système de stockage se basait sur la définition d'un volume prédéterminé. Par conséquent, si une entreprise ne connaissait pas à l'avance l'espace requis, les datacenters auxquelles elle s'adressait étaient bien en peine de lui formuler une proposition de stockage précisément adaptée à ses besoins. Finalement, le mieux était de « compter large », d'autant plus que les données devaient être dupliquées au fur et à mesure des changements de génération des disques durs utilisés pour assurer une continuité de lecture. Voilà comment on est arrivé à construire ici ou là des grandes fermes de serveurs.
Mais depuis quelques années la donne a changé, grâce à une rupture technologique de taille : l'utilisation d'algorithmes de stockage élastique. L'idée est de ne plus recourir à un système physique forcément limité, mais d'utiliser un système logiciel. On « éclate » alors les données dans des endroits différents et c'est un logiciel qui recombine ces fragments épars en une information cohérente. Une technologie inventée par les hébergeurs américains et qui permet non seulement de stocker les données sans limite, mais aussi d'adapter au mieux les offres aux besoins. L'offre « Stockage Cloud » de CELESTE propose ainsi une facturation à la consommation : 10 euros par Téra de données et par mois. Une simplicité appréciée par les entreprises et collectivités clientes.
Aujourd'hui, le marché des datacenters est donc en train de se transformer. La demande s'oriente désormais vers un nombre de baies plus faible qu'avant, mais avec une puissance et une densité plus importantes. Les entreprises vont répartir leurs données dans plusieurs datacenters. C'est la raison pour laquelle une analyse du marché conduit à une réflexion sur la démultiplication de centres d'hébergement plus petits, mieux répartis sur le territoire et vers le Cloud Privé.
Le stockage élastique n'est en pour l'instant qu'à ses débuts en France, mais constitue une réponse prometteuse aux enjeux posés par le Big Data. En attendant une nouvelle révolution, peut-être celle d'une forme de stockage inédite, atomique ou biologique, pour pouvoir proposer un système robuste, permanent et moins consommateur d’énergie.