S'attaquer à l'échelle même des données
L'IoT génère plus de données que les applications traditionnelles et ce à une plus grande vitesse, entraînant ainsi un déluge de données. On assiste donc à une croissance simultanée du nombre de périphériques et de la quantité de données qu’ils produisent. Résultat ? Une hausse exponentielle des données envoyées au core (CPU) d’une part ainsi que de la bande passante nécessaire pour les acheminer vers le core (CPU) d’autre part. Ce volume, combiné à la vitesse et à la variété des données générées, constitue un incroyable challenge pour la gestion des données tant sur le plan opérationnel que financier. A ce défi s'ajoute la question de la rétention. Par exemple, certaines données doivent être conservées pendant des périodes prolongées pour l'analyse des tendances à long terme, en fonction de la valeur intrinsèque que l'on peut en tirer.
Du point de vue de l'entreprise, l’IoT et le Big Data ne sont pas différents de toutes les précédentes technologies gourmandes en données que les organisations adoptent. Elles leur permettent de réduire les coûts, d’améliorer leurs revenus ou d'identifier et de développer de nouvelles opportunités commerciales. De plus, les organisations doivent également tirer parti de ces données rapidement pour rester en avance sur la concurrence.
En effet, l'introduction d'un nouvel outil pour extraire, en temps réel, la valeur des données doit apporter une réelle valeur ajoutée au vu notamment des coûts initiaux et continus représentés par la solution. Ils peuvent d’ailleurs freiner le projet d’une entreprise. Le défi consiste ainsi à maintenir le coût de cette infrastructure de données au minimum, tout en optimisant sa capacité et sa puissance de traitement afin que l'entreprise puisse les exploiter en temps voulu, en particulier dans le cadre de projets de transformation numérique.
L'énigme de la sécurité des données
La gestion des données en temps réel pose également un nouveau défi, avec la nécessité de sécuriser, protéger et maintenir la confidentialité de ces données. Un récent sondage de la Society for Information Management (SIM) indique que la protection de la vie privée est considérée comme une préoccupation majeure pour la plupart des DSI, même si cela ne se reflète pas encore dans les budgets informatiques. Les entreprises s’interrogent alors sur la manière dont elles pourront protéger leur infrastructure contre les cyberattaques de plus en plus sophistiquées.
Les nouveaux outils mis en place pour faire face à ces attaques complexes doivent analyser davantage de points de données provenant d'un plus grand nombre de sources. Pour ce faire, ils recueillent, stockent et analysent d'énormes quantités de données, faisant de la cyber sécurité l'un des plus gros consommateurs de données.
Ne pas sacrifier la disponibilité et la performance du stockage
Les solutions traditionnelles de stockage, les infrastructures hyperconvergées ainsi que le stockage en cloud public sont des options qui ont été déployées avec une relative facilité, mais qui exigent un coût élevé pour le budget opérationnel. La demande de stockage de plus grande capacité pour répondre aux besoins de ces environnements, la réduction des coûts ainsi que la facilité d'administration exigées nécessiteront sans aucun doute beaucoup de consolidation. Cela soulève la question suivante : les architectures à deux contrôleurs, conçues à l'origine pour une capacité d’un à dix téraoctets, peuvent-elles répondre aux exigences de résilience des environnements de plus grande ampleur ? La même question peut être posée au sujet de la disponibilité offerte par les clouds publics : les « 4 neuf » ou les « 5 neuf » (99,99% - 99,999%) suffisent-ils pour les applications critiques pour l'entreprise ?
Si les organisations doivent rester compétitives dans cette économie orientée données, cela se fera grâce à leur infrastructure. « Suivre le troupeau » ne leur permettra nullement de créer un avantage concurrentiel. Le moment est venu d'envisager des solutions alternatives, car les approches traditionnelles obligent les entreprises à choisir entre la performance, la disponibilité et le coût. Il existe des solutions modernes, basées sur des logiciels intelligents, qui ne nécessitent pas qu'une entreprise choisisse entre un ou plusieurs de ces éléments. Elles offrent la fiabilité, la gestion simplifiée, une plus grande facilité de récupération des données, une sécurité inégalée et une densité de stockage améliorée. De plus, ces solutions permettent de conserver la même qualité de stockage, sans que cela ne nuise aux capacités des systèmes existants, tout en utilisant du matériel à faible coût.
Il est aujourd’hui possible de doubler virtuellement la capacité de stockage disponible d'une entreprise, tout en augmentant la résilience et en réduisant simultanément d'un tiers les besoins en matériel. Cela permet non seulement d'améliorer la gestion et l'efficacité des données, mais aussi de ralentir les investissements d'infrastructure qui ne cessent de croître.
En se basant sur un modèle de consommation « capacity on demand » ou « as-a-service », les entreprises peuvent se développer sans retard, tout en reportant le paiement des capacités inutilisées. Elles évitent ainsi le défi de fournir du matériel coûteux à l'avance en fonction de la croissance prévue des données - ce qui devient difficile à prédire alors que nous nous dirigeons toujours plus vers le « tout connecté ».
L'IoT génère plus de données que les applications traditionnelles et ce à une plus grande vitesse, entraînant ainsi un déluge de données. On assiste donc à une croissance simultanée du nombre de périphériques et de la quantité de données qu’ils produisent. Résultat ? Une hausse exponentielle des données envoyées au core (CPU) d’une part ainsi que de la bande passante nécessaire pour les acheminer vers le core (CPU) d’autre part. Ce volume, combiné à la vitesse et à la variété des données générées, constitue un incroyable challenge pour la gestion des données tant sur le plan opérationnel que financier. A ce défi s'ajoute la question de la rétention. Par exemple, certaines données doivent être conservées pendant des périodes prolongées pour l'analyse des tendances à long terme, en fonction de la valeur intrinsèque que l'on peut en tirer.
Du point de vue de l'entreprise, l’IoT et le Big Data ne sont pas différents de toutes les précédentes technologies gourmandes en données que les organisations adoptent. Elles leur permettent de réduire les coûts, d’améliorer leurs revenus ou d'identifier et de développer de nouvelles opportunités commerciales. De plus, les organisations doivent également tirer parti de ces données rapidement pour rester en avance sur la concurrence.
En effet, l'introduction d'un nouvel outil pour extraire, en temps réel, la valeur des données doit apporter une réelle valeur ajoutée au vu notamment des coûts initiaux et continus représentés par la solution. Ils peuvent d’ailleurs freiner le projet d’une entreprise. Le défi consiste ainsi à maintenir le coût de cette infrastructure de données au minimum, tout en optimisant sa capacité et sa puissance de traitement afin que l'entreprise puisse les exploiter en temps voulu, en particulier dans le cadre de projets de transformation numérique.
L'énigme de la sécurité des données
La gestion des données en temps réel pose également un nouveau défi, avec la nécessité de sécuriser, protéger et maintenir la confidentialité de ces données. Un récent sondage de la Society for Information Management (SIM) indique que la protection de la vie privée est considérée comme une préoccupation majeure pour la plupart des DSI, même si cela ne se reflète pas encore dans les budgets informatiques. Les entreprises s’interrogent alors sur la manière dont elles pourront protéger leur infrastructure contre les cyberattaques de plus en plus sophistiquées.
Les nouveaux outils mis en place pour faire face à ces attaques complexes doivent analyser davantage de points de données provenant d'un plus grand nombre de sources. Pour ce faire, ils recueillent, stockent et analysent d'énormes quantités de données, faisant de la cyber sécurité l'un des plus gros consommateurs de données.
Ne pas sacrifier la disponibilité et la performance du stockage
Les solutions traditionnelles de stockage, les infrastructures hyperconvergées ainsi que le stockage en cloud public sont des options qui ont été déployées avec une relative facilité, mais qui exigent un coût élevé pour le budget opérationnel. La demande de stockage de plus grande capacité pour répondre aux besoins de ces environnements, la réduction des coûts ainsi que la facilité d'administration exigées nécessiteront sans aucun doute beaucoup de consolidation. Cela soulève la question suivante : les architectures à deux contrôleurs, conçues à l'origine pour une capacité d’un à dix téraoctets, peuvent-elles répondre aux exigences de résilience des environnements de plus grande ampleur ? La même question peut être posée au sujet de la disponibilité offerte par les clouds publics : les « 4 neuf » ou les « 5 neuf » (99,99% - 99,999%) suffisent-ils pour les applications critiques pour l'entreprise ?
Si les organisations doivent rester compétitives dans cette économie orientée données, cela se fera grâce à leur infrastructure. « Suivre le troupeau » ne leur permettra nullement de créer un avantage concurrentiel. Le moment est venu d'envisager des solutions alternatives, car les approches traditionnelles obligent les entreprises à choisir entre la performance, la disponibilité et le coût. Il existe des solutions modernes, basées sur des logiciels intelligents, qui ne nécessitent pas qu'une entreprise choisisse entre un ou plusieurs de ces éléments. Elles offrent la fiabilité, la gestion simplifiée, une plus grande facilité de récupération des données, une sécurité inégalée et une densité de stockage améliorée. De plus, ces solutions permettent de conserver la même qualité de stockage, sans que cela ne nuise aux capacités des systèmes existants, tout en utilisant du matériel à faible coût.
Il est aujourd’hui possible de doubler virtuellement la capacité de stockage disponible d'une entreprise, tout en augmentant la résilience et en réduisant simultanément d'un tiers les besoins en matériel. Cela permet non seulement d'améliorer la gestion et l'efficacité des données, mais aussi de ralentir les investissements d'infrastructure qui ne cessent de croître.
En se basant sur un modèle de consommation « capacity on demand » ou « as-a-service », les entreprises peuvent se développer sans retard, tout en reportant le paiement des capacités inutilisées. Elles évitent ainsi le défi de fournir du matériel coûteux à l'avance en fonction de la croissance prévue des données - ce qui devient difficile à prédire alors que nous nous dirigeons toujours plus vers le « tout connecté ».
Autres articles
-
Infinidat dépasse la barre des 6 exacotets de stockage total déployés
-
Zerto choisit Infinidat pour rationaliser son infrastructure de stockage de données
-
Infinidat double la croissance de son chiffre d’affaire EMEA en 2017
-
L’hyperstorage : La haute disponibilité à moindre coût grâce au machine learning
-
Infinidat, la licorne du stockage de données, lève 95 millions de dollars