Hewlett Packard Enterprise’s (NYSE: HPE) annonce l’ordinateur disposant de la taille mémoire centrale la plus importante du marché, et qui représente la dernière étape en date du projet de recherche The Machine. Il représente le programme R&D le plus important dans l’histoire de l’entreprise et a pour objectif de mettre en pratique un nouveau paradigme appelé Memory-Driven Computing, une architecture spécialement conçue pour l’ère du Big Data.
« Les secrets qui permettront la prochaine grande percée scientifique, ou qui favoriseront l'innovation dans une industrie en pleine évolution, ou encore la technologie qui changera nos vies sont à notre portée, cachés derrière les montagnes de données que nous créons chaque jour », a déclaré Meg Whitman, PDG de Hewlett Packard Enterprise. " Nous ne pouvons pas compter sur les technologies du passé pour pouvoir concrétiser cette promesse, nous avons besoin d'un ordinateur qui soit conçu pour l'ère du Big Data ".
Le prototype dévoilé aujourd'hui dispose de 160 téraoctets de mémoire. Il est capable de travailler simultanément avec les données contenues dans plus du quintuple du nombre de livres de la Bibliothèque du Congrès, soit environ 160 millions de livres. Jusqu’à aujourd’hui, il n'avait jamais été possible de gérer et de manipuler des jeux de données complets de cette taille dans un système à mémoire unique, et ceci n'est qu'un aperçu de l'immense potentiel du Memory-Driven Computing 1.
« Les secrets qui permettront la prochaine grande percée scientifique, ou qui favoriseront l'innovation dans une industrie en pleine évolution, ou encore la technologie qui changera nos vies sont à notre portée, cachés derrière les montagnes de données que nous créons chaque jour », a déclaré Meg Whitman, PDG de Hewlett Packard Enterprise. " Nous ne pouvons pas compter sur les technologies du passé pour pouvoir concrétiser cette promesse, nous avons besoin d'un ordinateur qui soit conçu pour l'ère du Big Data ".
Le prototype dévoilé aujourd'hui dispose de 160 téraoctets de mémoire. Il est capable de travailler simultanément avec les données contenues dans plus du quintuple du nombre de livres de la Bibliothèque du Congrès, soit environ 160 millions de livres. Jusqu’à aujourd’hui, il n'avait jamais été possible de gérer et de manipuler des jeux de données complets de cette taille dans un système à mémoire unique, et ceci n'est qu'un aperçu de l'immense potentiel du Memory-Driven Computing 1.
Evolutivité et implications sociétales
Sur la base du prototype actuel, HPE s'attend à ce que l'architecture puisse facilement monter en puissance jusqu’à un système disposant d’un exaoctet de mémoire et, au-delà, vers un pool de mémoire presque illimité de 4 096 yottaoctets. Pour être concret, ce volume représente 250 000 fois la taille de la totalité de l'univers numérique connu à ce jour.
Avec une telle quantité d’espace mémoire, il sera possible de travailler simultanément sur chacune des données de santé numériques de chaque être humain, ou bien sur chaque donnée stockée sur Facebook, sur chaque trajet effectué par les véhicules autonomes de Google, ou encore sur chaque jeu de données issu de l'exploration spatiale, le tout en même temps. Ceci permettra d’obtenir des réponses et de découvrir de nouvelles opportunités avec une vitesse jamais imaginée.
« Nous pensons que l'informatique centrée sur la mémoire est la solution dont l'industrie informatique a besoin pour permettre des progrès dans tous les domaines de la société », a déclaré Mark Potter, Chief Technology Officer chez HPE et Directeur des Hewlett Packard Labs. « L'architecture que nous avons dévoilée peut être appliquée à tous les secteurs de l’informatique, des périphériques intelligents jusqu’aux superordinateurs ».
Avec le Memory-Driven Computing, c’est la mémoire, et pas le processeur, qui est au centre de l'architecture informatique. En éliminant le manque d’efficacité avec lequel interagissent la mémoire, le stockage et les processeurs dans les systèmes traditionnels actuels, l'informatique pilotée par la mémoire réduit le temps nécessaire pour traiter des problèmes complexes, en passant de quelques jours à quelques heures, de quelques heures à quelques minutes, ou encore de quelques minutes à quelques secondes, afin de fournir des informations pertinentes en temps réel.
Avec une telle quantité d’espace mémoire, il sera possible de travailler simultanément sur chacune des données de santé numériques de chaque être humain, ou bien sur chaque donnée stockée sur Facebook, sur chaque trajet effectué par les véhicules autonomes de Google, ou encore sur chaque jeu de données issu de l'exploration spatiale, le tout en même temps. Ceci permettra d’obtenir des réponses et de découvrir de nouvelles opportunités avec une vitesse jamais imaginée.
« Nous pensons que l'informatique centrée sur la mémoire est la solution dont l'industrie informatique a besoin pour permettre des progrès dans tous les domaines de la société », a déclaré Mark Potter, Chief Technology Officer chez HPE et Directeur des Hewlett Packard Labs. « L'architecture que nous avons dévoilée peut être appliquée à tous les secteurs de l’informatique, des périphériques intelligents jusqu’aux superordinateurs ».
Avec le Memory-Driven Computing, c’est la mémoire, et pas le processeur, qui est au centre de l'architecture informatique. En éliminant le manque d’efficacité avec lequel interagissent la mémoire, le stockage et les processeurs dans les systèmes traditionnels actuels, l'informatique pilotée par la mémoire réduit le temps nécessaire pour traiter des problèmes complexes, en passant de quelques jours à quelques heures, de quelques heures à quelques minutes, ou encore de quelques minutes à quelques secondes, afin de fournir des informations pertinentes en temps réel.
Spécifications techniques
Ce nouveau protoype prend appui sur les résultats obtenus avec le programme de recherche The Machine, parmi lesquels :
- Une taille de mémoire partagée de 160 téraoctets, répartie sur 40 noeuds physiques interconnectés avec une fabrique utilisant un protocol haute performance.
- Un système d’exploitation basé sur Linux, fonctionnant sur le ThunderX2, un processeur double-socket de deuxième génération fabriqué par Cavium, capable de supporter des charges de travail ARMv8-A optimisées pour un System-on-a-Chip.
- Des liaisons de communication photoniques et optiques, utilisant par exemple le nouveau module photonique X1.
- Des outils de programmation logiciels, conçus pour tirer profit d’une mémoire persistante abondante.
« Cavium partage la vision de HPE pour les architectures Memory-Driven Computing et est fier de collaborer avec HPE sur le programme The Machine », a déclaré Syed Ali, Président et CEO de Cavium Inc. « Les innovations disruptives de HPE dans le Memory-Driven Computing permettront l’arrivée d’un nouveau paradigme de traitement pour une grande variété d'applications, comme par exemple les datacenters de nouvelle génération, le cloud et l'informatique haute performance ".
- Une taille de mémoire partagée de 160 téraoctets, répartie sur 40 noeuds physiques interconnectés avec une fabrique utilisant un protocol haute performance.
- Un système d’exploitation basé sur Linux, fonctionnant sur le ThunderX2, un processeur double-socket de deuxième génération fabriqué par Cavium, capable de supporter des charges de travail ARMv8-A optimisées pour un System-on-a-Chip.
- Des liaisons de communication photoniques et optiques, utilisant par exemple le nouveau module photonique X1.
- Des outils de programmation logiciels, conçus pour tirer profit d’une mémoire persistante abondante.
« Cavium partage la vision de HPE pour les architectures Memory-Driven Computing et est fier de collaborer avec HPE sur le programme The Machine », a déclaré Syed Ali, Président et CEO de Cavium Inc. « Les innovations disruptives de HPE dans le Memory-Driven Computing permettront l’arrivée d’un nouveau paradigme de traitement pour une grande variété d'applications, comme par exemple les datacenters de nouvelle génération, le cloud et l'informatique haute performance ".
Autres articles
-
HPE Ezmeral Software accélère et simplifie les projets d'analyse et d'IA/ML grâce à sa plateforme hybride de données et d'analyse multicloud
-
HPE transforme la gestion du cycle de vie des données en ajoutant de nouveaux services de protection des fichiers, des blocs et des données à son portefeuille HPE Alletra
-
Vast Data annonce un partenariat stratégique avec Hewlett Packard Enterprise pour intégrer sa solution logicielle dans HPE GreenLake for File Storage
-
HPE GreenLake ajoute de nouvelles applications, de l'analytique et des services pour les développeurs afin de moderniser les charges de travail grâce cloud hybride
-
Hewlett Packard Enterprise fait progresser la recherche alimentaire mondiale grâce au Memory-Driven Computing