Actualités : analyse de données, Business Intelligence, Data Science, Big Data


HPE dévoile une Machine conçue pour l’ère du Big Data


Rédigé par Communiqué de HPE le 17 Mai 2017

Un prototype du programme de recherche The Machine couronne 60 ans d’innovation et démontre tout le potentiel d’un ordinateur dont le traitement est piloté par la mémoire



HPE dévoile une Machine conçue pour l’ère du Big Data
Hewlett Packard Enterprise’s (NYSE: HPE) annonce l’ordinateur disposant de la taille mémoire centrale la plus importante du marché, et qui représente la dernière étape en date du projet de recherche The Machine. Il représente le programme R&D le plus important dans l’histoire de l’entreprise et a pour objectif de mettre en pratique un nouveau paradigme appelé Memory-Driven Computing, une architecture spécialement conçue pour l’ère du Big Data.
« Les secrets qui permettront la prochaine grande percée scientifique, ou qui favoriseront l'innovation dans une industrie en pleine évolution, ou encore la technologie qui changera nos vies sont à notre portée, cachés derrière les montagnes de données que nous créons chaque jour », a déclaré Meg Whitman, PDG de Hewlett Packard Enterprise. " Nous ne pouvons pas compter sur les technologies du passé pour pouvoir concrétiser cette promesse, nous avons besoin d'un ordinateur qui soit conçu pour l'ère du Big Data ".
Le prototype dévoilé aujourd'hui dispose de 160 téraoctets de mémoire. Il est capable de travailler simultanément avec les données contenues dans plus du quintuple du nombre de livres de la Bibliothèque du Congrès, soit environ 160 millions de livres. Jusqu’à aujourd’hui, il n'avait jamais été possible de gérer et de manipuler des jeux de données complets de cette taille dans un système à mémoire unique, et ceci n'est qu'un aperçu de l'immense potentiel du Memory-Driven Computing 1.

Evolutivité et implications sociétales

Sur la base du prototype actuel, HPE s'attend à ce que l'architecture puisse facilement monter en puissance jusqu’à un système disposant d’un exaoctet de mémoire et, au-delà, vers un pool de mémoire presque illimité de 4 096 yottaoctets. Pour être concret, ce volume représente 250 000 fois la taille de la totalité de l'univers numérique connu à ce jour.
Avec une telle quantité d’espace mémoire, il sera possible de travailler simultanément sur chacune des données de santé numériques de chaque être humain, ou bien sur chaque donnée stockée sur Facebook, sur chaque trajet effectué par les véhicules autonomes de Google, ou encore sur chaque jeu de données issu de l'exploration spatiale, le tout en même temps. Ceci permettra d’obtenir des réponses et de découvrir de nouvelles opportunités avec une vitesse jamais imaginée.
« Nous pensons que l'informatique centrée sur la mémoire est la solution dont l'industrie informatique a besoin pour permettre des progrès dans tous les domaines de la société », a déclaré Mark Potter, Chief Technology Officer chez HPE et Directeur des Hewlett Packard Labs. « L'architecture que nous avons dévoilée peut être appliquée à tous les secteurs de l’informatique, des périphériques intelligents jusqu’aux superordinateurs ».
Avec le Memory-Driven Computing, c’est la mémoire, et pas le processeur, qui est au centre de l'architecture informatique. En éliminant le manque d’efficacité avec lequel interagissent la mémoire, le stockage et les processeurs dans les systèmes traditionnels actuels, l'informatique pilotée par la mémoire réduit le temps nécessaire pour traiter des problèmes complexes, en passant de quelques jours à quelques heures, de quelques heures à quelques minutes, ou encore de quelques minutes à quelques secondes, afin de fournir des informations pertinentes en temps réel.

Spécifications techniques

Ce nouveau protoype prend appui sur les résultats obtenus avec le programme de recherche The Machine, parmi lesquels :
- Une taille de mémoire partagée de 160 téraoctets, répartie sur 40 noeuds physiques interconnectés avec une fabrique utilisant un protocol haute performance.
- Un système d’exploitation basé sur Linux, fonctionnant sur le ThunderX2, un processeur double-socket de deuxième génération fabriqué par Cavium, capable de supporter des charges de travail ARMv8-A optimisées pour un System-on-a-Chip.
- Des liaisons de communication photoniques et optiques, utilisant par exemple le nouveau module photonique X1.
- Des outils de programmation logiciels, conçus pour tirer profit d’une mémoire persistante abondante.

« Cavium partage la vision de HPE pour les architectures Memory-Driven Computing et est fier de collaborer avec HPE sur le programme The Machine », a déclaré Syed Ali, Président et CEO de Cavium Inc. « Les innovations disruptives de HPE dans le Memory-Driven Computing permettront l’arrivée d’un nouveau paradigme de traitement pour une grande variété d'applications, comme par exemple les datacenters de nouvelle génération, le cloud et l'informatique haute performance ".




Nouveau commentaire :
Twitter

Vous pouvez commenter ou apporter un complément d’information à tous les articles de ce site. Les commentaires sont libres et ouverts à tous. Néanmoins, nous nous réservons le droit de supprimer, sans explication ni préavis, tout commentaire qui ne serait pas conforme à nos règles internes de fonctionnement, c'est-à-dire tout commentaire diffamatoire ou sans rapport avec le sujet de l’article. Par ailleurs, les commentaires anonymes sont systématiquement supprimés s’ils sont trop négatifs ou trop positifs. Ayez des opinions, partagez les avec les autres, mais assumez les ! Merci d’avance. Merci de noter également que les commentaires ne sont pas automatiquement envoyés aux rédacteurs de chaque article. Si vous souhaitez poser une question au rédacteur d'un article, contactez-le directement, n'utilisez pas les commentaires.


Twitter
Rss
LinkedIn
Facebook
Apple Podcast
App Store
Google Play Store