Actualités : analyse de données, Business Intelligence, Data Science, Big Data


Quatre prédictions pour 2017 en matière de supercalcul


Rédigé par Barry Bolding, Cray le 3 Janvier 2017

Avec la concurrence de plus en plus forte de la Chine et les bouleversements dans le paysage politique mondial, l’année 2017 s’ouvre sur plusieurs incertitudes pour le secteur du supercalcul. Néanmoins les technologies les plus répandues restent solides et offrent une garantie de stabilité qui limite le nombre de surprises. Voici nos quatre prédictions d’évolution du secteur pour 2017.



Barry Bolding, Chief Strategy Officer chez Cray
Barry Bolding, Chief Strategy Officer chez Cray
Intelligence artificielle et deep learning

Même si l’intelligence artificielle revient de plus en plus souvent dans le discours marketing et constitue un domaine passionnant de recherche fondamentale et appliquée, il est très peu probable qu’elle prenne les rennes du marché au cours des douze prochains mois. On est encore loin de la singularité technologique qu’en tant que passionnés d’informatique, nous sommes si nombreux à redouter. L’IA ne va pas bondir de la sphère marketing tel le Terminator pour se lancer à nos trousses et nous éliminer d’ici la fin de 2017.

Néanmoins, l’apprentissage automatique et le deep learning avancent à pas de géant et on voit déjà concrètement comment les entreprises utilisent ces technologies pour améliorer leurs opérations. Même si pour l’instant la voiture sans conducteur semble être le domaine d’application qui fait le plus parler de lui, l’idée de former des logiciels pour qu’ils utilisent ensuite ce qu’ils ont appris afin d’en tirer des déductions va faire son chemin bien au-delà des autoroutes. Qu’il s’agisse d’automatiser le tri du courrier, d’optimiser la chaîne logistique ou de faciliter l’exploration pétrolière et gazière, le deep learning a de beaux jours devant lui.

La société Petroleum Geo-Services (PGS) a réalisé une avancée majeure en 2016 en déployant un algorithme d’apprentissage automatique pour mieux maîtriser les applications de traitement et d’imagerie sismiques extrêmement complexes. Les cas d’utilisation comme celui-là vont se multiplier, démontrant la pleine réussite de l’apprentissage automatique et du deep learning sur le terrain.

La Chine et l’importance cruciale d’une stratégie HPC à long terme

Même si la Chine a encore du chemin à parcourir pour rattraper les États-Unis ou l’Europe en termes de nombre total de systèmes HPC opérationnels, sa trajectoire de croissance très rapide devrait lui permettre de combler une bonne partie de son retard d’ici la fin 2017. Aujourd’hui, des sociétés comme Huawei, Sugon, Lenovo et d’autres sont extrêmement dynamiques sur le marché HPC. Les deux premières places du classement Top500 des supercalculateurs sont occupées par des sites chinois. Même si la productivité effective n’est pas le critère n°1 retenu pour figurer en tête du classement (principale raison pour laquelle chez Cray nous ne sommes pas des adeptes du Top500), le fait de décrocher cette position traduit le niveau de détermination et de compétence de ces sites.

Cette performance de la Chine n’est pas le fruit du hasard mais le résultat d’une stratégie à long terme visant à bâtir un savoir-faire HPC grâce à des investissements ciblés et à exploiter ce savoir-faire pour mettre en place l’infrastructure commerciale nécessaire et gagner des parts de marché. Le modèle stratégique chinois est déjà repris par d’autres pays, dont l’Inde qui a annoncé récemment le lancement de sa propre stratégie largement financée par des fonds publics.

Les États-Unis avec la National Strategic Computing Initiative et le programme Exascale du ministère de l’énergie de même que l’Union Européenne avec des programmes comme Horizon 2020, mettent en place des stratégies à long terme spécifiques qui visent à associer deep learning et supercalcul. Mais alors que démarre une nouvelle année, la progression de ces stratégies reste incertaine.

L’incertitude sera d’ailleurs le maître-mot de 2017. Les stratégies nationales ou régionales vont-elles s’accélérer ou faire du sur place ? Avec les bouleversements politiques aux États-Unis et à travers l’Europe, difficile de dire où en seront les politiques nationales à la fin de 2017 et si les décideurs auront la volonté ou la lucidité d’avancer à un rythme stratégique. Ce qui est sûr, en revanche, c’est que les pays et les régions ayant une stratégie HPC bien définie, comme c’est le cas aujourd’hui de la Chine, termineront 2017 sur une trajectoire commerciale et technologique qui leur donnera une longueur d’avance, probablement difficile à rattraper pour les autres.

Ralentissement de la loi de Moore

En 2016, les leaders du marché des processeurs comme Intel, Nvidia, ARM, AMD et même des fondeurs chinois ont lancé ou annoncé plusieurs innovations technologiques. Les capacités des puces vont continuer à évoluer en 2017 mais alors que la demande d’amélioration des performances ne faiblit pas et que le CMOS a du mal à suivre le rythme, les processeurs vont devenir de plus en plus gourmands en énergie. L’échelle de Dennard indique que la performance par watt s’améliore et suit la loi de Moore. Or avec le ralentissement de cette loi, les fondeurs seront incités à produire des processeurs de plus en plus performants, ce qui va favoriser l’innovation tant au niveau des caractéristiques des processeurs que des technologies de refroidissement et de la façon de délivrer la puissance de calcul. Les fournisseurs de systèmes seront eux incités à améliorer la conception de leurs plateformes. Ce sera un enjeu crucial en 2017 et au-delà.

L’hybride au cœur du cloud de demain

La révolution du cloud s’est encore accélérée en 2016 si l’on en juge par le chiffre d’affaires enregistré par le secteur. Cette dynamique se poursuivra en 2017. La capacité à absorber la consommation et à créer de nouvelles fonctionnalités est une bénédiction pour les développeurs et les petites entreprises. Mais dans l’univers du supercalcul, le cloud n’a pas encore pris forme. Au mieux, le supercalcul adapte l’application à l’architecture sous-jacente afin de maximiser l’évolutivité, la productivité, la performance et le coût total de possession. Les supercalculateurs donnent à l’utilisateur la formidable capacité d’atteindre de nouveaux résultats à grande échelle. Reste à savoir si le cloud et le supercalcul sont mieux à même de fournir des solutions ensemble que séparément ? En 2017, un changement de modèle va s’opérer dans la tête des fournisseurs de cloud et de plateforme alors qu’ils s’efforceront de répondre aux attentes d’une clientèle en pleine évolution.

À l’image des nuages dans le ciel qui changent en permanence de forme, le cloud évolue lui aussi sans cesse. De nouvelles technologies hybrides vont voir le jour en 2017 alors que les entreprises recherchent des solutions mixtes combinant le cloud et les applications sur site et privilégient le partage des données et des ressources afin de répondre à leurs besoins de production. On peut donc prédire que dans le domaine du supercalcul, le 100 % cloud ne sera pas pour 2017.




Nouveau commentaire :
Twitter

Vous pouvez commenter ou apporter un complément d’information à tous les articles de ce site. Les commentaires sont libres et ouverts à tous. Néanmoins, nous nous réservons le droit de supprimer, sans explication ni préavis, tout commentaire qui ne serait pas conforme à nos règles internes de fonctionnement, c'est-à-dire tout commentaire diffamatoire ou sans rapport avec le sujet de l’article. Par ailleurs, les commentaires anonymes sont systématiquement supprimés s’ils sont trop négatifs ou trop positifs. Ayez des opinions, partagez les avec les autres, mais assumez les ! Merci d’avance. Merci de noter également que les commentaires ne sont pas automatiquement envoyés aux rédacteurs de chaque article. Si vous souhaitez poser une question au rédacteur d'un article, contactez-le directement, n'utilisez pas les commentaires.


Twitter
Rss
LinkedIn
Facebook
Apple Podcast
App Store
Google Play Store