Le « Grid » - « grille » en français - signifie interconnecter des ressources informatiques (matériel, infrastructure, applications et données), en vue d’une optimisation de leur utilisation. Le « Grid Computing » vise donc à modéliser, et optimiser l’utilisation des ressources matérielles existantes, et ce localement ou sur des sites distants. Le but est de répondre à des besoins croissants de puissance de calcul tout en réduisant les coûts d’exploitation des parcs informatiques. C’est aujourd’hui une réalité mise en œuvre dans de grands groupes industriels pour améliorer la production de leurs centres de R&D.
Aujourd’hui, nous avons franchi le cap de la mise en grille du matériel informatique. Mais quid des données et des applications ?
L’étape suivante d’une mise en grille, et pas la moins complexe, est donc celle de la gestion et de l’affectation des données proprement dites, appelée « Data Grid ». Il ne s’agit plus uniquement d’archivage de données non exploitées : on cherche ici à stocker et gérer des données variables et évolutives en temps réel. Le transfert de ces données doit tenir compte de la fréquence et de la provenance de leur traitement, ainsi que de leur volume pour une gestion optimale. Pour cela, il faut optimiser, contrôler et localiser les données, ainsi que le moindre de leur déplacement. Et c’est là toute la complexité de la chose. Comment assurer un suivi de données virtualisées utilisées par plusieurs personnes sur des sites dispersés sans erreur et en temps réel ? Et comment assurer le transfert de ces données en volumes importants d’un bout à l’autre de la planète ? Comment minimiser le nombre de transferts inutiles ?
Autant de questions sur lesquels les fournisseurs d’architecture travaillent ardemment.
Parallèlement, les éditeurs de logiciels doivent aussi intégrer les paramètres de répartition de leurs applications sur la grille pour exploiter au mieux les possibilités offertes par cette nouvelle technologie.
L’objectif est donc à terme de virtualiser l’ensemble des ressources physiques et logiques, pour que l’utilisateur puisse travailler dans un espace collaboratif sans savoir où sont stockées les données qu’il exploite, où sont réalisés les calculs qu’il lance et où sont placées les applications qui permettent de les réaliser. Une utilisation totalement simplifiée, sans préoccupation de l’emplacement des ressources, qui peuvent alors être dispersées. On arrive alors au concept de « Total Grid ».
Pour atteindre ce but ultime, une collaboration entre constructeurs, éditeurs d’applicatifs métier, fournisseurs de services et d’architectures est déjà engagée. Aujourd’hui, les réseaux étendus sont de plus en plus rapides et supportent des transferts importants de volumes de données et une gestion en temps réel. Les premières réalisations industrielles de mise en grille ayant déjà démontré leurs bénéfices en terme de productivité et de contrôle des coûts, une mise en grille totale des systèmes d’information laisse présager une véritable révolution technologique.
Aujourd’hui, nous avons franchi le cap de la mise en grille du matériel informatique. Mais quid des données et des applications ?
L’étape suivante d’une mise en grille, et pas la moins complexe, est donc celle de la gestion et de l’affectation des données proprement dites, appelée « Data Grid ». Il ne s’agit plus uniquement d’archivage de données non exploitées : on cherche ici à stocker et gérer des données variables et évolutives en temps réel. Le transfert de ces données doit tenir compte de la fréquence et de la provenance de leur traitement, ainsi que de leur volume pour une gestion optimale. Pour cela, il faut optimiser, contrôler et localiser les données, ainsi que le moindre de leur déplacement. Et c’est là toute la complexité de la chose. Comment assurer un suivi de données virtualisées utilisées par plusieurs personnes sur des sites dispersés sans erreur et en temps réel ? Et comment assurer le transfert de ces données en volumes importants d’un bout à l’autre de la planète ? Comment minimiser le nombre de transferts inutiles ?
Autant de questions sur lesquels les fournisseurs d’architecture travaillent ardemment.
Parallèlement, les éditeurs de logiciels doivent aussi intégrer les paramètres de répartition de leurs applications sur la grille pour exploiter au mieux les possibilités offertes par cette nouvelle technologie.
L’objectif est donc à terme de virtualiser l’ensemble des ressources physiques et logiques, pour que l’utilisateur puisse travailler dans un espace collaboratif sans savoir où sont stockées les données qu’il exploite, où sont réalisés les calculs qu’il lance et où sont placées les applications qui permettent de les réaliser. Une utilisation totalement simplifiée, sans préoccupation de l’emplacement des ressources, qui peuvent alors être dispersées. On arrive alors au concept de « Total Grid ».
Pour atteindre ce but ultime, une collaboration entre constructeurs, éditeurs d’applicatifs métier, fournisseurs de services et d’architectures est déjà engagée. Aujourd’hui, les réseaux étendus sont de plus en plus rapides et supportent des transferts importants de volumes de données et une gestion en temps réel. Les premières réalisations industrielles de mise en grille ayant déjà démontré leurs bénéfices en terme de productivité et de contrôle des coûts, une mise en grille totale des systèmes d’information laisse présager une véritable révolution technologique.