Le Cloud : accélérateur du développement de l’Intelligence Artificielle
L’IA repose sur un principe d’apprentissage constant, c’est-à-dire que la machine se nourrit des données qu’elle stocke et qu’elle traite. L’IA est non seulement capable de gérer les montagnes de données que nous produisons quotidiennement, mais elle dispose également de capacités de calcul importantes. Pour que ces deux éléments cohabitent et permettent d’enrichir les données et d’en faire émerger du sens, d’énormes capacités de stockage sont nécessaires. Autrefois réservée aux centres de recherches et firmes multinationales, l’IA est désormais accessible au plus grand nombre grâce au Cloud. Si ce dernier ne développe pas à proprement parler l’IA, il la rend possible et accessible grâce au principe d’infrastructure « as a service ». La capacité de calcul va ainsi être adaptée à la demande d’une entreprise, qui n’aura plus besoin d’investir dans du matériel coûteux puisque les ressources sont désormais disponibles à la location « à la demande ». Le Cloud fournit aux entreprises la flexibilité nécessaire à l’IA qui, par définition, a d’importants besoins de stockage et de performance, parfois difficiles à estimer.
Prenons un exemple concret : celui de la Deutsche Bahn qui utilise l’IA grâce à une solution Cloud pour prévoir de façon extrêmement fine les éventuels retards de ses trains. Les données de chaque journée sont analysées avec celles des jours précédents pour améliorer les processus, permettre des actions correctives et accroître la fiabilité des informations communiquées aux usagers, et donc leur satisfaction.
Open source, la clef du succès
S’adapter. Tous les jours, à toutes les situations, et le plus rapidement possible. C’est désormais le leitmotiv des entreprises dans un monde constamment en mouvement. Pour cela, il faut être en mesure de passer d’une technologie à une autre, et d’un prestataire de services à un autre sans avoir à tout redéployer de zéro. Cette liberté et cette capacité d’adaptation reposent sur un choix : celui d’une infrastructure ouverte (open source), par opposition aux technologies propriétaires. Les technologies open source permettent en effet de combiner des logiciels qui vont rester compatibles entre eux et dans différents environnements. On peut ajouter des briques en fonction des besoins et de la temporalité d’une entreprise. Flexible par essence, l’infrastructure ouverte est un prérequis essentiel au déploiement de l’IA à grande échelle.
Et demain ? Du Cloud aux supercalculateurs
Avec la multiplication des usages, tant professionnels que personnels, les données se développent de façon exponentielle. Aujourd’hui dans 90% des cas, les solutions de Cloud public classiques sont suffisantes pour gérer le volume de data. Mais demain, il est fort probable qu’on ne puisse se passer de l’informatique quantique qui offre une capacité et une performance considérables. Les supercalculateurs qui s’appuient sur l’informatique quantique sont en effet en mesure de traiter les informations des lacs de données qui représentent des volumes de data colossaux. Il est alors intéressant de combiner les solutions de Cloud public à ces supercalculateurs pour que la rapidité d’exécution s’adapte au volume de données à traiter. Concrètement, cela permet de basculer automatiquement d’un système de calcul à un autre. Une petite révolution qui va aussi faciliter le développement à grande échelle de l’IA.
Des solutions d’intelligence artificielle « all-in-one » existent déjà pour les entreprises, qu’elle que soit leur taille. Il suffit aujourd’hui de charger une IA sur un serveur et de la paramétrer pour qu’elle analyse les données disponibles. Ce sont les solutions Cloud en open source qui autorisent cette démocratisation de l’IA. Pour faire face à l’augmentation du volume de données à traiter, allons-nous demain vers une généralisation de l’informatique quantique ? Quelque chose nous dit en effet que les ordinateurs quantiques n’ont pas fini de faire parler d’eux.
L’IA repose sur un principe d’apprentissage constant, c’est-à-dire que la machine se nourrit des données qu’elle stocke et qu’elle traite. L’IA est non seulement capable de gérer les montagnes de données que nous produisons quotidiennement, mais elle dispose également de capacités de calcul importantes. Pour que ces deux éléments cohabitent et permettent d’enrichir les données et d’en faire émerger du sens, d’énormes capacités de stockage sont nécessaires. Autrefois réservée aux centres de recherches et firmes multinationales, l’IA est désormais accessible au plus grand nombre grâce au Cloud. Si ce dernier ne développe pas à proprement parler l’IA, il la rend possible et accessible grâce au principe d’infrastructure « as a service ». La capacité de calcul va ainsi être adaptée à la demande d’une entreprise, qui n’aura plus besoin d’investir dans du matériel coûteux puisque les ressources sont désormais disponibles à la location « à la demande ». Le Cloud fournit aux entreprises la flexibilité nécessaire à l’IA qui, par définition, a d’importants besoins de stockage et de performance, parfois difficiles à estimer.
Prenons un exemple concret : celui de la Deutsche Bahn qui utilise l’IA grâce à une solution Cloud pour prévoir de façon extrêmement fine les éventuels retards de ses trains. Les données de chaque journée sont analysées avec celles des jours précédents pour améliorer les processus, permettre des actions correctives et accroître la fiabilité des informations communiquées aux usagers, et donc leur satisfaction.
Open source, la clef du succès
S’adapter. Tous les jours, à toutes les situations, et le plus rapidement possible. C’est désormais le leitmotiv des entreprises dans un monde constamment en mouvement. Pour cela, il faut être en mesure de passer d’une technologie à une autre, et d’un prestataire de services à un autre sans avoir à tout redéployer de zéro. Cette liberté et cette capacité d’adaptation reposent sur un choix : celui d’une infrastructure ouverte (open source), par opposition aux technologies propriétaires. Les technologies open source permettent en effet de combiner des logiciels qui vont rester compatibles entre eux et dans différents environnements. On peut ajouter des briques en fonction des besoins et de la temporalité d’une entreprise. Flexible par essence, l’infrastructure ouverte est un prérequis essentiel au déploiement de l’IA à grande échelle.
Et demain ? Du Cloud aux supercalculateurs
Avec la multiplication des usages, tant professionnels que personnels, les données se développent de façon exponentielle. Aujourd’hui dans 90% des cas, les solutions de Cloud public classiques sont suffisantes pour gérer le volume de data. Mais demain, il est fort probable qu’on ne puisse se passer de l’informatique quantique qui offre une capacité et une performance considérables. Les supercalculateurs qui s’appuient sur l’informatique quantique sont en effet en mesure de traiter les informations des lacs de données qui représentent des volumes de data colossaux. Il est alors intéressant de combiner les solutions de Cloud public à ces supercalculateurs pour que la rapidité d’exécution s’adapte au volume de données à traiter. Concrètement, cela permet de basculer automatiquement d’un système de calcul à un autre. Une petite révolution qui va aussi faciliter le développement à grande échelle de l’IA.
Des solutions d’intelligence artificielle « all-in-one » existent déjà pour les entreprises, qu’elle que soit leur taille. Il suffit aujourd’hui de charger une IA sur un serveur et de la paramétrer pour qu’elle analyse les données disponibles. Ce sont les solutions Cloud en open source qui autorisent cette démocratisation de l’IA. Pour faire face à l’augmentation du volume de données à traiter, allons-nous demain vers une généralisation de l’informatique quantique ? Quelque chose nous dit en effet que les ordinateurs quantiques n’ont pas fini de faire parler d’eux.
Autres articles
-
La voiture 100% autonome : le plus grand défi de l’industrie automobile
-
Quelles évolutions et tendances dans les usages du Cloud ?
-
Gouvernance du Cloud, pourquoi est-elle essentielle ? Comment l'aborder ?
-
Industrie de la santé : T-Systems construit le plus grand Cloud Public SAP HANA pour Zuellig Pharma
-
Test de conduite : T-Systems dévoile sa solution logicielle pour l’analyse des données