Les objets connectés sont amenés à alimenter de plus en plus d’algorithmes de prise de décision automatisées. On pense bien sûr aux systèmes de sécurité, aux véhicules autonomes, aux robots tueurs, mais les exemples sont infinis. Actuellement, les objets connectés sont le plus souvent physiquement éloignés de la machine sur laquelle tournent les algorithmes de prise de décision : les premiers sur le terrain, la seconde dans un centre de données, dans l’entreprise ou en cloud.
Le Edge Computing, qui s’apparente à du client-serveur pour objets connectés, consiste à déporter au plus près de l’objet des ressources de calcul, permettant à l’objet d’acquérir en autonomie. Dans cette architecture, on peut imaginer faire tourner des modèles d’apprentissage machine directement dans l’objet connecté, modèles nourris en temps réel des données collectées par les capteurs de l’objet.
Mais les modèles d’apprentissage machine sont gourmands en puissance de calcul. Et les objets connectés disposent de ressources limitées. Ils sont parfois simplement pilotés par des unités centrales frugales comme des Raspberry Pi.
L’idée de Google est de développer des modules d’extension, dotés de processeurs de calcul optimisés pour Google TensorFlow ; Ces modules, de taille réduite, pourront être installés directement dans l’objet et pilotés par son unité centrale. C’est la division AIY Projects de Google qui est chargée de ces développements.
Parmi les solutions développées, deux kits d’expérimentation, Vision Kit et Voice Kit plutôt destinés à « jouer » avec ces technologies. Mais également deux composants professionnels, disponibles au travers de la marque Coral, et prêts à être embarqués dans des solutions plus industrielles. Il s’agit de solutions « Edge TPU ». TPU signifie Tensor Processing Unit, c’est-à-dire un processeur dédié à l’exécution de réseaux de neurones Google TensorFlow. Annoncés à la conférence Google en 2016, ils sont maintenant disponibles dans des versions très accessibles : une carte de développement pour 150 dollars, et un accélérateur USB pour 75 dollars. En 2019, un module complet, prêt à connecté, devrait également être disponible.
Le Edge Computing, qui s’apparente à du client-serveur pour objets connectés, consiste à déporter au plus près de l’objet des ressources de calcul, permettant à l’objet d’acquérir en autonomie. Dans cette architecture, on peut imaginer faire tourner des modèles d’apprentissage machine directement dans l’objet connecté, modèles nourris en temps réel des données collectées par les capteurs de l’objet.
Mais les modèles d’apprentissage machine sont gourmands en puissance de calcul. Et les objets connectés disposent de ressources limitées. Ils sont parfois simplement pilotés par des unités centrales frugales comme des Raspberry Pi.
L’idée de Google est de développer des modules d’extension, dotés de processeurs de calcul optimisés pour Google TensorFlow ; Ces modules, de taille réduite, pourront être installés directement dans l’objet et pilotés par son unité centrale. C’est la division AIY Projects de Google qui est chargée de ces développements.
Parmi les solutions développées, deux kits d’expérimentation, Vision Kit et Voice Kit plutôt destinés à « jouer » avec ces technologies. Mais également deux composants professionnels, disponibles au travers de la marque Coral, et prêts à être embarqués dans des solutions plus industrielles. Il s’agit de solutions « Edge TPU ». TPU signifie Tensor Processing Unit, c’est-à-dire un processeur dédié à l’exécution de réseaux de neurones Google TensorFlow. Annoncés à la conférence Google en 2016, ils sont maintenant disponibles dans des versions très accessibles : une carte de développement pour 150 dollars, et un accélérateur USB pour 75 dollars. En 2019, un module complet, prêt à connecté, devrait également être disponible.
Nous avons demandé à Nicolas Debray, Responsable de pratique Ingénierie des données chez DSI Data Science Institute à Montréal, d’imaginer quelques scénarios d’usages de ces modules embarqués d’accélération d’algorithmes d’apprentissage machine : « La faible consommation électrique de ces modules les rend parfaits pour l’installation dans des drones : stabilisation de la caméra, stabilisation du pilotage, détection de cible, évitement d’obstacles. D’autres applications pourraient être l’ouverture automatique de portes sur la base de la détection du visage des personnes autorisées, la reconnaissance vocale, etc. Autre champ d’expérimentation, la détection d’incidents dans des environnements non connectés au réseau en permanence, au fond d’une mine, au milieu des plaines ou dans la montagne, en vol, etc. »
Plus globalement, on constate une augmentation permanente du volume des données générées par les objets connectés. C’est le cas des villes intelligentes. Mais les capacités de bande passante ne suivront pas toujours, malgré le développement prochain de la 5G. « Nous avons besoin de distribuer les processus de calcul, pour éviter l’engorgement des réseaux », explique Nicolas Debray.
N’allez cependant pas imaginer que vous pourrez remplacer une ferme de serveurs en cloud par quelques dispositifs de ce type. Les capacités ne sont pas comparables. Même si cela pourrait être proposé dans les prochaines versions, ces outils ne sont pour l’instant capables que d’exécuter des modèles, pas de les entrainer au travers d’une matrice d’apprentissage. « Ils ne sont pas capables de se souvenir, et de travailler sur les données du passé ». Mais selon Nicolas Debray nous sommes encore loin de systèmes autonomes, qui apprendraient de leur propre expérience, et donc exécuteraient l’ensemble du processus de modélisation – apprentissage – exécution – rétro-action.
Plus globalement, on constate une augmentation permanente du volume des données générées par les objets connectés. C’est le cas des villes intelligentes. Mais les capacités de bande passante ne suivront pas toujours, malgré le développement prochain de la 5G. « Nous avons besoin de distribuer les processus de calcul, pour éviter l’engorgement des réseaux », explique Nicolas Debray.
N’allez cependant pas imaginer que vous pourrez remplacer une ferme de serveurs en cloud par quelques dispositifs de ce type. Les capacités ne sont pas comparables. Même si cela pourrait être proposé dans les prochaines versions, ces outils ne sont pour l’instant capables que d’exécuter des modèles, pas de les entrainer au travers d’une matrice d’apprentissage. « Ils ne sont pas capables de se souvenir, et de travailler sur les données du passé ». Mais selon Nicolas Debray nous sommes encore loin de systèmes autonomes, qui apprendraient de leur propre expérience, et donc exécuteraient l’ensemble du processus de modélisation – apprentissage – exécution – rétro-action.
Autres articles
-
Converteo obtient la spécialisation Data Analytics Services de Google Cloud
-
Teradata s’associe à Google Cloud pour proposer des offres d’IA de confiance à l’échelle de l’entreprise afin d’accélérer le délai de rentabilité et le ROI
-
Starburst et Google Distributed Cloud proposent une solution d'analyse des données sécurisée aux entreprises hautement réglementées
-
Neo4j et Google Cloud annoncent de nouvelles fonctionnalités GraphRAG pour les applications d’IA générative
-
Equadis choisit Google Cloud pour développer des solutions technologiques innovantes centrées sur les données