Actualités : analyse de données, Business Intelligence, Data Science, Big Data


Google propose une clef USB pour exécuter des algorithmes directement dans les objets connectés


Rédigé par le 6 Mars 2019

Avec son offre TPU, Google investit le Edge Computing, c’est-à-dire la distribution de puissance de calcul au plus près des objets connectés pour l’exécution des algorithmes. Une solution qui démarre à 75 dollars, et permet d’exécuter les algorithmes d’apprentissage machine de TensorFlow.



Google propose une clef USB pour exécuter des algorithmes directement dans les objets connectés
Les objets connectés sont amenés à alimenter de plus en plus d’algorithmes de prise de décision automatisées. On pense bien sûr aux systèmes de sécurité, aux véhicules autonomes, aux robots tueurs, mais les exemples sont infinis. Actuellement, les objets connectés sont le plus souvent physiquement éloignés de la machine sur laquelle tournent les algorithmes de prise de décision : les premiers sur le terrain, la seconde dans un centre de données, dans l’entreprise ou en cloud.
Le Edge Computing, qui s’apparente à du client-serveur pour objets connectés, consiste à déporter au plus près de l’objet des ressources de calcul, permettant à l’objet d’acquérir en autonomie. Dans cette architecture, on peut imaginer faire tourner des modèles d’apprentissage machine directement dans l’objet connecté, modèles nourris en temps réel des données collectées par les capteurs de l’objet.

Mais les modèles d’apprentissage machine sont gourmands en puissance de calcul. Et les objets connectés disposent de ressources limitées. Ils sont parfois simplement pilotés par des unités centrales frugales comme des Raspberry Pi.
L’idée de Google est de développer des modules d’extension, dotés de processeurs de calcul optimisés pour Google TensorFlow ; Ces modules, de taille réduite, pourront être installés directement dans l’objet et pilotés par son unité centrale. C’est la division AIY Projects de Google qui est chargée de ces développements.

Parmi les solutions développées, deux kits d’expérimentation, Vision Kit et Voice Kit plutôt destinés à « jouer » avec ces technologies. Mais également deux composants professionnels, disponibles au travers de la marque Coral, et prêts à être embarqués dans des solutions plus industrielles. Il s’agit de solutions « Edge TPU ». TPU signifie Tensor Processing Unit, c’est-à-dire un processeur dédié à l’exécution de réseaux de neurones Google TensorFlow. Annoncés à la conférence Google en 2016, ils sont maintenant disponibles dans des versions très accessibles : une carte de développement pour 150 dollars, et un accélérateur USB pour 75 dollars. En 2019, un module complet, prêt à connecté, devrait également être disponible.

Nicolas Debay, DSI Data Science Institute
Nicolas Debay, DSI Data Science Institute
Nous avons demandé à Nicolas Debray, Responsable de pratique Ingénierie des données chez DSI Data Science Institute à Montréal, d’imaginer quelques scénarios d’usages de ces modules embarqués d’accélération d’algorithmes d’apprentissage machine : « La faible consommation électrique de ces modules les rend parfaits pour l’installation dans des drones : stabilisation de la caméra, stabilisation du pilotage, détection de cible, évitement d’obstacles. D’autres applications pourraient être l’ouverture automatique de portes sur la base de la détection du visage des personnes autorisées, la reconnaissance vocale, etc. Autre champ d’expérimentation, la détection d’incidents dans des environnements non connectés au réseau en permanence, au fond d’une mine, au milieu des plaines ou dans la montagne, en vol, etc. »

Plus globalement, on constate une augmentation permanente du volume des données générées par les objets connectés. C’est le cas des villes intelligentes. Mais les capacités de bande passante ne suivront pas toujours, malgré le développement prochain de la 5G. « Nous avons besoin de distribuer les processus de calcul, pour éviter l’engorgement des réseaux », explique Nicolas Debray.

N’allez cependant pas imaginer que vous pourrez remplacer une ferme de serveurs en cloud par quelques dispositifs de ce type. Les capacités ne sont pas comparables. Même si cela pourrait être proposé dans les prochaines versions, ces outils ne sont pour l’instant capables que d’exécuter des modèles, pas de les entrainer au travers d’une matrice d’apprentissage. « Ils ne sont pas capables de se souvenir, et de travailler sur les données du passé ». Mais selon Nicolas Debray nous sommes encore loin de systèmes autonomes, qui apprendraient de leur propre expérience, et donc exécuteraient l’ensemble du processus de modélisation – apprentissage – exécution – rétro-action.




Nouveau commentaire :
Twitter

Vous pouvez commenter ou apporter un complément d’information à tous les articles de ce site. Les commentaires sont libres et ouverts à tous. Néanmoins, nous nous réservons le droit de supprimer, sans explication ni préavis, tout commentaire qui ne serait pas conforme à nos règles internes de fonctionnement, c'est-à-dire tout commentaire diffamatoire ou sans rapport avec le sujet de l’article. Par ailleurs, les commentaires anonymes sont systématiquement supprimés s’ils sont trop négatifs ou trop positifs. Ayez des opinions, partagez les avec les autres, mais assumez les ! Merci d’avance. Merci de noter également que les commentaires ne sont pas automatiquement envoyés aux rédacteurs de chaque article. Si vous souhaitez poser une question au rédacteur d'un article, contactez-le directement, n'utilisez pas les commentaires.


Twitter
Rss
LinkedIn
Facebook
Apple Podcast
App Store
Google Play Store