Le Movidius™ Neural Compute Stick est le tout premier kit d'inférence en apprentissage automatique format USB, et contient un accélérateur IA qui offre des capacités de traitement en réseau neuronal pour une large gamme d'équipements à l'edge. (Crédit : Intel Corporation)
« Myriad X va libérer l'innovation et permettre de concevoir les équipements autonomes et intelligents de demain, depuis les drones autonomes de livraison et les caméras de sécurité contextuelles jusqu'aux robots personnels capables d'appréhender le contexte situationnel et émotionnel. » Remi El-Ouazzane, vice-président et directeur général de Movidius au sein du New Technology Group d'Intel Corporation
Myriad™ X
Le Movidius Neural Compute Stick est basé sur le nouveau processeur Myriad™ X, première unité de traitement visuel (VPU) livrée avec un moteur de calcul neuronal qui offre des capacités d'intelligence artificielle à l'edge, dans un format basse-consommation et haute-performance.
De plus en plus de développeurs adoptent l’apprentissage automatique pour créer des applications et des solutions innovantes. C’est pourquoi Intel s'engage en fournissant une série complète d'outils et de ressources de développement pour permettre aux développeurs de s'adapter à une économie numérique de plus en plus centrée sur l'IA. Qu'il s'agisse d'entraîner des réseaux neuronaux artificiels sur le cloud Intel® Nervana™, d'effectuer des optimisations pour les charges de travail émergentes telles que l'intelligence artificielle, la réalité virtuelle et augmentée, ou la conduite automatique avec des processeurs Intel® Xeon® Scalable, ou d'établir l'IA à l'edge avec l'unité de traitement visuel (VPU) Movidius, Intel propose un portefeuille complet d'outils IA et d'options pour l’entraînement et le déploiement à destination de la prochaine génération de produits et services IA.
« Le VPU Myriad 2 intégré au Movidius Neural Compute Stick offre des performances puissantes et économiques – plus de 100 gigaflops avec une enveloppe thermique d'1 W seulement – qui permettent de fonctionner des réseaux neuronaux profonds directement sur device », déclare Remi El-Ouazzane, vice-président et directeur général de Movidius, une entreprise Intel. « Il permet donc le déploiement hors-connexion d'une large gamme d'applications IA. »
Le développement de l'intelligence artificielle est fondamentalement composé de deux étapes: (1) entraîner un algorithme sur de larges jeux de données à l'aide de techniques modernes d'apprentissage automatique, et (2) faire fonctionner l'algorithme au sein d’une application finale devant interpréter des données issues du monde réel. Cette deuxième étape est appelée l’« inférence ». La pratiquer à l'edge – ou de façon native à l'intérieur de l'équipement – offre de nombreux avantages en termes de latence, de consommation énergétique, ou de confidentialité :
· Compilation : Convertir automatiquement un réseau neuronal convolutionnel basé sur Caffe en un réseau neuronal intégré optimisé pour fonctionner avec le VPU Movidius Myriad 2.
· Paramétrage : Des mesures de performance couche par couche pour les réseaux neuronaux standard ou personnalisés, qui permettent un paramétrage efficace et une performance optimale avec une consommation ultra-réduite. Les scripts de validation permettent aux développeurs de comparer la précision du modèle optimisé pour l'équipement à celle du modèle original sur PC.
· Accélération : Cette fonctionnalité unique du Movidius Neural Compute Stick permet à l'équipement de se comporter comme un accélérateur de réseau neuronal dédié, en ajoutant des capacités d'inférence en apprentissage profond à des plateformes informatiques existantes pour renforcer à la fois la performance et l'efficacité énergétique.
Le Movidius Neural Compute Stick est disponible à l'achat au prix recommandé de 79 $
Myriad™ X
Le Movidius Neural Compute Stick est basé sur le nouveau processeur Myriad™ X, première unité de traitement visuel (VPU) livrée avec un moteur de calcul neuronal qui offre des capacités d'intelligence artificielle à l'edge, dans un format basse-consommation et haute-performance.
De plus en plus de développeurs adoptent l’apprentissage automatique pour créer des applications et des solutions innovantes. C’est pourquoi Intel s'engage en fournissant une série complète d'outils et de ressources de développement pour permettre aux développeurs de s'adapter à une économie numérique de plus en plus centrée sur l'IA. Qu'il s'agisse d'entraîner des réseaux neuronaux artificiels sur le cloud Intel® Nervana™, d'effectuer des optimisations pour les charges de travail émergentes telles que l'intelligence artificielle, la réalité virtuelle et augmentée, ou la conduite automatique avec des processeurs Intel® Xeon® Scalable, ou d'établir l'IA à l'edge avec l'unité de traitement visuel (VPU) Movidius, Intel propose un portefeuille complet d'outils IA et d'options pour l’entraînement et le déploiement à destination de la prochaine génération de produits et services IA.
« Le VPU Myriad 2 intégré au Movidius Neural Compute Stick offre des performances puissantes et économiques – plus de 100 gigaflops avec une enveloppe thermique d'1 W seulement – qui permettent de fonctionner des réseaux neuronaux profonds directement sur device », déclare Remi El-Ouazzane, vice-président et directeur général de Movidius, une entreprise Intel. « Il permet donc le déploiement hors-connexion d'une large gamme d'applications IA. »
Le développement de l'intelligence artificielle est fondamentalement composé de deux étapes: (1) entraîner un algorithme sur de larges jeux de données à l'aide de techniques modernes d'apprentissage automatique, et (2) faire fonctionner l'algorithme au sein d’une application finale devant interpréter des données issues du monde réel. Cette deuxième étape est appelée l’« inférence ». La pratiquer à l'edge – ou de façon native à l'intérieur de l'équipement – offre de nombreux avantages en termes de latence, de consommation énergétique, ou de confidentialité :
· Compilation : Convertir automatiquement un réseau neuronal convolutionnel basé sur Caffe en un réseau neuronal intégré optimisé pour fonctionner avec le VPU Movidius Myriad 2.
· Paramétrage : Des mesures de performance couche par couche pour les réseaux neuronaux standard ou personnalisés, qui permettent un paramétrage efficace et une performance optimale avec une consommation ultra-réduite. Les scripts de validation permettent aux développeurs de comparer la précision du modèle optimisé pour l'équipement à celle du modèle original sur PC.
· Accélération : Cette fonctionnalité unique du Movidius Neural Compute Stick permet à l'équipement de se comporter comme un accélérateur de réseau neuronal dédié, en ajoutant des capacités d'inférence en apprentissage profond à des plateformes informatiques existantes pour renforcer à la fois la performance et l'efficacité énergétique.
Le Movidius Neural Compute Stick est disponible à l'achat au prix recommandé de 79 $