Apple HomePod
Et ce n’est pas étonnant quand on se souvient des différentes acquisitions récentes de technologies et d’entreprises dans ce domaine, réalisées par Apple.
A l’occasion de la conférence annuelle des développeurs, Tim Cook et ses collègues ont passé en revue les plates-formes de la marque, et présenté les innovations à venir d’ici la fin de l’année. On a donc beaucoup parlé de Machine Learning.
WatchOS 4, le système d’exploitation des montres connectées, utilise le Machine Learning pour alimenter une nouvelle interface utilisateur. Cette interface présente automatiquement à l’utilisateur les informations et notifications, en analysant son contexte.
La prochaine version de MacOS, HighSierra, inclut une nouvelle version du navigateur Safari. Ce dernier proposera un système de protection des données de navigation personnelle, Intelligent Tracking Prevention. Ce n’est pas un bloqueur de publicité, mais un système qui évitera l’apparition de publicités trop ciblées en fonction de vos actions précédentes. On peut espérer que le “re-targeting” qui pollue nos écrans, sera mis en défaut.
Apple Metal, qui passera en version 2, est un composant logiciel qui permet l’utilisation des cartes d’accélération graphiques (GPU). Il utilise également le Machine Learning.
Apple a également annoncé le lancement d’un iMac Pro, un Mac de bureau doté d’une puissance de calcul colossale. Apple parle de 22 Teraflops de puissance de traitement, s’appuyant sur 128 Go de RAM. Là encore le Machine Learning a été cité parmi les applications.
Avec Siri, l’assistant vocal logiciel d’Apple, on a même parlé de Deep Learning. Et Apple explique que cet apprentissage profond permet de comprendre le contexte dans lequel se trouve l’utilisateur lorsqu’il pose une question à Siri. Et Siri va également vous suggérer des informations, en fonction de ce contexte. Apple nous explique que Siri saura anticiper ce que nous allons demander, pour nous pousser directement l’information.
Dans les applications comme iPhotos, le Machine Learning est omniprésent : dans l’identification des visages bien sur, mais maintenant également dans l’identification des animaux, des objets, des situations (sport, nature…). Et cela sera utilisé pour automatiser la construction des histoires par iPhotos, qui regroupe les photos en fonction de plusieurs critères (personnes, localisation, activités…).
Le nouvel iPad, et son système d’exploitation iOS 11, propose aux développeurs un ensemble d’API utilisant le Machine Learning. Les développeurs ont ainsi accès Vision API pour la reconnaissance des images, et à Natural Language API pour la reconnaissance de la parole.
Dernière annonce de cette conférence, le nouvel objet, HomePod. Un haut-parleur dédié à la musique, mais aussi un futur assistant personnel qui hébergera Siri, dans un premier temps uniquement en anglais. Proposé à la fin de l’année aux Etats-Unis, à partir de 349$, il sera également piloté par le Machine Learning, puisque connecté au cloud Apple, et propulsé par Apple Siri.
A l’occasion de la conférence annuelle des développeurs, Tim Cook et ses collègues ont passé en revue les plates-formes de la marque, et présenté les innovations à venir d’ici la fin de l’année. On a donc beaucoup parlé de Machine Learning.
WatchOS 4, le système d’exploitation des montres connectées, utilise le Machine Learning pour alimenter une nouvelle interface utilisateur. Cette interface présente automatiquement à l’utilisateur les informations et notifications, en analysant son contexte.
La prochaine version de MacOS, HighSierra, inclut une nouvelle version du navigateur Safari. Ce dernier proposera un système de protection des données de navigation personnelle, Intelligent Tracking Prevention. Ce n’est pas un bloqueur de publicité, mais un système qui évitera l’apparition de publicités trop ciblées en fonction de vos actions précédentes. On peut espérer que le “re-targeting” qui pollue nos écrans, sera mis en défaut.
Apple Metal, qui passera en version 2, est un composant logiciel qui permet l’utilisation des cartes d’accélération graphiques (GPU). Il utilise également le Machine Learning.
Apple a également annoncé le lancement d’un iMac Pro, un Mac de bureau doté d’une puissance de calcul colossale. Apple parle de 22 Teraflops de puissance de traitement, s’appuyant sur 128 Go de RAM. Là encore le Machine Learning a été cité parmi les applications.
Avec Siri, l’assistant vocal logiciel d’Apple, on a même parlé de Deep Learning. Et Apple explique que cet apprentissage profond permet de comprendre le contexte dans lequel se trouve l’utilisateur lorsqu’il pose une question à Siri. Et Siri va également vous suggérer des informations, en fonction de ce contexte. Apple nous explique que Siri saura anticiper ce que nous allons demander, pour nous pousser directement l’information.
Dans les applications comme iPhotos, le Machine Learning est omniprésent : dans l’identification des visages bien sur, mais maintenant également dans l’identification des animaux, des objets, des situations (sport, nature…). Et cela sera utilisé pour automatiser la construction des histoires par iPhotos, qui regroupe les photos en fonction de plusieurs critères (personnes, localisation, activités…).
Le nouvel iPad, et son système d’exploitation iOS 11, propose aux développeurs un ensemble d’API utilisant le Machine Learning. Les développeurs ont ainsi accès Vision API pour la reconnaissance des images, et à Natural Language API pour la reconnaissance de la parole.
Dernière annonce de cette conférence, le nouvel objet, HomePod. Un haut-parleur dédié à la musique, mais aussi un futur assistant personnel qui hébergera Siri, dans un premier temps uniquement en anglais. Proposé à la fin de l’année aux Etats-Unis, à partir de 349$, il sera également piloté par le Machine Learning, puisque connecté au cloud Apple, et propulsé par Apple Siri.