Le Private AI Institute a été créé à l’origine par l’University Research & Collaboration Office (URC) d’Intel, qui a ensuite élargi le champ de collaboration de l’Institut en invitant Avast et Borsetta à unir leurs forces. Ensemble, ils ont lancé un appel à propositions de recherche au début de cette année et ont sélectionné les neuf premiers projets de recherche qui bénéficieront du soutien du Private AI Collaborative Research Institute dans huit universités :
Université de Carnegie Mellon, aux États-Unis ;
Université de Californie à San Diego, aux États-Unis ;
Université de Californie du Sud, aux États-Unis ;
Université de Toronto, au Canada ;
Université de Waterloo, au Canada ;
Université de technologie de Darmstadt, en Allemagne ;
Université catholique de Louvain, en Belgique ;
Université nationale de Singapour.
Le Private AI Collaborative Research Institute encouragera et soutiendra la recherche fondamentale, dans le but de résoudre les défis du monde réel auxquels la société est confrontée. Il s’efforcera par ailleurs d’adopter une approche éthique du développement de l’IA. En décentralisant cette dernière et en déplaçant son analyse vers la périphérie du réseau, les entreprises pourront libérer les données des silos, protéger la vie privée et la sécurité, et garantir l’efficacité.
En outre, cet Institut visera à relever un certain nombre de défis auxquels les industries et les sociétés d’aujourd’hui font face, dont :
Les données de formation sont décentralisées dans des silos isolés et souvent inaccessibles pour une formation centralisée.
Les solutions actuelles nécessitant un datacenter unique et fiable sont vulnérables : la formation centralisée peut être facilement attaquée en modifiant les données entre le moment où elles sont collectées et le cloud. Il n’existe aucun cadre pour une formation décentralisée et sécurisée parmi des participants susceptibles de ne pas se faire confiance.
Les modèles centralisés deviennent rapidement obsolètes, car les données à la périphérie changent fréquemment. Aujourd’hui, les cycles par lot sporadiques utilisés pour la collecte, la formation et le déploiement peuvent aboutir à des modèles obsolètes ; une reformation continue et différentielle n’est pas possible.
Les ressources informatiques centralisées sont coûteuses et limitées par la communication et la latence.
Le machine learning fédéré, une technique utilisée pour former un algorithme sur plusieurs périphériques décentralisés, est limité. Si l’IA fédérée peut actuellement accéder aux données en périphérie, elle ne peut garantir simultanément l’exactitude, la confidentialité et la sécurité.
« Avec notre équipe de recherche du Laboratoire sur la cybersécurité et l’IA d’Avast (Avast AI and Cybersecurity Laboratory, ou AAICL) situé sur le campus de l’Université technique de Prague (CTU), nous enregistrons déjà d’excellents résultats dans les recherches scientifiques que nous menons au croisement de l’IA, du machine learning et de la cybersécurité, ajoute Michal Pechoucek, CTO d’Avast. La collaboration entre l’industrie et les universités est indispensable pour s’attaquer aux grands problèmes de notre époque, notamment l’IA éthique et responsable. Alors que l’IA continue de gagner en puissance et en envergure, nous sommes arrivés à un point où il est nécessaire de passer des paroles aux actes. Nous sommes ravis de nous associer à Intel et Borsetta, afin d’exploiter pleinement le potentiel offert par l’IA pour sécuriser les individus et leurs données ».
Borsetta a rejoint l’Institut de recherche collaborative sur l’IA protégée parce que cette organisation croit fermement à la nécessité de mettre en place un cadre de protection de la vie privée capable d’appuyer notre futur monde hyperconnecté grâce à l’IA. « La mission du Private AI Collaborative Research Institute est en phase avec notre vision d’une sécurité à l’épreuve du temps, où les données sont protégées de manière avérée grâce à des services informatiques en périphérie dans lesquels les utilisateurs peuvent avoir confiance, confie Pamela Norton, PDG de Borsetta. La confiance sera la devise de l’avenir, et nous devons concevoir des systèmes périphériques intégrés à l’IA qui soient fiables, transparents et sûrs tout en faisant progresser les valeurs humaines qu’ils sont censés refléter ».
« L’IA continuera à exercer un effet transformateur sur de nombreuses industries, et elle est en passe de devenir un moteur de changement dans les secteurs de la santé, de l’automobile, de la cybersécurité, de la finance et de la technologie, conclut Richard Uhlig, Senior Fellow d’Intel, vice-président et directeur d’Intel Labs. Cela étant dit, la recherche sur l’IA responsable, sûre et protégée est primordiale pour que son véritable potentiel puisse être mis à profit. Le Private AI Collaborative Research Institute se consacrera à la mise au point de technologies faisant appel à des principes éthiques qui placent les individus au premier plan et assurent leur sécurité. Nous avons invité Avast, Borsetta et Elisa à nous rejoindre dans notre mission qui consiste à cerner le véritable impact de l’IA sur le monde qui nous entoure. Nous nous réjouissons de les compter parmi nous pour pallier les inconvénients et les dangers potentiels de l’IA ».
Pour en savoir plus sur l’Institut et pour suivre les découvertes issues des travaux de recherche à venir, consultez le site : https://www.intel.com/content/www/us/en/research/blogs/private-ai-collaborative-research-institute-launch.html
Université de Carnegie Mellon, aux États-Unis ;
Université de Californie à San Diego, aux États-Unis ;
Université de Californie du Sud, aux États-Unis ;
Université de Toronto, au Canada ;
Université de Waterloo, au Canada ;
Université de technologie de Darmstadt, en Allemagne ;
Université catholique de Louvain, en Belgique ;
Université nationale de Singapour.
Le Private AI Collaborative Research Institute encouragera et soutiendra la recherche fondamentale, dans le but de résoudre les défis du monde réel auxquels la société est confrontée. Il s’efforcera par ailleurs d’adopter une approche éthique du développement de l’IA. En décentralisant cette dernière et en déplaçant son analyse vers la périphérie du réseau, les entreprises pourront libérer les données des silos, protéger la vie privée et la sécurité, et garantir l’efficacité.
En outre, cet Institut visera à relever un certain nombre de défis auxquels les industries et les sociétés d’aujourd’hui font face, dont :
Les données de formation sont décentralisées dans des silos isolés et souvent inaccessibles pour une formation centralisée.
Les solutions actuelles nécessitant un datacenter unique et fiable sont vulnérables : la formation centralisée peut être facilement attaquée en modifiant les données entre le moment où elles sont collectées et le cloud. Il n’existe aucun cadre pour une formation décentralisée et sécurisée parmi des participants susceptibles de ne pas se faire confiance.
Les modèles centralisés deviennent rapidement obsolètes, car les données à la périphérie changent fréquemment. Aujourd’hui, les cycles par lot sporadiques utilisés pour la collecte, la formation et le déploiement peuvent aboutir à des modèles obsolètes ; une reformation continue et différentielle n’est pas possible.
Les ressources informatiques centralisées sont coûteuses et limitées par la communication et la latence.
Le machine learning fédéré, une technique utilisée pour former un algorithme sur plusieurs périphériques décentralisés, est limité. Si l’IA fédérée peut actuellement accéder aux données en périphérie, elle ne peut garantir simultanément l’exactitude, la confidentialité et la sécurité.
« Avec notre équipe de recherche du Laboratoire sur la cybersécurité et l’IA d’Avast (Avast AI and Cybersecurity Laboratory, ou AAICL) situé sur le campus de l’Université technique de Prague (CTU), nous enregistrons déjà d’excellents résultats dans les recherches scientifiques que nous menons au croisement de l’IA, du machine learning et de la cybersécurité, ajoute Michal Pechoucek, CTO d’Avast. La collaboration entre l’industrie et les universités est indispensable pour s’attaquer aux grands problèmes de notre époque, notamment l’IA éthique et responsable. Alors que l’IA continue de gagner en puissance et en envergure, nous sommes arrivés à un point où il est nécessaire de passer des paroles aux actes. Nous sommes ravis de nous associer à Intel et Borsetta, afin d’exploiter pleinement le potentiel offert par l’IA pour sécuriser les individus et leurs données ».
Borsetta a rejoint l’Institut de recherche collaborative sur l’IA protégée parce que cette organisation croit fermement à la nécessité de mettre en place un cadre de protection de la vie privée capable d’appuyer notre futur monde hyperconnecté grâce à l’IA. « La mission du Private AI Collaborative Research Institute est en phase avec notre vision d’une sécurité à l’épreuve du temps, où les données sont protégées de manière avérée grâce à des services informatiques en périphérie dans lesquels les utilisateurs peuvent avoir confiance, confie Pamela Norton, PDG de Borsetta. La confiance sera la devise de l’avenir, et nous devons concevoir des systèmes périphériques intégrés à l’IA qui soient fiables, transparents et sûrs tout en faisant progresser les valeurs humaines qu’ils sont censés refléter ».
« L’IA continuera à exercer un effet transformateur sur de nombreuses industries, et elle est en passe de devenir un moteur de changement dans les secteurs de la santé, de l’automobile, de la cybersécurité, de la finance et de la technologie, conclut Richard Uhlig, Senior Fellow d’Intel, vice-président et directeur d’Intel Labs. Cela étant dit, la recherche sur l’IA responsable, sûre et protégée est primordiale pour que son véritable potentiel puisse être mis à profit. Le Private AI Collaborative Research Institute se consacrera à la mise au point de technologies faisant appel à des principes éthiques qui placent les individus au premier plan et assurent leur sécurité. Nous avons invité Avast, Borsetta et Elisa à nous rejoindre dans notre mission qui consiste à cerner le véritable impact de l’IA sur le monde qui nous entoure. Nous nous réjouissons de les compter parmi nous pour pallier les inconvénients et les dangers potentiels de l’IA ».
Pour en savoir plus sur l’Institut et pour suivre les découvertes issues des travaux de recherche à venir, consultez le site : https://www.intel.com/content/www/us/en/research/blogs/private-ai-collaborative-research-institute-launch.html