Photo by Alex Kotliarskyi on Unsplash
Cependant, le développement de programmes intelligents a été limité parce qu’il est extrêmement complexe de programmer à la main des algorithmes, notamment dès que le problème est sophistiqué, par exemple établir des diagnostics médicaux ou faire des prévisions de pannes, des prévisions de cours de bourse, parce qu’il s’agit dans ces cas de prendre en compte de très nombreux jeux de données et leurs relations le plus souvent non linéaires. Dans d’autres cas comme la traduction de langues, la reconnaissance d’objets dans des images par exemple, il est très difficile d’élaborer des règles.
Depuis le début les chercheurs ont eu conscience de leurs limites en matière de programmation des algorithmes, ils ont alors eu l’idée de construire des programmes qui sachent programmer à leur place. Pour cela la première capacité qu’un tel programme devait avoir, était celle d’apprendre. C’est ainsi qu’est née l’une des premières machines apprenantes le Perceptron en 1950 (un réseau de neurones artificiels). Depuis le Machine Learning s’est beaucoup développé et il y existe près d’une vingtaine méthodes d’apprentissage différentes dont le Deep Learning (apprentissage profond) qui a permis dans les années 2000 des progrès importants et rapides dans les domaines de la reconnaissance faciale, de la reconnaissance vocale, de la vision par ordinateur, du traitement automatisé du langage.
Par exemple, l’apprentissage profond a permis : au grand public de disposer de l’assistant personnel virtuel Siri d'Apple, de l’application Google Street View ; aux entreprises de disposer de systèmes de reconnaissance d'écriture manuelle, d’analyse des sentiments pour évaluer les clients et à Facebook, Tweeter ou Yahoo de proposer différents services ; aux médecins de détecter des tumeurs dans des images médicales. Dans le domaine de la recherche scientifique, l’apprentissage profond a des applications en biologie (analyse du génome, structure des protéines), en chimie (prédiction de réactions chimiques), en physique (détection de particules exotiques). Pour ceux qui veulent mettre le nez sous le capot, les principaux outils d’apprentissage profond sont : Pylearn2, Theano, Caffe, Torch, Cuda-convnet, Deeplearning4j.
Le domaine de l’intelligence artificielle est en plein développement, les approches, les méthodes sont nombreuses, variées, en constante évolution, elles doivent le plus souvent être combinées entre elles, chacune ayant ses avantages et ses inconvénients en général ou vis-à-vis d’un problème particulier, l’apprentissage profond par exemple en général nécessite beaucoup de données et de temps. En conséquence ce domaine passionnant de l’intelligence artificielle nécessite et nécessitera dans les vingt ans à venir, de très nombreux spécialistes de l’analyse de données, ce qui créera beaucoup d’emplois qualifiés bien payés. L’avenir pour ces spécialistes est particulièrement radieux.
Cependant, l’Intelligence artificielle qui débute est une des phases de la révolution numérique, et les experts en économie sont pessimistes au sujet de son impact sur l’emploi, à l’instar de Jean Tirole, Prix Nobel d’Économie qui a dit récemment « Il faut se préparer à la révolution numérique qui arrive, sans quoi le choc pourrait être très violent. Ce qui est clair, c'est que les destructions d'emplois vont s'accélérer, même si personne n'a vraiment idée à quelle vitesse exactement ». En parallèle de ces destructions, de nouveaux emplois seront créés, mais la question est de savoir s’ils compenseront les pertes et de quels niveaux de qualification ils seront. Le risque, largement évoqué par de nombreux experts, étant que la société se mette de plus en plus à offrir surtout des emplois peu qualifiés, voire très peu, à une population de mieux en mieux formée.
Pour aller plus loin, vous pouvez utilement lire mes autres articles sur le développement du Big Data.
Depuis le début les chercheurs ont eu conscience de leurs limites en matière de programmation des algorithmes, ils ont alors eu l’idée de construire des programmes qui sachent programmer à leur place. Pour cela la première capacité qu’un tel programme devait avoir, était celle d’apprendre. C’est ainsi qu’est née l’une des premières machines apprenantes le Perceptron en 1950 (un réseau de neurones artificiels). Depuis le Machine Learning s’est beaucoup développé et il y existe près d’une vingtaine méthodes d’apprentissage différentes dont le Deep Learning (apprentissage profond) qui a permis dans les années 2000 des progrès importants et rapides dans les domaines de la reconnaissance faciale, de la reconnaissance vocale, de la vision par ordinateur, du traitement automatisé du langage.
Par exemple, l’apprentissage profond a permis : au grand public de disposer de l’assistant personnel virtuel Siri d'Apple, de l’application Google Street View ; aux entreprises de disposer de systèmes de reconnaissance d'écriture manuelle, d’analyse des sentiments pour évaluer les clients et à Facebook, Tweeter ou Yahoo de proposer différents services ; aux médecins de détecter des tumeurs dans des images médicales. Dans le domaine de la recherche scientifique, l’apprentissage profond a des applications en biologie (analyse du génome, structure des protéines), en chimie (prédiction de réactions chimiques), en physique (détection de particules exotiques). Pour ceux qui veulent mettre le nez sous le capot, les principaux outils d’apprentissage profond sont : Pylearn2, Theano, Caffe, Torch, Cuda-convnet, Deeplearning4j.
Le domaine de l’intelligence artificielle est en plein développement, les approches, les méthodes sont nombreuses, variées, en constante évolution, elles doivent le plus souvent être combinées entre elles, chacune ayant ses avantages et ses inconvénients en général ou vis-à-vis d’un problème particulier, l’apprentissage profond par exemple en général nécessite beaucoup de données et de temps. En conséquence ce domaine passionnant de l’intelligence artificielle nécessite et nécessitera dans les vingt ans à venir, de très nombreux spécialistes de l’analyse de données, ce qui créera beaucoup d’emplois qualifiés bien payés. L’avenir pour ces spécialistes est particulièrement radieux.
Cependant, l’Intelligence artificielle qui débute est une des phases de la révolution numérique, et les experts en économie sont pessimistes au sujet de son impact sur l’emploi, à l’instar de Jean Tirole, Prix Nobel d’Économie qui a dit récemment « Il faut se préparer à la révolution numérique qui arrive, sans quoi le choc pourrait être très violent. Ce qui est clair, c'est que les destructions d'emplois vont s'accélérer, même si personne n'a vraiment idée à quelle vitesse exactement ». En parallèle de ces destructions, de nouveaux emplois seront créés, mais la question est de savoir s’ils compenseront les pertes et de quels niveaux de qualification ils seront. Le risque, largement évoqué par de nombreux experts, étant que la société se mette de plus en plus à offrir surtout des emplois peu qualifiés, voire très peu, à une population de mieux en mieux formée.
Pour aller plus loin, vous pouvez utilement lire mes autres articles sur le développement du Big Data.
Autres articles
-
Données / estimations / décisions / actions et la difficulté du facteur humain
-
Nous sommes tous impactés par nos propres biais cognitifs
-
PNY soutient le développement de projets IA grâce au serveur de stockage 3S-2400
-
[Promotion] Livre Blanc Alteryx : La science des données en pratique
-
Maîtriser ses données sur le Cloud : l'ESILV apprend aux étudiants à dompter le Big Data sur 120 machines