Augustin HURET, Fondateur de Mondobrain
Généralement, ce qui est artificiel, un lac, une pelouse, un cœur ou une plante marque la supériorité de l’homme sur une nature dominée et maîtrisée. A l’inverse, l’Intelligence Artificielle est perçue par le plus grand nombre comme n’ayant rien d’humain, ni de naturel d’ailleurs. Telle une entité supra naturelle, elle représenterait plutôt une forme de prise de contrôle de la machine sur l’homme. Alimenté par quelques blockbusters, le mythe de la machine dominant l’homme et l’asservissant fait recette et inquiète.
On tend même souvent à opposer Intelligences Humaine et Artificielle, à faire de l’Intelligence de la machine une concurrente de celle de l’homme plutôt que la complice discrète de ses réussites. Les média relatent plus les dangers de l’AI que ses bénéfices. Ainsi on se gargarise des rares accidents de Tesla en mode autonome, sans dire qu’au final, la voiture intelligente apporte plus de sécurité que n’importe quelle autre voiture pilotée traditionnellement. D’un autre côté, l’Intelligence Artificielle fascine lorsque l’on découvre qu’un robot peut faire un salto dans un entrepôt ou que notre futur réfrigérateur s’occupera seul de renouveler le stock d’Haagen Dazs. De l’autre on pousse des cris d’orfraie à la moindre proposition d’assistance dès lors qu’elle provient d’un système intelligence, avançant le risque qu’à terme le système ne nous supplante.
Paradoxalement, c’est là où l’application de l’Intelligence Artificielle est le plus évident, l’Aide à la Décision, que l’on exige des preuves et des garanties que l’on avait jamais osé demander avant, ni à la « Dataviz », ni à l’Analyse Prédictive. On veut des garanties, on refuse les boites noires et on demande des preuves à l’Analyse Prédictive. Une sorte de principe de précaution de l’Intelligence. L’effet « Black Box » inquiète, alors on demande que le moteur d’Intelligence Artificielle devienne « Glass Box ». Bien sûr on a raison, mais sera-t-on vraiment rassurés par plus de transparence ? Certaines prétendues transparences ne sont-elles pas des leurres ? Peuvent-elle vraiment nous rassurer totalement ?
Mettons-nous à la place de l’utilisateur final. Que lui apporterait d’avoir accès à l’algorithme ? (Sachant que la plupart du temps, ils sont publics). Autant ouvrir le capot d’un Land Rover pour rendre visible son moteur à une tribu de pygmées que fascine la puissance du gros 4X4 ! De même, une « glass box » a peu de chance de rassurer l’utilisateur, même par Data Scientist interposé. Certes, il faut vérifier les résultats en les confrontant aux méthodes d’optimisations traditionnelles, mise en œuvre par les « data scientists », mais ce qu’attend l’utilisateur est en réalité beaucoup plus simple et beaucoup plus compliqué à la fois.
L’utilisateur et sa communauté veulent une Recommandation Justifiée qui aboutisse à une Décision Légitime. Voyons comment les satisfaire !
La Justification d’une recommandation passe, non par la transparence illusoire de l’algorithme, mais par la traçabilité des règles qui ont abouti à la construire. Les algorithmes ne font pas d’erreurs de calcul, ça se saurait. Que certains spécialistes des statistiques préfèrent que la recommandation se fonde sur telle méthode qu’il préconise, pourquoi pas ! Mais au-delà de la justesse incontournable du résultat, de l’agilité et de la facilité à l’obtenir, le plus important pour une organisation humaine, c’est de comprendre et de documenter le processus et les échanges qui ont abouti à construire une recommandation, et que ce processus ait permis à chacun des contributeurs potentiels d’apporter leur expertise, leur curiosité ou leur expérience. En somme, les utilisateurs mesurent l’innocuité de l’Intelligence Artificielle à la capacité du système qui le porte à collectiviser la Décision.
C’est pourquoi la légitimité d’une décision ne peut en aucun cas reposer sur la machine seule, car celle-ci, au final c’est le facteur humain qui la fonde. En somme, la machine propose et l’homme dispose, pour parodier le vieil adage. On ne peut donc se défausser de la justification d’une décision en prétextant de la déresponsabilisation mécanique de son processus au profit de la machine.
C’est là que l’effet boite noire peut être gommé, en permettant que les contributions individuelles et collectives enrichissent la recommandation de la machine en s’y imbriquant. Ces contributions peuvent prendre des formes diverses qui vont de l’expérience ou du savoir empirique des utilisateurs, aux enrichissements nés de la confrontation des idées et des échanges. Loin de diviser l’Intelligence Artificielle, ainsi mise en œuvre, devient un lieu d’échange et de succès partagés : le Graal des organisations humaines, le « management 4.0 ».
C’est cette dernière composante collective qui donne à la Décision sa Légitimité. Une décision qui résulterait de l’application systématique et automatique de la recommandation d’une « black box » serait tellement déresponsabilisée que sa Légitimité ne pourrait qu’être contestée. C’est d’ailleurs le problème que pose au législateur et aux sociétés d’assurances, le mode automatique de la conduite automobile. Qui est responsable ?
Ce qui est gérable légalement dans l’instantanéité de la conduite automobile ne l’est certainement pas dans l’entreprise. Ce qui sépare ces deux extrêmes : le temps. Plus le temps est court, plus la décision peut se rapprocher de la machine. Ainsi, la majorité des décisions de « credit scoring », seront prises en suivant rigoureusement la recommandation de la machine qui aura intelligemment réduit à la portion congrue la « zone grise ». C’est ainsi que les banques construisent leur avantage commercial. A l’inverse, la révision globale d’un processus industriel complexe aura peu de chance de se faire instantanément, sans que chacune des parties prenantes ne soumettent leur contraintes, apporte la contribution de son expérience et propose ses propres scénarios. Ensuite, les leçons apprises par la machine et régulièrement enrichies (Machine Learning) ramèneront probablement l’Intelligence Artificielle au niveau de l’atelier pour proposer des réglages instantanés aux opérateurs.
L’Intelligence Augmentée, en combinant Intelligences Humaine, Collective et Artificielle, garantit à la fois la Justification et la Légitimité des Décisions prises car elle remet l’humain au centre de la décision et la machine à son service.
On tend même souvent à opposer Intelligences Humaine et Artificielle, à faire de l’Intelligence de la machine une concurrente de celle de l’homme plutôt que la complice discrète de ses réussites. Les média relatent plus les dangers de l’AI que ses bénéfices. Ainsi on se gargarise des rares accidents de Tesla en mode autonome, sans dire qu’au final, la voiture intelligente apporte plus de sécurité que n’importe quelle autre voiture pilotée traditionnellement. D’un autre côté, l’Intelligence Artificielle fascine lorsque l’on découvre qu’un robot peut faire un salto dans un entrepôt ou que notre futur réfrigérateur s’occupera seul de renouveler le stock d’Haagen Dazs. De l’autre on pousse des cris d’orfraie à la moindre proposition d’assistance dès lors qu’elle provient d’un système intelligence, avançant le risque qu’à terme le système ne nous supplante.
Paradoxalement, c’est là où l’application de l’Intelligence Artificielle est le plus évident, l’Aide à la Décision, que l’on exige des preuves et des garanties que l’on avait jamais osé demander avant, ni à la « Dataviz », ni à l’Analyse Prédictive. On veut des garanties, on refuse les boites noires et on demande des preuves à l’Analyse Prédictive. Une sorte de principe de précaution de l’Intelligence. L’effet « Black Box » inquiète, alors on demande que le moteur d’Intelligence Artificielle devienne « Glass Box ». Bien sûr on a raison, mais sera-t-on vraiment rassurés par plus de transparence ? Certaines prétendues transparences ne sont-elles pas des leurres ? Peuvent-elle vraiment nous rassurer totalement ?
Mettons-nous à la place de l’utilisateur final. Que lui apporterait d’avoir accès à l’algorithme ? (Sachant que la plupart du temps, ils sont publics). Autant ouvrir le capot d’un Land Rover pour rendre visible son moteur à une tribu de pygmées que fascine la puissance du gros 4X4 ! De même, une « glass box » a peu de chance de rassurer l’utilisateur, même par Data Scientist interposé. Certes, il faut vérifier les résultats en les confrontant aux méthodes d’optimisations traditionnelles, mise en œuvre par les « data scientists », mais ce qu’attend l’utilisateur est en réalité beaucoup plus simple et beaucoup plus compliqué à la fois.
L’utilisateur et sa communauté veulent une Recommandation Justifiée qui aboutisse à une Décision Légitime. Voyons comment les satisfaire !
La Justification d’une recommandation passe, non par la transparence illusoire de l’algorithme, mais par la traçabilité des règles qui ont abouti à la construire. Les algorithmes ne font pas d’erreurs de calcul, ça se saurait. Que certains spécialistes des statistiques préfèrent que la recommandation se fonde sur telle méthode qu’il préconise, pourquoi pas ! Mais au-delà de la justesse incontournable du résultat, de l’agilité et de la facilité à l’obtenir, le plus important pour une organisation humaine, c’est de comprendre et de documenter le processus et les échanges qui ont abouti à construire une recommandation, et que ce processus ait permis à chacun des contributeurs potentiels d’apporter leur expertise, leur curiosité ou leur expérience. En somme, les utilisateurs mesurent l’innocuité de l’Intelligence Artificielle à la capacité du système qui le porte à collectiviser la Décision.
C’est pourquoi la légitimité d’une décision ne peut en aucun cas reposer sur la machine seule, car celle-ci, au final c’est le facteur humain qui la fonde. En somme, la machine propose et l’homme dispose, pour parodier le vieil adage. On ne peut donc se défausser de la justification d’une décision en prétextant de la déresponsabilisation mécanique de son processus au profit de la machine.
C’est là que l’effet boite noire peut être gommé, en permettant que les contributions individuelles et collectives enrichissent la recommandation de la machine en s’y imbriquant. Ces contributions peuvent prendre des formes diverses qui vont de l’expérience ou du savoir empirique des utilisateurs, aux enrichissements nés de la confrontation des idées et des échanges. Loin de diviser l’Intelligence Artificielle, ainsi mise en œuvre, devient un lieu d’échange et de succès partagés : le Graal des organisations humaines, le « management 4.0 ».
C’est cette dernière composante collective qui donne à la Décision sa Légitimité. Une décision qui résulterait de l’application systématique et automatique de la recommandation d’une « black box » serait tellement déresponsabilisée que sa Légitimité ne pourrait qu’être contestée. C’est d’ailleurs le problème que pose au législateur et aux sociétés d’assurances, le mode automatique de la conduite automobile. Qui est responsable ?
Ce qui est gérable légalement dans l’instantanéité de la conduite automobile ne l’est certainement pas dans l’entreprise. Ce qui sépare ces deux extrêmes : le temps. Plus le temps est court, plus la décision peut se rapprocher de la machine. Ainsi, la majorité des décisions de « credit scoring », seront prises en suivant rigoureusement la recommandation de la machine qui aura intelligemment réduit à la portion congrue la « zone grise ». C’est ainsi que les banques construisent leur avantage commercial. A l’inverse, la révision globale d’un processus industriel complexe aura peu de chance de se faire instantanément, sans que chacune des parties prenantes ne soumettent leur contraintes, apporte la contribution de son expérience et propose ses propres scénarios. Ensuite, les leçons apprises par la machine et régulièrement enrichies (Machine Learning) ramèneront probablement l’Intelligence Artificielle au niveau de l’atelier pour proposer des réglages instantanés aux opérateurs.
L’Intelligence Augmentée, en combinant Intelligences Humaine, Collective et Artificielle, garantit à la fois la Justification et la Légitimité des Décisions prises car elle remet l’humain au centre de la décision et la machine à son service.