Entretien avec Dave Martin, Senior Scientist au XRCE, le centre européen de recherche de Xerox
Le centre de recherche européen de Xerox fait de la recherche en informatique. Ses compétences principales tournent autour de quatre thèmes : analyse de données - statistiques - machine learning, traitement de l'image, traitement naturel du langage, et finalement une équipe ethnographique, à laquelle appartient Dave Martin. Le rôle de cette équipe composée de sociologues et de technologues, est de réaliser des études pour observer le comportement des travailleurs face aux technologies.
Il s'agit donc de comprendre comment les gens utilisent les technologies, si ces usages révèlent certains problèmes ou besoins, puis de partager ces résultats avec les créateurs de technologies, pour que les innovations futures tiennent compte de la réalité des comportements humains. Xerox travaille sur ces sujets depuis trois décennies, initialement depuis son laboratoire de recherche PARC de Palo-Alto, mais aujourd'hui dans l'ensemble de ses laboratoires de recherche.
Par exemple, cette équipe a développé une interface de visualisation 3D, installée sur les photocopieurs et imprimantes de la marque, qui permet par téléphone au technicien en charge du service après-vente, de montrer à son client les manipulations à effectuer. Rien n'est en effet plus difficile que de tenter d'expliquer une manipulation technique alors qu'on ne voit pas ni la machine, ni ce que fait le client. En partageant une représentation 3D de l'environnement, client et technicien se comprennent mieux.
"Le Big Data est aujourd'hui dominé par la technologie. Il est rare pour un sociologue de pouvoir s'exprimer sur ces sujets", regrette Dave Martin. Il nous a, au contraire, semblé que Decideo, bien que très "technologique", devait convaincre ses lecteurs de se poser d'autres questions, de sortir la tête de leurs clusters Hadoop et de réfléchir un peu au futur et à la place de l'Être humain dans tout cela.
Il s'agit donc de comprendre comment les gens utilisent les technologies, si ces usages révèlent certains problèmes ou besoins, puis de partager ces résultats avec les créateurs de technologies, pour que les innovations futures tiennent compte de la réalité des comportements humains. Xerox travaille sur ces sujets depuis trois décennies, initialement depuis son laboratoire de recherche PARC de Palo-Alto, mais aujourd'hui dans l'ensemble de ses laboratoires de recherche.
Par exemple, cette équipe a développé une interface de visualisation 3D, installée sur les photocopieurs et imprimantes de la marque, qui permet par téléphone au technicien en charge du service après-vente, de montrer à son client les manipulations à effectuer. Rien n'est en effet plus difficile que de tenter d'expliquer une manipulation technique alors qu'on ne voit pas ni la machine, ni ce que fait le client. En partageant une représentation 3D de l'environnement, client et technicien se comprennent mieux.
"Le Big Data est aujourd'hui dominé par la technologie. Il est rare pour un sociologue de pouvoir s'exprimer sur ces sujets", regrette Dave Martin. Il nous a, au contraire, semblé que Decideo, bien que très "technologique", devait convaincre ses lecteurs de se poser d'autres questions, de sortir la tête de leurs clusters Hadoop et de réfléchir un peu au futur et à la place de l'Être humain dans tout cela.
L’Être humain ne se résume pas à un « like » !
En matière de big data et de machine learning, les recherches actuelles semblent aller vers le remplacement de l'humain par la machine; pour des tâches simples comme la logistique des entrepôts de Amazon prise en charge par des robots, ou dans le cadre de décisions complexes comme le suggèrent les réflexions actuelles sur la régulation algorithmique. Pour Dave Martin, "les décisions ne peuvent pas être intégralement prises par des algorithmes et par l'analyse des données. Le facteur humain est omniprésent. Certaines données comme la température par exemple sont des données simples, elles peuvent être collectées, stockées et utilisées dans une analyse. Mais les données qui concernent les comportements humains sont beaucoup plus complexes". Réduire les données en provenance des comportements humains à des points de données numériques analysables par un système, conduirait donc à appauvrir l'information. Et par conséquent à prendre des décisions basées sur une partie seulement de la richesse de l'information humaine. "C'est exactement le problème que la simplification des "likes" Facebook risque d'entrainer", explique-t-il. En effet, la notion de "J'aime" est beaucoup plus complexe qu'un simple clic. D'une part Facebook a toujours refusé de créer un bouton "Je n'aime pas". On ne connait donc qu'une partie de l'opinion. Par ailleurs, lorsque vous "aimez" quelque chose, c'est toujours avec différentes nuances. C'est d'ailleurs pour cela que nos langues sont plus riches : apprécier, aimer, adorer, et tous les adjectifs qualificatifs que l'on pourrait ajouter à ces verbes. En simplifiant l'analyse du comportement humain à "J'aime" ou je n'existe pas, Facebook ne collecte en réalité qu'une toute petite partie de la richesse de la perception humaine.
L'analyse de texte, même si elle a fait de gros progrès, a encore du mal à intégrer certaines nuances de l'expression humaines. "Il est très difficile pour un système, de détecter et de "comprendre" les sarcasmes ou les jeux de mots", rappelle Dave Martin.
Si l'on revient à l'exemple de Facebook. Aujourd'hui le réseau social est capable de prédire, d'anticiper, ce que vous allez aimer. Avant même que vous n'ayez fait votre choix, le réseau peut aujourd'hui choisir de vous pousser certaines informations, celle dont il sait qu'elles vont vous plaire. On peut extrapoler et imaginer un réseau social où les humains ne seraient même plus nécessaires ! Votre profil recevrait des informations, basées sur ce qu'il sait de vous, et les "aimerait" automatiquement. Une vie totalement virtuelle en quelque sorte, dont on n'imagine pas vraiment l'intérêt, mais qui peut servir la démonstration. "Cela nous perturbe d'ailleurs aujourd'hui; lorsque Facebook affiche sur notre mur des actualités basées sur certains de nos "amis", sélectionnées par les algorithmes Big Data de Facebook, mais qui ne nous semblent pas correspondre à ce que nous souhaitons", pense Dave Martin.
L'analyse de texte, même si elle a fait de gros progrès, a encore du mal à intégrer certaines nuances de l'expression humaines. "Il est très difficile pour un système, de détecter et de "comprendre" les sarcasmes ou les jeux de mots", rappelle Dave Martin.
Si l'on revient à l'exemple de Facebook. Aujourd'hui le réseau social est capable de prédire, d'anticiper, ce que vous allez aimer. Avant même que vous n'ayez fait votre choix, le réseau peut aujourd'hui choisir de vous pousser certaines informations, celle dont il sait qu'elles vont vous plaire. On peut extrapoler et imaginer un réseau social où les humains ne seraient même plus nécessaires ! Votre profil recevrait des informations, basées sur ce qu'il sait de vous, et les "aimerait" automatiquement. Une vie totalement virtuelle en quelque sorte, dont on n'imagine pas vraiment l'intérêt, mais qui peut servir la démonstration. "Cela nous perturbe d'ailleurs aujourd'hui; lorsque Facebook affiche sur notre mur des actualités basées sur certains de nos "amis", sélectionnées par les algorithmes Big Data de Facebook, mais qui ne nous semblent pas correspondre à ce que nous souhaitons", pense Dave Martin.
Prendre de meilleures décisions qu’un Être humain
Certaines réflexions actuelles portent sur la capacité des algorithmes à prendre de meilleures décisions que les humains; basées sur plus de données, sur des règles plus précises, et qui ne font pas intervenir l'émotion. C'est ce que l'on appelle l'apprentissage machine (machine learning). "Il n'y a pas de réponse simple à cette question comme « c'est une bonne chose » ou « c'est une mauvaise chose ». Cela dépend totalement du domaine d'application. Certaines décisions, comme dans le domaine de la production industrielle, peuvent être prises par des algorithmes. Mais des décisions complexes, qui impliquent la société, ou des comportements sociaux, sont beaucoup plus compliquées à automatiser de manière juste", pense Dave Martin. "Nous constatons déjà les limites de ces systèmes dans le domaine de la finance de marché et des transactions boursières automatisées. Nous y créons une situation où des algorithmes se battent contre des algorithmes. Et cela ne génère aucune valeur ! Bien sur, cela permet à certaines banques de gagner beaucoup d'argent, mais ce n'est pas forcément utile à la société".
Cela peut nous sembler plus acceptable dans le domaine de la sécurité. Verra-t-on demain des robots soldats combattre les uns contre les autres ? "Dans le domaine des drones par exemple, il y a aujourd'hui des "pilotes", à distance, installés dans les bases militaires des déserts américains, qui pilotent les engins survolant les zones de guerre. Il y a déjà une combinaison d'humain et d'algorithmes car une partie du travail d'identification des cibles est confiée à des algorithmes, même si c'est encore pour l'instant l'humain qui appuie sur le déclencheur de l'arme. Je n'aimerais pas que ces décisions soient totalement prises par des machines. D'ailleurs une étude récente souligne que pour chaque terroriste identifié par ces algorithmes et tué, 28 civils innocents ont également été abattus !". Devons nous choisir de stopper l'usage de ces technologies qui ne remplissent pas correctement leur mission, ou doit-on améliorer encore les algorithmes. "Les deux !", pense Dave Martin.
Cela peut nous sembler plus acceptable dans le domaine de la sécurité. Verra-t-on demain des robots soldats combattre les uns contre les autres ? "Dans le domaine des drones par exemple, il y a aujourd'hui des "pilotes", à distance, installés dans les bases militaires des déserts américains, qui pilotent les engins survolant les zones de guerre. Il y a déjà une combinaison d'humain et d'algorithmes car une partie du travail d'identification des cibles est confiée à des algorithmes, même si c'est encore pour l'instant l'humain qui appuie sur le déclencheur de l'arme. Je n'aimerais pas que ces décisions soient totalement prises par des machines. D'ailleurs une étude récente souligne que pour chaque terroriste identifié par ces algorithmes et tué, 28 civils innocents ont également été abattus !". Devons nous choisir de stopper l'usage de ces technologies qui ne remplissent pas correctement leur mission, ou doit-on améliorer encore les algorithmes. "Les deux !", pense Dave Martin.
Diagnostic médical : le big data aplatit la diversité humaine
Dans un autre domaine, plus positif, celui de la médecine, la question est également posée. "Une médecine du Big Data existe déjà. Vous pouvez comparer de très nombreux cas cliniques, et sur la base de cette comparaison, déterminer quel traitement serait le plus efficace pour chaque cas". Et justement la question de l'humain resurgit. Quel niveau de détails sommes-nous capables de collecter, quelle finesse dans les données ? Est-ce que l'on ne vas pas simplifier le problème comme le "Like" de Facebook, en déterminant des critères et en leur affectant des valeurs simples. "Cela peut fonctionner dans certains domaines médicaux, et l'on peut alors automatiser le choix de certains médicaments. Mais cela ne fonctionne pas dans tous les cas. Le style de vie du patient, ses besoins, certains éléments historiques, génétiques, héréditaires, vont entrer en ligne de compte. Et c'est le médecin qui va déterminer de quelle manière ces différentes données vont servir au diagnostic ou à la recherche d'une solution", explique Dave Martin. "Le Big Data produit un effet d'aplatissement. Les nuances, les reliefs de chaque donnée sont aplatis. Des données diverses, vont être regroupées et considérées comme identiques. Le Big Data supprime la diversité des données des cas individuels. Et dans certains cas, cette diversité est la clef. Le Big Data peut être un bon guide, mais il ne devrait pas prendre les décisions complexes à la place de l'humain". Il ne serait en tous cas, pas capable de prendre ces décisions complexes sans simplifier l'information au préalable. Les algorithmes ne "comprennent" pas, ils appliquent ce qui leur a été appris. Il est difficile d'imaginer qu'un algorithme puisse comprendre qu'il manque d'informations dans un cas précis, et qu’il sache demander quelle information lui manque pour prendre sa décision.
Mais l'assistanat des professions de santé par des données et des algorithmes aurait également un impact sur la compétence des médecins. "A force d'être autant guidés et accompagnés par des algorithmes et des processus, certains médecins tiennent moins compte des spécificités du patient. Il y a un débat dans le monde de la médecine sur l'équilibre à trouver entre les données et l'expertise humaine".
Mais l'assistanat des professions de santé par des données et des algorithmes aurait également un impact sur la compétence des médecins. "A force d'être autant guidés et accompagnés par des algorithmes et des processus, certains médecins tiennent moins compte des spécificités du patient. Il y a un débat dans le monde de la médecine sur l'équilibre à trouver entre les données et l'expertise humaine".
Comment éduquer la génération Big Data
Dans le domaine de l'éducation, le big data a aussi ses conséquences. Pour les jeunes générations, élevées dans le monde d'Internet, il est plus important de savoir comment trouver l'information plutôt que de mémoriser cette information. Nos parents apprenaient par cœur la liste des départements ou comtés. Cette information est aujourd'hui disponible en quelques clics. Cela ne sert donc plus à rien de l'avoir en mémoire. Il faut en revanche savoir y accéder en ligne. Les anciennes générations savent beaucoup de choses, mais elles ne savent pas chercher rapidement en ligne. Pour les plus jeunes, c'est l'inverse; ils ne savent pas grand-chose, mais savent comment y accéder instantanément.
"Souvent les gens me disent, "nous avons besoin d'iPads dans nos classes parce qu'ils sont interactifs". Je leur réponds toujours de réfléchir combien un simple livre peut être interactif, et surtout combien est forte l'interaction entre un professeur et ses élèves", raconte Dave Martin.
"Souvent les gens me disent, "nous avons besoin d'iPads dans nos classes parce qu'ils sont interactifs". Je leur réponds toujours de réfléchir combien un simple livre peut être interactif, et surtout combien est forte l'interaction entre un professeur et ses élèves", raconte Dave Martin.
Régulation algorithmique…
Et si l'on va jusqu'au niveau de l'Etat, du gouvernement, beaucoup de chercheurs se posent aujourd'hui la question de la régulation algorithmique. C'est à dire de la capacité du couple Data/Algorithmes à prendre de meilleures décisions que nos politiciens. "Je suis convaincu que l'analytique et les données ont un rôle à jouer, en permettant par exemple d'analyser différents scénarios économiques. Mais je crois que la démocratie est une affaire de personnes. Et que les être humains doivent garder le contrôle. Nous devrions nous poser la question : est-ce qu'une technologie qui prendrait des décisions politiques serait objective ? Est-ce qu'une technologie ne serait pas elle aussi "intéressée" ? Si elle agit pour le bien de la nation et du peuple, c'est parfait. Mais si elle profite à des intérêts partisans comme une industrie ou une compagnie privée, cela ne serait pas acceptable ! Et comment pourrons nous contrôler que ces prises de décision sont objectives, et qu'elles aboutissent à de meilleurs résultats que les décisions humaines ?", s'interroge Dave Martin. Il y a donc un gouffre entre ce qui semble une amélioration théorique, et sa mise en pratique.
Face à des événements dramatiques comme ceux qui se sont produits récemment aux Etats-Unis, on peut se lancer dans une réflexion de science-fiction et poser la question : un policier "algorithmique" prendrait-il de meilleures décisions qu'un policier humain. Vous avez entendu parler et peut-être vu les images de ce jeune garçon noir de 12 ans, qui jouait dans un parc avec un faux revolver. Un voisin a appelé la police. Les policiers, insuffisamment informés, sont arrivés en voiture et ont abattu le jeune garçon qui jouait, comme nous l'avons tous fait, avec une fausse arme. Combien d'enfants jouent chaque jour "à la guerre" en France et partout dans le monde ? Dans quel autre pays prend-on le risque de se faire tuer, parce qu'on est un jeune garçon qui joue au gendarme et au voleur ?
La question de la régulation algorithmique peut donc sembler légitime. Imaginez que l'arme de ces policiers soit équipée d'un "algorithme", qui empêche le coup de partir si les conditions de tir ne sont pas réunies, et si la probabilité d'une erreur est trop importante. Séduisant, même si cela pose aussi d'autres questions, comme celle de l'auto-défense des policiers.
"Il y a des réponses technologiques, mais en réalité, la réponse à ce problème n'est peut-être pas dans la technologie, mais dans la culture américaine pro-armes", pense Dave Martin. Mais est-il plus facile de changer une culture ou de trouver des réponses technologiques ? La question reste ouverte.
La notion de contexte restera une différence majeure entre ce que la machine et l'humain perçoivent. "L'humain est fortement réactif et sensible au contexte. Lorsque je parle à quelqu'un je me remémore mes conversations précédentes, son origine, son environnement culturel, et j'adapte inconsciemment mon attitude à ce contexte. C'est difficile pour un système d'intelligence artificielle de reproduire ce mode de fonctionnement.", conclut Dave Martin. Il n'a pas ajouté « et tant mieux », mais il le pensait certainement.
Dans cette discussion et au travers de ces réflexions, Dave Martin nous amène à penser à l'humain, qui parfois semble absent de ces projets Big Data. Analyser des données, automatiser des prises de décision, ne doit pas occulter que les sources de données, les utilisateurs des décisions, restent des être humains. Abandonner le big data aux machines et aux algorithmes serait, pour lui, une véritable erreur. Espérons que les organisateurs des prochaines conférences sur le Big Data sauront mettre un peu d’humain et de réflexion dans leur programme.
Face à des événements dramatiques comme ceux qui se sont produits récemment aux Etats-Unis, on peut se lancer dans une réflexion de science-fiction et poser la question : un policier "algorithmique" prendrait-il de meilleures décisions qu'un policier humain. Vous avez entendu parler et peut-être vu les images de ce jeune garçon noir de 12 ans, qui jouait dans un parc avec un faux revolver. Un voisin a appelé la police. Les policiers, insuffisamment informés, sont arrivés en voiture et ont abattu le jeune garçon qui jouait, comme nous l'avons tous fait, avec une fausse arme. Combien d'enfants jouent chaque jour "à la guerre" en France et partout dans le monde ? Dans quel autre pays prend-on le risque de se faire tuer, parce qu'on est un jeune garçon qui joue au gendarme et au voleur ?
La question de la régulation algorithmique peut donc sembler légitime. Imaginez que l'arme de ces policiers soit équipée d'un "algorithme", qui empêche le coup de partir si les conditions de tir ne sont pas réunies, et si la probabilité d'une erreur est trop importante. Séduisant, même si cela pose aussi d'autres questions, comme celle de l'auto-défense des policiers.
"Il y a des réponses technologiques, mais en réalité, la réponse à ce problème n'est peut-être pas dans la technologie, mais dans la culture américaine pro-armes", pense Dave Martin. Mais est-il plus facile de changer une culture ou de trouver des réponses technologiques ? La question reste ouverte.
La notion de contexte restera une différence majeure entre ce que la machine et l'humain perçoivent. "L'humain est fortement réactif et sensible au contexte. Lorsque je parle à quelqu'un je me remémore mes conversations précédentes, son origine, son environnement culturel, et j'adapte inconsciemment mon attitude à ce contexte. C'est difficile pour un système d'intelligence artificielle de reproduire ce mode de fonctionnement.", conclut Dave Martin. Il n'a pas ajouté « et tant mieux », mais il le pensait certainement.
Dans cette discussion et au travers de ces réflexions, Dave Martin nous amène à penser à l'humain, qui parfois semble absent de ces projets Big Data. Analyser des données, automatiser des prises de décision, ne doit pas occulter que les sources de données, les utilisateurs des décisions, restent des être humains. Abandonner le big data aux machines et aux algorithmes serait, pour lui, une véritable erreur. Espérons que les organisateurs des prochaines conférences sur le Big Data sauront mettre un peu d’humain et de réflexion dans leur programme.
Autres articles
-
[Promotion] Livre Blanc Alteryx : La science des données en pratique
-
Maîtriser ses données sur le Cloud : l'ESILV apprend aux étudiants à dompter le Big Data sur 120 machines
-
De quelle façon trois générations de disques durs Toshiba ont aidé le plus grand laboratoire de physique du monde à conserver, chaque seconde, des centaines de téraoctets de données générées par les expériences du LHC
-
Big Data & Big Brother : de l’intérêt de connaître notre ADN
-
Livre : Big Data, le traitement streaming et temps réel des données