La "machine morale" développée par le MIT et mise en ligne ici vous permet de prendre un instant la place des développeurs de logiciels pour voitures autonomes.
Une fois qu'elles seront autonomes, les véhicules automobiles devront prendre des décisions à notre place. Lorsque tout se passe bien, et que toutes les fonctions sont sous contrôle, aucun problème... mais un incident imprévu peut survenir, un problème mécanique sur les freins, un piéton imprévu qui ne respecte pas la signalisation, etc.
Comment la voiture doit-elle réagir lorsqu'elle est confrontée à un incident de ce type ? Le logiciel doit prendre des décisions, dont certaines se traduiront par la mort d'une ou plusieurs personnes. Comment le logiciel doit-il alors prendre ces décisions ? Sur quels critères ?
Nous avons chacun nos critères de moralité. Certains chercheront l'égalité parfaite, donnant la même chance de survie à une femme enceinte et à un sans domicile fixe. D'autres introduiront des biais dans leur jugement, l'âge, le sexe, le niveau social, etc.
Le MIT a voulu savoir comment vous, nous, réagissons aujourd'hui face à ces situations critiques.
Allez jouer avec le questionnaire, répondez honnêtement en fonction des situations, et comparez ensuite votre perception morale face à celle de l'ensemble des répondants.
Et n'oubliez pas que, si c'est un jeu aujourd'hui pour vous, c'est un sujet bien réel chez les développeurs de logiciels d'aide à la décision pour voitures autonomes. Et personnellement, je n'aimerais pas être à leur place, et devoir aujourd'hui prendre ce genre de décisions.
Une fois qu'elles seront autonomes, les véhicules automobiles devront prendre des décisions à notre place. Lorsque tout se passe bien, et que toutes les fonctions sont sous contrôle, aucun problème... mais un incident imprévu peut survenir, un problème mécanique sur les freins, un piéton imprévu qui ne respecte pas la signalisation, etc.
Comment la voiture doit-elle réagir lorsqu'elle est confrontée à un incident de ce type ? Le logiciel doit prendre des décisions, dont certaines se traduiront par la mort d'une ou plusieurs personnes. Comment le logiciel doit-il alors prendre ces décisions ? Sur quels critères ?
Nous avons chacun nos critères de moralité. Certains chercheront l'égalité parfaite, donnant la même chance de survie à une femme enceinte et à un sans domicile fixe. D'autres introduiront des biais dans leur jugement, l'âge, le sexe, le niveau social, etc.
Le MIT a voulu savoir comment vous, nous, réagissons aujourd'hui face à ces situations critiques.
Allez jouer avec le questionnaire, répondez honnêtement en fonction des situations, et comparez ensuite votre perception morale face à celle de l'ensemble des répondants.
Et n'oubliez pas que, si c'est un jeu aujourd'hui pour vous, c'est un sujet bien réel chez les développeurs de logiciels d'aide à la décision pour voitures autonomes. Et personnellement, je n'aimerais pas être à leur place, et devoir aujourd'hui prendre ce genre de décisions.
Autres articles
-
4 entreprises sur 5 ne peuvent pas tirer parti de l'IA à cause de fondations de données inadéquates
-
Le nouvel outil Webfleet Transition EV permet l’électrification des flottes par la donnée
-
IA, simplification et débureaucratisation pour transformer l'État
-
L’administration américaine va nommer ses premiers CAIO (Chief Artificial Intelligence Officer) et former ses comités de gouvernance
-
Les données au service des véhicules électriques