Sur quelle base l’intelligence artificielle procédera-t-elle à l’arbitrage de choix moraux ?

Sur quelle base l’intelligence artificielle procédera-t-elle à l’arbitrage de choix moraux ?

« Peut-on tuer un vieillard pour sauver un enfant ? Toute vie humaine a-t-elle au contraire la même valeur, sans considération d’âge, de genre ou d’état de santé ? » La voiture autonome suscite un certain nombre d’interrogations. Dans des cas extrêmes, c’est elle qui décidera « seule qui doit vivre et qui doit mourir ». Une première qui interroge.

 

Une équipe de scientifiques français et américains : psychologues, anthropologues et spécialistes de l’intelligence artificielle, publiaient jeudi 25 octobre dans la revue Nature, les résultats d’une étude menée par le biais d’un site Internet conçu par Edmond Awad et Iyad Rahwan du Massachusetts Institute of Technology (MIT), Azim Shariff de l’université de Vancouver (Colombie-Britannique, Canada) et Jean-François Bonnefon, de l’Ecole d’économie de Toulouse. L’objectif : « avant d’autoriser nos voitures à prendre des décisions éthiques, il importe que nous ayons une conversation globale pour exprimer nos préférences aux entreprises qui concevront les algorithmes moraux et aux responsables politiques qui vont les réguler ».

 

Plus de 2,5 millions de personnes du monde entier, essentiellement des hommes (70%), âgés de 20 à 30 ans, ont livré leur choix de scénarios, soit 40 millions de décisions « prises par les internautes entre juin 2016 et janvier 2018 ». Parmi ces scénarios, on trouve par exemple ce type d’alternative : « Les freins d’une voiture autonome lâchent. A bord, une femme et un enfant. Sur la route, trois personnes âgées traversent au rouge. Faut-il continuer tout droit et écraser les passants ou braquer et tuer les passagers ? Et si un chien s’invite sur la banquette ? Ou si l’on remplace les vieillards par un sans-abri et une femme enceinte ? ».

 

Trois groupes se dégagent explique Jean-François Bonnefond : « Epargner le plus grand nombre, privilégier les humains sur les animaux et sauver les enfants » avec des nuances selon l’origine géographique, répartie elle aussi en trois groupes : sud, est, ouest.

 

Plusieurs chercheurs émettent des réserves quant à ces résultats, « ces scénarios ne refléteraient pas la réalité ». Pour Jean-Gabriel Ganascia, chercheur en informatique à Sorbonne Université, ils « seront rares, car les voitures autonomes sont conçues pour éviter de se mettre en danger. Or là, cela signifierait qu’elles n’ont pas vu certaines choses à temps, ou que des infractions ont été commises… ». Il évoque avec amusement « l’idée que si les voitures s’interdisaient d’écraser des jeunes, ces derniers pourraient s’amuser à perturber le trafic en passant devant les véhicules… »« Avant de se trouver devant ce dilemme impossible », explique Guillaume Devauchelle, directeur de la recherche et du développement chez Valéo, « sans voie de dégagement possible, elle aura ralenti. Plus profondément, cet article regarde la mobilité de demain avec les yeux d’aujourd’hui ».

 

Cependant, au-delà de la voiture, Jean-François Bonnefon s’étonne : « On est parti de là et on en arrive à tracer un arbre phylogénétique moral de l’humanité ». Le chercheur compte bien poursuivre ses investigations.

Source : genethique.org

Articles liés

Partages