[ad_1]
Trois millions de volontaires ont été soumis à des dilemmes auxquels pourraient avoir à faire face les futurs véhicules autonomes.
«Je me souviens avoir reçu un e-mail d’un monsieur très en colère: la première question qui lui avait été posée était: “Préférez-vous tuer un sans-abri ou deux chiens?” Cette personne trouvait abominable que nous ayons pu imaginer une telle question…» Le scénario macabre n’est pourtant pas né dans la tête de Jean-François Bonnefon, chercheur en psychologie cognitive à la Toulouse School of Economics (CNRS) détaché au Mbadachusetts Institute of Technology (MIT). La Moral Machine, un programme mis au point pour tester des choix moraux, l’avait généré toute seule.
Cette Moral Machine est une plateforme expérimentale en ligne, née d’un projet porté par un chercheur en informatique au MIT, Edmond Awad. Elle est au centre d’une étude publiée le 24 octobre dans la revue Nature. Objectif: explorer la façon dont tout un chacun tranche les dilemmes moraux auxquels pourraient avoir un jour à faire face les véhicules autonomes. La même équipe avait déjà esquissé la question en 2016, mais …
[ad_2]
Source link