Le code moral des voitures autonomes
Imaginez que vous conduisez dans la rue lorsque deux personnes – un enfant et un adulte – prennent la route. Frapper l’un d’eux est inévitable. Vous avez un choix terrible. Que fais-tu?
Imaginez maintenant que la voiture est sans conducteur. Que se passe-t-il alors? La voiture doit-elle décider?
Jusqu’à présent, personne ne pensait que les voitures autonomes – des véhicules robotiques fonctionnant sans contrôle humain – pouvaient faire des choix moraux et éthiques, une question qui a été au cœur du débat en cours sur leur utilisation. Mais les scientifiques allemands pensent désormais autrement. Ils pensent qu’il sera éventuellement possible d’introduire des éléments de moralité et d’éthique dans les voitures autonomes.
Certes, la plupart des conducteurs humains ne seront jamais confrontés à un dilemme aussi angoissant. Néanmoins, «avec plusieurs millions de voitures sur la route, ces situations se produisent parfois», a déclaré Leon Sütfeld, chercheur à l’Institut des sciences cognitives de l’Université d’Osnabrück et auteur principal d’une nouvelle étude sur la modélisation de l’éthique des voitures autonomes. . L’article, publié dans Frontiers in Behavioral Neuroscience, a été co-écrit par Gordon Pipa, Peter König et Richard Gast, tous de l’institut.
Le concept de voiture sans conducteur a gagné en popularité en tant que moyen de lutter contre le changement climatique, car ces véhicules autonomes conduisent plus efficacement que la plupart des humains. Ils évitent les accélérations et les freinages rapides, deux habitudes qui gaspillent du carburant. En outre, une flotte de voitures autonomes pourrait voyager près les unes des autres sur l’autoroute pour réduire la traînée, économisant ainsi du carburant. Les voitures sans conducteur encourageront également le covoiturage, réduisant le nombre de voitures sur la route et rendant peut-être inutile la possession d’une voiture privée.
Les voitures autonomes peuvent un jour se rapprocher les unes des autres sur l’autoroute pour réduire la traînée, une pratique connue sous le nom de «peloton».
Département américain des transports
L’amélioration de la sécurité est également un économiseur d’énergie. «[Les voitures sans conducteur] devraient causer moins d’accidents, ce qui signifie que moins de voitures doivent être produites pour remplacer celles qui se sont écrasées», les plus beaux SUV a ajouté Sütfeld. «La technologie pourrait aider [à lutter contre le changement climatique] de plusieurs manières.»
L’étude suggère que les voitures peuvent être programmées pour modéliser les comportements moraux humains impliquant le choix, en décidant laquelle des multiples collisions possibles serait la meilleure option. Les scientifiques ont placé des sujets humains dans des environnements de réalité virtuelle immersifs pour étudier le comportement dans des scénarios de trafic simulés. Ils ont ensuite utilisé les données pour concevoir des algorithmes pour les voitures sans conducteur qui pourraient leur permettre de faire face à des situations potentiellement tragiques sur la route, comme le feraient les humains.
Les participants ont «conduit» une voiture dans un quartier de banlieue typique un jour brumeux lorsqu’ils ont soudainement été confrontés à une collision avec un animal, des humains ou un objet inanimé, comme une poubelle, et ont dû décider quoi ou qui épargner. Par exemple, adulte ou enfant? Humain ou animal? Chien ou autre animal? Dans l’étude, les enfants se sont mieux comportés que les adultes. Le chien était l’animal le plus apprécié, les autres étant une chèvre, un cerf et un sanglier.
L’interface de réalité virtuelle utilisée dans le expérience
Frontières en neurosciences comportementales
«En ce qui concerne les humains par rapport aux animaux, la plupart des gens conviendraient certainement que le bien-être des humains doit être la première priorité», a déclaré Sütfeld. Mais «du point de vue de la voiture autonome, tout est probabiliste. La plupart des situations ne sont pas aussi claires que “ devrais-je tuer le chien ou l’humain? ” Il est plus probable “ devrais-je tuer le chien avec une quasi-certitude, ou bien épargner le chien mais prendre 5% de chances de subir une blessure mineure à un humain? »Adhérer à des règles strictes, comme toujours décider en faveur de l’humain, pourrait ne pas sembler juste pour beaucoup.
D’autres variables entrent également en jeu. Par exemple, la personne était-elle en faute? L’adulte a-t-il cherché des voitures avant d’entrer dans la rue? L’enfant a-t-il chassé une balle dans la rue sans s’arrêter pour réfléchir? De plus, combien de personnes sont en danger?
Le ministère fédéral allemand des transports et de l’infrastructure numérique a tenté de répondre à ces questions dans un rapport récent. Il défini 20 principes éthiques pour les voitures autonomes, dont plusieurs sont en contradiction avec les choix que les humains ont faits lors de l’expérience de Sütfeld. Par exemple, le rapport du ministère dit qu’un enfant qui court sur la route est plus à blâmer – et moins digne d’être sauvé – qu’un adulte se tenant sur le sentier en tant que partie non impliquée. De plus, il déclare inacceptable de prendre en compte l’âge d’une victime potentielle.
Une voiture autonome de Google
Becky Stern
«La plupart des gens – au moins en Europe et très probablement aussi dans les cultures nord-américaines – sauveraient un enfant par rapport à une personne adulte ou âgée», a déclaré Sütfeld. «Nous pourrions débattre de la question de savoir si nous voulons ou non que les voitures se comportent comme des humains, ou si nous voulons qu’elles se conforment à des règles catégoriques telles que celles fournies par le rapport du comité d’éthique.»
Peter König, co-auteur de l’étude, pense que leur recherche crée plus de dilemmes qu’elle n’en résout, comme cela arrive parfois en science. «Maintenant que nous savons comment mettre en œuvre les décisions éthiques humaines dans les machines, nous, en tant que la société, se retrouvent toujours face à un double dilemme », a-t-il déclaré. «Premièrement, nous devons décider si les valeurs morales doivent être incluses dans les directives sur le comportement des machines et, deuxièmement, si elles le sont, les machines devraient-elles agir comme les humains?
L’étude ne cherche pas à répondre à ces questions, mais seulement à démontrer qu’il est possible de modéliser la prise de décision éthique et morale dans les voitures sans conducteur, en utilisant des indices sur la façon dont les humains agiraient. Les auteurs tentent de jeter les bases d’études supplémentaires et de débats supplémentaires.
«Ce serait plutôt simple à mettre en œuvre, car la technologie n’est certainement pas le facteur limitant ici», a déclaré Sütfeld. «La question est de savoir comment nous, en tant que société, voulons que les voitures gèrent ce genre de situation et comment les lois devraient être rédigées. Qu’est-ce qui devrait être autorisé et qu’est-ce qui ne devrait pas l’être? Pour se faire une opinion éclairée, il est certainement très utile de savoir comment les humains se comportent réellement lorsqu’ils sont confrontés à une telle décision. “