Deux chercheurs du MIT préparent l’intelligence artificielle à devoir faire des choix moraux

Deux chercheurs du MIT préparent l’intelligence artificielle à devoir faire des choix moraux

Qui la voiture autonome doit-elle tuer : deux enfants ou un groupe de cinq personnes âgées ?
[ Lire plus… ]

Ndlr : C’est tout le problème. Le cerveau électronique de la machine travaille à vitesse informatique, la voiture ne sera pas comme un humain, elle aura systématiquement le temps de prendre une décision, quand l’humain, lui, réagit d’instinct.   Seulement l’instinct humain est régit non seulement par les lois naturelles, mais également par sa culture sociale et par son code moral personnel. Ce qui fait qu’en présence d’une situation critique, il y a toute une foultitude de réactions diverses possibles selon qui conduit, ce qui rend l’accident socialement acceptable et permet de le juger.   En l’absence de cette diversité de réactions, face à une programmation qui unifiera le comportement de la voiture autonome, il n’y a plus lieu à justice, la mort était programmée, alors même que c’était donc un meurtre, même si c’est pour éviter de tuer quelqu’un d’autre considéré « démocratiquement » comme moralement moins important, ce qui rend l’accident socialement moins acceptable puisque non aléatoire. Or, la définition même de l’accident, c’est l’aléatoire. Dans un accident avec un véhicule piloté, les victimes auraient eu une chance de survivre (et donc ce sont les autres qui auraient été victimes), alors que dans un véhicule autonome, on a fait exprès de les tuer, le véhicule a été programmé pour.  A noter que cela pose également d’autres questions que j’avais déjà soulevées dans un article, comme le fait que certains pourraient ne pas s’accommoder des programmations standard : http://lemondeenchantier.com/blog/qui-votre-voiture-devra-t-elle-tuer/

Short link : https://lmc.today/95cj