Aux États-Unis, soixante collaborateurs de Meta licenciés par un algorithme

Aux États-Unis, soixante collaborateurs de Meta licenciés par un algorithme

Les soixante collaborateurs ont appris mardi qu’ils ne travailleraient plus pour Meta lors d’une conférence à distance, de la bouche d’un responsable qu’ils ne connaissaient pas. La liste des personnes dont Meta devait se séparer a été déterminée par un ordinateur. [Lire plus…]

Ndlr : Cette histoire fait un scandale parce qu’elle interroge sur les questions éthiques. Mais en réalité ça repose sur un biais cognitif induit par la peur de la machine qui domine l’humain. En réalité, c’est exactement le contraire, la machine est là bien à la solde de l’humain, ce n’est pas qu’elle s’est substituée à lui pour décider. Les décideurs ont licencié ceux qu’ils voulaient licencier, pour les raisons qui les concernent, habituelles au management, plus ou moins discutables. Ensuite il fallait encore licencier 60 personnes qui là ne pouvaient être licenciées que de manière arbitraire, des gens dont il n’y avait pas de raison, d’un point de vue managérial, de les licencier. Quelle que fut la décision d’un humain elle aurait été injuste : pourquoi lui et pas elle ? Pourquoi elles et pas eux ? Il a alors été fait appel à la machine, qui n’ayant aucune conscience n’a pas fait preuve de la moindre sensibilité. Ce qui interroge d’un point de vue éthique, c’est l’algorithme, parce qu’il est d’origine humaine. C’est vrai, mais à la différence de quelqu’un qui licencie quelqu’un, c’est un groupe de personnes qui constitue l’algorithme, sans viser personne, et en fonction de l’algorithme, la machine décide aléatoirement qui s’en va.

C’est toute la différence entre l’aléatoire et l’arbitraire. 60 personnes auraient été virées, c’était une décision managériale. Mais la conscience des choses induit une notion d’arbitraire, on ne la licencie pas elle parce qu’elle est jolie, lui on le licencie parce qu’on ne l’aime pas trop, l’IA, elle, est soumise à un algorithme collectif, donc anonyme et sans aucun biais ni à priori, tout ce qui correspond à l’algorithme (ou ne correspond pas, on ne sait pas dans quel sens fonctionne l’algorithme, il est plus probable qu’il ait été conçu non pas pour sélectionner ceux qui doivent être licenciés, mais plutôt ceux qui ne doivent pas l’être) est sélectionné, sans états d’âme.

Par ailleurs il y a belle lurette que les dossiers d’embauche sont présélectionnés par des IA en fonction d’algorithmes. Certains prétendent que c’est limitant, parce que l’IA serait absolue. Mais en fait, justement, non, elle n’est pas soumise aux biais humains et les dossiers ne correspondant pas méthodiquement à la fonction ne sont pas forcément écartés, parce que l’IA est capable d’identifier les capacités en fonction de milliers de paramètres qu’un humain n’est pas capable de traiter. Et donc des dossiers se retrouvent devant le recruteur alors qu’il ne les aurait pas sélectionnés. Et lorsqu’il discute avec son interlocuteur, il sait que l’IA l’a choisi et donc que son profil est plausible. Il ne l’analyse dès lors plus en fonction des compétences qu’il lit dans le CV, mais en fonction du fait que l’IA a détecté à partir de son profil la capacité de répondre à la fonction.

La clé, c’est la conscience : que ce soit pour embaucher ou licencier, il vaut mieux ne pas en avoir. Parce qu’on ne doit pas embaucher parce que le candidat nous plaît et nous a convaincu, mais parce qu’il répond au besoin. Et on ne doit pas licencier en fonction de nos goûts personnels ou d’une sensiblerie mal placée. Qu’on ne veuille pas licencier une mère isolée pour ne pas la mettre dans une mauvaise situation se comprend, c’est comme ça que les choses doivent se faire, mais une IA est tout-à-fait capable de tenir compte de ce paramètre, ce n’est donc pas un argument. Il résulte de tout ceci que le licenciement est en fait plus objectif, selon un nombre inaccessible à l’humain de paramètres et sans connotation personnelle.

 

Short link : https://lmc.today/vw7f