L’Intelligence Artificielle Peut-Elle Être Discriminante ?

L’Intelligence Artificielle Peut-Elle Être Discriminante ?

Hier, lors de la signature d’un contrat d’assurance ou pour l’obtention d’un prêt, votre interlocuteur analysait les éléments que vous lui aviez apportés, et la décision dépendait en partie de votre présentation du dossier. Mais demain, avec l’intelligence artificielle, l’algorithme donnera une réponse basée sur des milliards de données corrélées et personne ne sera en mesure d’analyser ou de contester cette décision. [Lire plus…]

Ndlr : La réponse est non, pour plusieurs raisons. C’est avoir une courte vue non holistique que de penser ça. Parce que c’est vrai si on accepte l’idée d’une IA qui étudie un sujet. Seulement il faut avoir une vision beaucoup plus globale qui intègre l’IA dans un environnement généraliste beaucoup plus massif. L’individu n’est plus mesuré en tant que tel, mais en tant que particule d’un ensemble.

Tout d’abord les organismes financiers vivent du crédit, si l’IA discrimine, ils n’en émettront plus assez et donc il faudra bien qu’ils prêtent s’ils veulent simplement continuer d’exister.

Ensuite, l’économie va se démocratiser,le crédit va se trouver ailleurs que dans les organismes financiers. Ca se fait d’ailleurs déjà, mais ça se fera de plus en plus. Nous n’en sommes qu’aux balbutiements de l’économie collaborative.

Enfin, si l’IA a la capacité de collecter une infinité de données, elles ne sont qu’un facteur de pondération en conséquence du niveau de risque attendu. Et donc les demandeurs à risque seront analysés non pas individuellement, mais exposés aux risques globaux. De même que l’IA est capable de collecter et traiter des masses de données individuelles, elle est capable d’exploiter chaque demandeur dans une masse globale de données. Et si individuellement le risque est trop élevé, au niveau global tant que le seuil de risque n’est pas compromis, elle pourra l’accepter.

Pour terminer,je dirai que l’IA sera plus objective que l’humain, elle n’aura jamais pas envie de vous prêter. De facto, si pour un individu elle refuserait d’accéder à la demande, pour cet individu au sein de l’ensemble auquel il appartient, si sa demande lui est refusée, c’est que la décision est objective et qu’un humain l’aurait refusée probablement aussi, disposant des données.

Finalement, l’IA c’est juste moins de chances de passer au travers du filtre, ce qui implique qu’un individu à qui on a refusé un prêt alors qu’il était un profil acceptable l’obtiendra avec l’IA, alors qu’un individu qui n’aurait pas dû l’obtenir mais y est parvenu en dissimulant des informations ou a embrouillé son interlocuteur ne l’obtiendra pas.

La chance n’est pas un vecteur d’égalité, l’objectivité oui.

Laisser un commentaire

Fermer le menu