La décision humaine à l’heure de l’intelligence artificielle – sous-titre du livre – est une question d’actualité qui se pose pour chacun d’entre nous au quotidien : quand décider et que décider ? et quand laisser faire l’algorithme ?

Le court ouvrage propose un solide tour bien mené de la question. Toute personne qui se pose la pose gagnera donc à l’avoir lu. Je prends ici quelques notes principalement pour mémoire, sans prétendre à une quelconque synthèse.

D’abord, la question est effectivement “quand décider et que décider ?” plutôt que “faut-il ?”. Les algorithmes décident déjà de bien des choses et ce n’est pas nouveau. Les auteurs rappellent que si l’IA donne une coloration moderne et plus pressante au sujet, elle est surtout le révélateur d’une situation existante. Une administration qui a défini des règles est déjà un algorithme. Les banques accordent ou non des crédits au moyen de règles qui sont de fait des algorithmes. Remplacer cet ensemble de règles par une IA est une étape de plus, mais ce n’est qu’une étape. On accuse souvent l’IA d’introduire des biais. C’est presque toujours faux : elle est généralement moins biaisée, ou alorstout autant, que le système simpliste qu’elle remplace. Cependant, elle place le débat dans la lumière.

Aussi, n’ayons pas de méfiance a priori vis-à-vis de la machine. Presque tous les discours qui s’opposent à la décision par l’IA se révèlent anciens et infondés lorsqu’on les passe à un filtre critique. Qu’on lui reproche les erreurs qu’elle commet parfois, l’incapacité à expliquer ses décisions, ses biais ou son manque d’empathie… tous ces arguments s’appliquent aussi à la règle appliquée par un humain. Alors, n’y a-t-il aucun doute et faut-il embrasser l’IA à bras le corp ? Pas pour tout et pas tout le temps.

Pour mon usage personnel, je me note de toujours tester l’IA avant de l’adopter. Accepter qu’une IA décide à ma place demande de lui faire confiance, c’est-à-dire d’être raisonnablement certain qu’elle donne de bons résultats et en tous cas des résultats meilleurs que ce que j’aurais pu réaliser sans elle. À grande échelle, cela requiert probablement des audits externes réalisés par des tiers de confiance, voire – proposition des auteurs – une Cour des comptes de l’IA. À l’échelle individuelle, on pourra réaliser quelques tests. C’est statistiquement insuffisant et non probant, mais je n’ai pas les moyens techniques d’un audit complet.

Plus en détail, les auteurs définissent cinq situations : (i) l’IA fonctionne, (ii) l’IA pourrait fonctionner, mais inquiète, (iii) l’IA est à bannir, (iv) l’humain est préférable et, (v) la codécision.

IA pour sûr – L’IA fonctionne très bien quand l’objectif est clair, les données nombreuses et lorsqu’on peut entrainer l’algorithme pour un apprentissage supervisé. On peut penser à Google Maps, à un jeu d’échecs ou à toute autre situation où l’objectif est exprimé sans détour, par exemple aller d’un point A à un point B. Les IA spécialisés sur un sujet précis, comme la reconnaissance des fractures sur des images de radiologie médicale, fonctionnent déjà et ont donc un bel avenir devant elle. Dans cette situation, pas de toute : utilisons l’IA.

IA dans le bon cadre – Quand l’IA pourrait fonctionner, mais inquiète, il faut selon les auteurs lever les inquiétudes. Idéalement, il faudrait qu’une IA soit validée et auditée par des autorités indépendantes, qu’elle reste soumise à la supervision réelle des décideurs (pas simple, lisez-le livre à ce sujet), que ses suggestions soient suffisamment explicables et que ses utilisateurs soient formés à son fonctionnement. Elles doivent aussi être utilisées pour lutter contre les biais décisionnels que l’on souhaite combattre, ce qui implique d’avoir défini ces biais (sujet épineux, d’ailleurs spécialité d’un des auteurs). Enfin, elles peuvent donner l’illusion de l’empathie, mais sans cacher le fait qu’elles sont des machines ; et on doit pouvoir trouver un humain avec qui interagir en dernier recours. À ces conditions, il apparait à Éric et Olivier que l’on peut accepter d’utiliser une IA pour un sujet frontière. On pourrait penser à une IA qui raconte l’histoire de France ou à Parcoursup, le système d’allocation des étudiants français aux filières éducatives.

Surtout pas d’IA – Il existe des situations où les auteurs souhaitent bannir l’IA : quand la décision est unique et qu’on ne peut pas entraîner une algorithme. L’ouvrage prend l’exemple du déclenchement du feu nucléaire. C’est quelque peu extrême, mais un bon exemple. Confier une partie du processus à une IA est tentant : elle n’hésitera pas. Mais c’est aussi dangereux : les risques de faux positifs sont trop importants. Et on ne peut pas véritablement entraîner l’IA à ces faux positifs. On pourra s’amuser à revoir le film d’anticipation Wargames (sorti en  1983 !) à ce sujet : c’est exactement le thème. Un adolescent joue à la guerre avec l’IA du Pentagone. Sauf que l’IA – elle – ne sait pas qu’elle joue. Et aussi quand la décision relève d’un enjeu vital. Tuer et dans une certaine mesure rendre la justice.

Humains – On touche en fait là à une quatrième catégorie : lorsqu’il vaut mieux qu’un humain prenne la décision parce que c’est le processus plus que le résultat qui importe. Les auteurs rappellent que la justice est aussi un processus de recherche de la vérité, de création d’une vérité judiciaire et un parcours psychologique pour ceux qui y prennent part. Il ne s’agit pas d’énoncer une peine. Une IA qui annoncerait “dix ans de prison ferme” au bout de quelques secondes – quand bien même sa décision serait parfaitement justifiée – manquerait complètement l’objectif qui est ailleurs.

Codécision – Enfin, l’ouvrage traite d’une cinquième catégorie : la codécision. Dans les cas où l’objectif n’est pas clair ou dans les cas où trop peu de données existent, on pourra utiliser intelligemment l’IA. Il s’agit alors de s’en servir pour un bout du sujet, sans la laisser décider. On pourra lui demander un avis ou un éclairage. On pourra s’en servir pour clarifier l’objectif, débiaiser ses décisions ou défendre une position contraire à la sienne. On pourra aussi organiser des débats d’IA – sujet que je trouve particulièrement intéressant et prometteur – pour que plusieurs IA ensemble tentent de prendre une décision meilleure que celle qu’un humain aurait pris.

Notes de conclusion : les auteurs appellent à passer la question de la décision par l’IA à l’échelle. Prise collectivement, la question devient “quelle société voulons-nous ?”, titre de la troisième partie. La question est d’autant plus importante et pressante que d’autres y répondent déjà à notre place. Si vous ne l’avez pas fait, je vous invite à lire le manifeste techno optimiste de Marc Andreesen. On peut être d’accord ou pas d’accord avec lui, mais ses objectifs ont le mérite d’être clairs et annoncés. Toute personne qui souhaite un autre futur va devoir participer à le créer !

PS : note de débat pour un verre à l’occasion : le texte suggère à plusieurs endroits de considérer l’IA comme un “acteur” ou un “collègue” plutôt que comme un “outil” et semble considérer ce point comme important. J’aurais plutôt tendance à défendre la position inverse et à maintenir que l’IA est un outil. Puissant certes, mais un outil tout de même. Je ne sais pas s’il s’agit d’un différend purement lexical ou s’il existe une subtilité qui m’échappe à ce stade. À creuser le jour venu.


En savoir plus sur Curatus read

Abonnez-vous pour recevoir les derniers articles par e-mail.