Séminaire ACPR - Gouvernance de l’Intelligence Artificielle : « Un humain (où) dans la boucle ? »

Ne nous contentons pas de chercher les clés de notre stratégie sous l’éclairage du lampadaire Data

Le séminaire du 6 mars dernier « Un humain (où) dans la boucle ? », organisé par l’ACPR et Telecom Paris, était présenté par Olivier Fliche de l'ACPR et David Bounie, Professeur à Télécom Paris,  et a posé la question des relations entre les humains et l’intelligence artificielle.

Le thème des relations entre les humains et les algorithmes d’IA est aussi vaste que les différents usages de l’IA, et plus l’IA résout des problèmes humains, plus les usages se multiplient et se complexifient. Difficile de résumer le séminaire, que vous pouvez retrouver dans son intégralité en suivant le lien en bas de l’article, j’ai donc essayé de regrouper les problématiques abordées par les intervenants et de les commenter, en espérant vous donner envie d’approfondir le sujet.

À ce propos, saluons une nouvelle fois la dynamique de recherche et d’information impulsée par Telecom Paris et l’ACPR sur les sujets liés à l’intelligence artificielle, notamment dans le secteur financier.

À l’heure du questionnement, autour du contrôle de l’IA

Lors de cette session, les questions tournaient essentiellement autour du contrôle, qu’on l’appelle gouvernance, supervision ou même explicabilité. Précisons que les humains appelés à interagir ici sont essentiellement des décideurs ou des régulateurs.

Les questions, justement. Trois intervenants, 3 titres qui sont 3 questions, ce qui montre bien qu’on est à l’heure des questionnements, pas encore des réponses définitives :

  • Comment s’assurer que l’humain ajoute de la valeur ? (et non le contraire), par Winston Maxwell, juriste qui développe le programme Éthique et IA à Télécom Paris ;
  • Human In The Loop, Human On The Loop, comment choisir ? (ou : « objectiver l’usage de la décision et de l’aide à la décision dans les processus métier… »), par Thomas Baudel, chercheur à IBM ;
  • Quel degré de contrôle - et pour qui – à travers l’explicabilité ? par Astrid Bertrand –  Doctorante en interaction Homme-IA.

Alors :  

Pourquoi contrôler l’IA ?

Winston Maxwell parle de l’impact des usages sur les droits humains et se réfère aux textes juridiques tels que RGPD et IA Act.
Thomas Baudel insiste sur la question de qui est responsable des décisions « aidées par l’IA », et comment leur donner les moyens d’assumer cette responsabilité.
Astrid Bertrand se penche sur le devoir d’information des conseillers qui doivent expliquer à des clients ou à des régulateurs les décisions proposées par l’IA.

Contrôler pour limiter les erreurs et les abus, favoriser la prise de responsabilité, ou justifier les résultats. Dans tous les cas, il s’agit de « reprendre la main » dans le processus de décision.

Comment contrôler l’IA ?

Une approche analytique par Winston Maxwell, qui invite à préciser les finalités du contrôle au cas par cas pour adapter ses modalités, ainsi qu'à séparer les tâches et responsabilités entre l’humain et la machine, et entre les modalités.

Séparer encore, pour Thomas Baudel, les cas où l’humain est meilleur que la machine (cas HABA : Human are Better At) de ceux ou la machine est meilleure que l’humain (MABA : Machine are better At), et trouver ceux où une collaboration H/IA est bénéfique. [Etrangement, ces cas sont repérés par la machine elle-même].

Séparer enfin, pour Astrid Bertrand, la logique IA de la logique humaine, en donnant à l’explication humaine de la décision le rôle de garde-fou ou justificateur des décisions algorithmiques.

(Schéma de performance on fonction de l'indice de confiance par Thomas Baudel)

Schéma de performance on fonction de l'indice de confiance par Thomas Baudel
Des approches défensives et analytiques

En conclusion, dans tous les domaines de la connaissance et de la décision, l’avancée des technologies IA est si rapide et imprévisible dans ses impacts, que les pistes de solution sont pour l’heure en mode défensif et analytique :

  • celles du contrôle ex post, du cantonnement ou de la vérification. De vraie gouvernance on n’en voit pas encore la trace, car on ne sait ni où est le gouvernail ni comment l’actionner ;
  • celles des méthodes analytiques où l’on essaie de séparer la technologie de l’humain, manquant encore d’outils conceptuels pour saisir ces nouveaux objets hybrides, ce système IA-Humain, dans son ensemble ;
  • celles des outils ou des méthodes qui tentent de mécaniser voire automatiser le contrôle ou la supervision des algorithmes d’IA, en les faisant parfois « entrer dans la boucle HITL », comme un pied de nez MITL (« Machine In the Loop »).

Cette phase est inévitable, et la recherche avance vite, mais nous devons, dans nos approches pour « garder la main » sur les décisions AIA (AI Aided), prendre conscience de la nécessité de changer de paradigme et d’apprendre à considérer l’IA non comme un outil, mais comme un système hybride avec l’humain dont il faudra sans doute moins trouver le gouvernail qu’apprendre à dialoguer avec lui.

Pour aller plus loin

Marc de Fouchécour - Advisor

Soyez toujours au courant

Souscrivez à notre liste pour bénéficier de perspectives sur votre marché.

Merci ! Votre demande a été reçue !
Oops! Something went wrong while submitting the form.
En soumettant ce formulaire, vous acceptez notre politique de confidentialité.