ChatGPT et IAs génératives ne savent pas distinguer le vrai du faux : comment en tenir compte dans les usages

Ne nous contentons pas de chercher les clés de notre stratégie sous l’éclairage du lampadaire Data

Si vous n’avez que 10 secondes : Les IAs génératives ne distinguent pas le vrai du faux, c’est pour cela qu’elles sont créatives. Ne les utilisez que si vous pouvez repérer et corriger facilement leurs erreurs, ou en tirer profit…

Si vous voulez savoir pourquoi, lisez ce qui suit.

À chaque génération d’IA son « péché originel »

Celui de l’IA symbolique est son incapacité à apprendre toute seule, il faut lui dicter les réponses car elle recopie les experts.

Celui des réseaux de neurones (Machine Learning) est qu’ils confondent cause et corrélation, les rendant incapables de raisonnement déductif  : ils apprennent par essais/erreurs.

Celui des IA génératives, rendues possibles par l’utilisation d’un nouveau modèle, le « Transformer »,  est qu’elles ne connaissent pas la notion de vérité factuelle, pas de notion de Vrai/Faux, car leur principe fondateur est celui de la similarité : elles construisent leur propre vérité par analogies et élargissement .

Le Vrai et le Faux

Pour éviter les « hallucinations » des IAs génératives, on les bride, en leur interdisant de créer certaines phrases, d’utiliser certains mots, d’aborder certains sujets, grâce à une censure humaine paradoxalement appelée Reinforcement Learning from Human Feedback(RLHF), version moderne de l’apprentissage par coups de règle sur les doigts.

En conséquence, on les appauvrit, on réduit la capacité générative et créative qui est au cœur de leur nouveauté.

Malgré ces précautions, qui augmentent avec les versions des outils, et pourraient en partie expliquer la dégradation de leurs performances, les algorithmes d’IA générative continuent à produire des résultats quelquefois faux, quelquefois invérifiables, car ils n’ont pas la connaissance du Vrai et du Faux.

Ce ne sont que les humains, devant le résultat d’un texte produit par une IA générative, qui ont, ou devraient avoir, la connaissance du Vrai et du Faux (toute référence biblique n’est pas fortuite). 

Nous devenons « la bocca della verità »
Audrey Hepburn et la bocca della verità - Rome

Quels cas d’usage pour les IAs génératives

L’IA générative (chatGPT et autres modèles) produit donc souvent du vraisemblable, et occasionnellement du vrai. Ce qui indiquerait de bien choisir les cas d’usage, comme par exemple ceux pour lesquels :

-       La vérité n’a pas d’importance dans ce qui est produit : outre la poésie ou la fiction, on notera l’exemple cité par IBM lors d’une récente conférence : utiliser l’IA générative en phase de divergence d’une démarche de Design Thinking permet d’ouvrir le champ des possibles et de sortir de ses zones de confort (malheureusement le RLHF limitera la créativité des idées produites) ;

-       La vérité de ce qui est produit peut facilement être vérifiée, sans coût excessif : par exemple dans la production de code informatique, la recherche de patterns particuliers dans un texte, ou en analyse d’images contenant des données textuelles ou numériques.

Enfin il ne faut pas négliger le coût matériel lié à l’IA générative. Les modèles « Transformer » sont en effet gourmands en temps machine et en mémoire. L’ordre de grandeur entre l’usage d’une technologie de réseaux de neurones entraînés et un modèle Transformer est de 1 à 10 sur des environnements équivalents. Les technologies IA doivent donc être choisies en fonction de leur adéquation au type et à la complexité du problème à résoudre, non pas seulement en fonction de la dernière technologie en vogue.

 Postface : L’IA générative en phase avec notre temps

Il est troublant de constater que le concept même de vérité échappe à l’IA au même moment qu’elle échappe aux sociétés humaines, où on est passé de la fake news (ou fake indique encore la notion de vrai/faux) aux vérités alternatives, où la notion de vérité factuelle (= de rapport à un monde réel extérieur à soi) disparaît peu à peu.

L’IA générative avec ses hallucinations est le miroir d’un monde ou les vérités alternatives fleurissent

On passe ainsi d’algorithmes déductifs, réductifs mais logiques et rigoureux, à un mode inductif plus créatif mais sujet à des erreurs. Voire, si on ne bride pas trop les algorithmes génératifs, à un mode abductif.

L’idéal sera de les combiner, à la manière du système 1 et du système 2 de notre pensée décrits par Daniel Kahneman : en effet nous combinons une pensée analogique, rapide, intuitive, c’est le système 1, et une pensée logique, déductive, séquentielle, c’est le système 2.

Bonnes lectures 

Pour aborder comment fonctionne leTransformer, un excellent article animé du Financial Times : https://ig.ft.com/generative-ai/

Illustrating Reinforcement Learning from HumanFeedback : https://huggingface.co/blog/rlhf

Système 1 / Système 2, les deux vitesses de la pensée par Daniel Kahneman : article Wikipedia

Marc de Fouchécour - Advisor

Nos autres articles sur l'IA

RGPD et explicabilité des algorithmes d'IA : comment humaniser les décisions artificielles ?

Détection de la fraude financière par l'Intelligence Artificielle : une approche par l'incertitude

Séminaire ACPR - Gouvernance de l’Intelligence Artificielle : « Un humain (où) dans la boucle ? »

Intelligence Artificielle : remède ou poison pour l’ESG ?

Soyez toujours au courant

Souscrivez à notre liste pour bénéficier de perspectives sur votre marché.

Merci ! Votre demande a été reçue !
Oops! Something went wrong while submitting the form.
En soumettant ce formulaire, vous acceptez notre politique de confidentialité.