Détection de la fraude financière par l'Intelligence Artificielle : une approche par l'incertitude

Ne nous contentons pas de chercher les clés de notre stratégie sous l’éclairage du lampadaire Data

La détection à grande échelle de la fraude financière, et notamment du blanchiment, est une des préoccupations importantes des établissements financiers et des régulateurs.

Le sommet annuel « Artificial Intelligence in finance » organisé à Londres en 2022 par Re-Work a été l’occasion pour Himanshu Chaturvedi, Senior Data Scientist at Nationwiden de proposer une nouvelle approche particulièrement intéressante sur deux aspects : elle illustre l’abandon de la course à la dimension des modèles d’intelligence artificielle par une approche pragmatique, et elle met en place un apprentissage dynamique (active learning) par un « dialogue » entre l’expert métier et le modèle de machine learning qui partage ses incertitudes.

‘Optimiser l’usage de l’Intelligence Artificielle passe par apprendre à dialoguer avec elle 

L’Intelligence Artificielle et la lutte contre le blanchiment

Dressons d’abord le décor : l’utilisation de l’Intelligence Artificielle pour la lutte contre le blanchiment -nom de code AML-CFT- s’est considérablement développée depuis une dizaine d’années, car les coûts des contrôles sur les transactions croissaient exponentiellement avec les systèmes à base de règles.

Concrètement, pour ne pas laisser passer une transaction frauduleuse, les systèmes à base de règles engendrent un nombre considérable de Faux Positifs, c’est-à-dire des fausses alertes qui doivent ensuite être vérifiées manuellement par des experts. Le coût de ces vérifications rattrapait celui des éventuelles amendes en cas de fraude non détectée.

Aujourd’hui l’Intelligence Artificielle complète les systèmes à base de règles

La solution la plus fréquente a été d’installer un module d’IA « ex post », en laissant au système de règles la tâche de présélectionner les transactions suspectes, et au module d’IA d’éliminer une bonne partie des Faux Positifs. Chacun son rôle : le système de règles pour justifier le best effort, l’IA pour diminuer les coûts.

Le système de règles garde ses inconvénients majeurs : difficulté à évoluer rapidement et lisibilité vis-à-vis des fraudeurs qui peuvent trouver des solutions de contournement. La recherche de solutions « tout IA » ou au moins « ex ante » devient alors nécessaire, mais se heurte en particulier à des problématiques de coût de mise en place et de maintenance dynamique.

L’enjeu : diminuer les coûts sans augmenter les risques  

Les nouveaux coûts des solutions IA

Le coût d’une solution IA est d’abord celui de la construction du modèle et de ses données d’apprentissage : plus on recueille d’informations sur une transaction, y compris sur les historiques concernant le donneur d’ordre et le récipiendaire, plus le modèle sera efficace.

Le coût associé est important et proportionnel au nombre de transactions à traiter.

Or tout augmente rapidement :

  • Les volumes de transaction ;
  • Les supports (on pense aux cryptomonnaies par exemple) ;
  • Le périmètre de surveillance (petites transactions répétées) ;
  • Les fraudes : accroissement annuel évalué à 12 % par McKinsey.

Ce qui coûte, c’est la labellisation des transactions, c’est-à-dire le recueil des informations qui leur sont liées : il devient rédhibitoire de vouloir labelliser toutes les transactions historiques pour entraîner le modèle, soit parce que le coût total est trop élevé, soit parce que l’information n’est pas disponible (suivez mon regard vers les problématiques de KYC, et même de KTC, i.e. Know Their Customer).

De plus, augmenter le nombre de données n’augmente pas obligatoirement l’information pertinente, si de nombreuses transactions sont similaires. Pour paraphraser Nassim Taleb, on risque d’augmenter la taille de la botte de foin dans laquelle on cherche l’aiguille.

Une fois le modèle entraîné, validé et testé, il produit pour toute nouvelle transaction un score, nombre entre 0 et 1 qui est comparé à un seuil, par exemple 0,5. Au-delà du seuil, la transaction est considérée comme potentiellement frauduleuse, en-dessous, considérée comme sûre.

En phase de production, le modèle ne pourra s’améliorer qu’au travers de l’analyse des erreurs constatées après coup (faux positifs et fraudes réelles non détectées), dont le coût peut être élevé et comporte des risques opérationnels.

l’IA apprend a posteriori par ses erreurs, dont le coût est imprévisible

Le nouvel apprentissage par l’incertitude

Pré-apprentissage

Dans l’approche de Himanshu Chaturvedi, tout commence par l’Intelligence Humaine (et collective). On rassemble des experts et praticiens du domaine (nom de code en anglais SME, comme Subject Matter Expert) pour choisir des transactions intéressantes pour eux, par exemple celles qui ont posé problème dans l’analyse, celles où le nombre d’informations est le plus riche (par exemple si on connait les bénéficiaires effectifs), ou celles dont l’impact opérationnel est le plus grand. L’enjeu : obtenir un maximum d’informations avec un minimum de données.

Ce premier ensemble de données, qui engendre un modèle supervisé réduit et sous-optimal (primary learning), a pour effet de limiter le coût, d’impliquer les parties prenantes et de préciser leurs objectifs.

Apprentissage initial 

Le « dialogue » de l’IA avec les SMEs peut commencer : quand le modèle analysera de nouvelles transactions pour détecter si elles peuvent être frauduleuses ou non, il mesurera son incertitude selon différentes méthodes (score voisin du seuil, grande différence de résultats selon les modèles utilisés, sensibilité des résultats par rapport aux variables, etc.) et proposera aux experts d’analyser les transactions à Haute Incertitude (H.I.), c’est-à-dire où le potentiel d’apprentissage est le plus haut, et de recueillir les données de ces transactions.

Les experts analyseront ces transactions et recueilleront leurs données qui iront enrichir le modèle (secondary learning) par apprentissage dynamique, jusqu’à obtention d’un modèle suffisamment fiable.

 

Le modèle d’IA apprend aussi de ses incertitudes, qu’il partage avec les experts

Apprentissage continu en mode production

La boucle ci-dessus est implémentée dans la solution pour optimiser le modèle, prévenir les dérives et détecter les nouveaux schémas de fraude.

Le modèle devient ainsi dynamique en continuant à repérer ses points d’ombre ou d’incertitude et en les proposant à l’analyse des experts.

Apprentissage par l’incertitude : un changement d’approche non technique mais profond

Les gains en coût (temps humain et temps machine) sont manifestes. Mais l’important est surtout dans le mode d’apprentissage qui intervient dès la sortie du modèle, et guide par échantillonnage sélectif le recueil de nouveaux labels à ajouter au modèle de données.

Le changement est plus radical qu’il n’y paraît :

  • Le statut du module IA passe d’outil à interlocuteur du métier ;
  • L’amélioration ne vient plus seulement des erreurs constatées après coup par l’humain (Faux Positifs et Faux Négatifs), mais aussi du diagnostic d’incertitude fourni directement par l’IA ;
  • Le « dialogue » avec l’IA est fait directement par les experts Métiers, dans leur langage.

La vidéo de Himanshu Chaturvedi vous permettra d’approfondir cette approche, plus méthodologique que technologique, qui conduit à changer notre regard sur la collaboration IA/Humain pour plus d’efficacité et d’implication des métiers :  https://www.youtube.com/watch?v=zUS_CNnffNk

Marc de Fouchécour - Advisor

Soyez toujours au courant

Souscrivez à notre liste pour bénéficier de perspectives sur votre marché.

Merci ! Votre demande a été reçue !
Oops! Something went wrong while submitting the form.
En soumettant ce formulaire, vous acceptez notre politique de confidentialité.