Comment faire de l‘Intelligence Artificielle un levier d’efficacité dans le secteur de la Banque et de l’Assurance ?

Par ACI partners. Lecture : 8 – 10 min.

Les articles vantant les prouesses et les potentialités économiques des technologies d’Intelligence Artificielle ne manquent pas. Ceux s’inquiétant des impacts structurels, voire négatifs sur le marché de l’emploi sont également nombreux. Ce que l’on peut affirmer sans risque, c’est que :

D’une part, la transformation du fonctionnement des Back-Offices, des Middle-Offices (contrôle risques, analyse marché, etc.) et des Front-Offices (assistants pour les sales, remplacement des Front sur les activités de marché pour l’assurance vie, etc.) des acteurs de la Banque et de l’Assurance est en cours ;

D’autre part, cette transformation doit être maîtrisée et accompagnée si ces acteurs souhaitent bénéficier de nombreuses solutions à valeur ajoutée associées à des cas d’usage concrets.

En effet, la problématique des managers et des dirigeants n’est pas de choisir ou de concevoir l’algorithme IA le plus avancé ni même de « changer de paradigme pour aller chercher une augmentation brute potentielle du résultat opérationnel grâce à la mutation numérique ». La question centrale est beaucoup plus pragmatique, et s’exprime dans la problématique suivante :

« Comment intégrer les technologies d’Intelligence Artificielle dans la structure, l’organisation et les processus de l’entreprise pour répondre à ses enjeux business ? »

Pour répondre à cette problématique et aux enjeux des évolutions en cours, il convient de mettre en place une démarche réfléchie :

  1. Identifier les cas d’usage pertinents à ces technologies d’Intelligence Artificielle en identifiant bien les forces et les limites des techniques employées ;
  2. Mettre en place une démarche technique et fonctionnelle cohérente avec l’état du SI et de l’organisation de l’entreprise ;
  3. Réintégrer les cas d’usage « augmentés » au sein des processus existants, suivre la performance en mettant en place une démarche d’amélioration continue de ces processus « hybrides » et si souhaité, poursuivre avec une nouvelle expérimentation.

Les technologies d’IA doivent toutefois s’inscrire dans une démarche respectueuse des parties prenantes (salariés, clients, fournisseurs) et des valeurs de l’entreprise.

1. Les multiples réalités de l’Intelligence Artificielle

Tout d’abord, il convient d’éclaircir les multiples réalités qui se cachent derrière le terme d’Intelligence Artificielle.

Tels qu’utilisés dans la presse généraliste, les termes Intelligence Artificielle ou « IA » font référence à un ensemble de technologies et d’algorithmes informatiques (dont la plupart existent depuis les années 1960 – 1970) qui, se basant sur l’analyse de très grands volumes de données et s’appuyant sur une puissance de calcul importante, sont en mesure de proposer des hypothèses de corrélation imperceptibles dans une analyse conventionnelle.

Appliqués au domaine de la maîtrise des risques ou de la sinistralité par exemple, le Machine Learning, le Deep Learning ou encore le Cognitive Computing sont autant de techniques qui peuvent venir compléter les méthodes classiques d’analyse afin d’accroître l’efficacité des campagnes (commerciales, de contrôle, de lutte anti-blanchiment, etc.) en identifiant les cas qui n’auraient pas été détectés par les équipes dédiées, les processus ou encore les règles métiers en vigueur.

2. Les enjeux du déploiement de l’IA dans le cadre de la fraude au sein du secteur bancassurance

Avant d’entrer dans le détail des cas d’usages, rappelons l’importance de l’enjeu de maîtrise de la fraude dans le secteur bancassurance. Rappelons un principe simple mais primordial : pour qu’il soit intéressant d’introduire de l’Intelligence Artificielle dans un processus, il faut qu’il y ait un enjeu métier.

Celui-ci est de poids : en France, la facturation frauduleuse concernerait près de 5% des primes d’assurances et 15% des sinistres payés (Source : Agence pour la Lutte contre la Fraude à l’Assurance, ALFA).

C’est face à ce constat de « non-maîtrise totale » de la sinistralité liée à la fraude qu’une partie des acteurs du marché ont choisi d’expérimenter des techniques de Machine Learning et d’IA. L’objectif étant d’améliorer l’efficacité des processus de contrôle et de recouvrement des impayés.

2.1. Intégration de l’IA aux processus de lutte contre la fraude:

Des modèles prédictifs mesurant le risque de fraude par dossier dans un triple objectif d’augmentation de l’efficacité de l’analyse, d’allégement de la charge de travail humaine générée par cette analyse et de recentrage de l’activité des opérationnels sur l’intelligence métier.

Les technologies d’Intelligence Artificielle permettent une amélioration du process de contrôle à deux niveaux :

  • Elles améliorent la performance et l’industrialisation des contrôles: passage de contrôles aléatoires « manuels » par les opérationnels à un contrôle systématique de chaque dossier ;
  • Elles facilitent l’identification des profils et dossiers frauduleux grâce à une meilleure utilisation de la donnée : en utilisant l’ensemble des données* à sa disposition l’algorithme est susceptible d’identifier de nouvelles variables discriminantes pour identifier plus précisément les cas de fraude.

* : Par exemple les modèles mis en œuvre dans le cas de la fraude médical à l’assurance sont basés sur les historiques des questionnaires médicaux, les caractéristiques des cas de fraudes identifiés (ex. pathologies déclarées) et les données socio-démographiques des clients/assurés.

Grâce à ce pré-ciblage plus fin des dossiers, les opérationnels et experts sollicités pour l’analyse des fraudes (exemple médecins conseils dans le cas de la fraude médicale), peuvent concentrer leur analyse qualitative sur les dossiers les plus à risques. Le principe sera le même pour la fraude sur les différents domaines de l’IARD ou de l’assurance vie.

Ainsi, les ratios de détection des abus sont parfois jusqu’à 2,5 fois supérieurs après l’introduction d’un modèle d’Intelligence Artificielle dans un processus de lutte contre la fraude.

2.2. Amélioration du ciblage dans le cadre du recouvrement:

Des technologies pour automatiser l’analyse des dossiers et déterminer les chances de récupération des fonds, rendant ainsi la gestion du recouvrement plus efficace et moins coûteuse via l’exploitation des données.

En complément de l’enjeu de détection des fraudes, l’enjeu n’est pas ici d’améliorer les taux de recouvrement réels variables, mais d’améliorer l’efficacité des dispositifs de recouvrement qui représentent souvent des coûts conséquents pour le secteur financier (banques, assurances et acteurs spécialisés).

C’est notamment vrai pour le recouvrement de créances clients dans le secteur bancaire qui suit des processus normés et gradué (intervention front office, équipe recouvrement, contentieux, cession de créances le cas échéant).

Dans ce cadre l’IA permet d’optimiser le schéma décisionnel de recouvrement en prenant en compte par exemple la valeur fluctuante des garanties, le temps de recouvrement, les critères liés à l’emprunteur et/ou au groupe auquel il est assimilé, le type de créances, etc.

Dans le secteur de l’assurance, les outils de Machine Learning permettent d’automatiser l’analyse des lignes d’indus** de prestations et d’impayés. Les modèles d’IA produisent des scores qui aideront à déterminer les chances de récupération des fonds et ainsi d’optimiser les dispositifs de recouvrement.

** : L’indu correspond à un versement de prestations à destination d’un client qui ne devait pas en bénéficier.

Si nous avons ici fait le zoom sur deux applications de l’IA à la fraude, bien d’autres applications sont envisageables et envisagées par les acteurs de la Banque et de l’Assurance.

  • Augmentation de la segmentation et conquête de nouveaux clients ;
  • Amélioration du pilotage technique et de la surveillance des portefeuilles ;
  • Maîtrise des coûts d’administration et d’exploitation ;
  • Détection des signes avant-coureurs de résiliation ;
  • Anticipation des défauts de paiement et optimisation des pratiques d’accompagnement ;
  • Amélioration de l’efficacité des processus internes ;
  • Décision d’investissement ;
  • etc.

De nombreux autres sujets peuvent être diagnostiqués en fonction de chaque établissement et de son business model.

C’est pourquoi, quel que soit l’objet/la fonction/la nature du modèle nous recommandons une approche en cinq étapes pour expérimenter l’intégration d’une technologie d’IA dans un processus.

3. Déployer des outils IA au sein d’une organisation

3.1. Analyse amont du ROI:

À l’initialisation d’un projet d’IA, il convient de réaliser une étude de faisabilité afin de jauger la pertinence de l’expérimentation (ROI, valeur stratégique, disponibilité et qualité des données et des ressources, processus métier touchés, impacts SI à prendre en compte, etc.).

Les équipes métiers doivent être impliquées dès cette phase. Il est en effet essentiel d’expliciter les usages potentiels, les enjeux et bien sûr, les limites des technologies d’IA afin de maximiser la compréhension par tous et favoriser la collaboration. La présentation de cas concrets permet de rentrer rapidement dans une réflexion pragmatique.

Le challenging de l’apport de l’IA sur le processus envisagé est un facteur crucial de création de valeur, car il permet de confronter la routine à ce qui peut être fait par apport d’expertise externe.

3.2. Exploration des données:

Après une première étape axée sur la définition de l’objectif, des processus métiers touchés et de la technologie à utiliser, cette étape permet d’identifier les données nécessaires (sociodémographiques, techniques, comportementales, etc.) et de les collecter pour construire les modèles de variables appropriés.

Les données nécessaires à cette phase d’exploration peuvent être diverses (source, format, etc.), et il sera important de disposer d’une qualité et d’un volume de données suffisants.

Les démarches les plus structurées passent par le déploiement de solutions de data science pour le nettoyage et le formatage des données, et sont pilotées par un Data Quality Manager.

En synthèse, la sélection et la remontée de ces données est une étape clé : le choix de fournir une donnée ou non à un algorithme a un impact, sur la qualité de l’analyse. De plus l’utilisation des données est encadrée par les normes réglementaires strictes (RGPD).

3.3. Apprentissage:

Sur la base des variables identifiées, la troisième étape consiste à construire un modèle en s’appuyant sur des données d’entrainement. Il s’agit souvent d’un extrait de l’historique des portefeuilles clients, sur lequel le modèle est entrainé à identifier des rapprochements significatifs.

En se basant sur le volume et le type de données dont a besoin le modèle pour être le plus performant, il convient à ce stade d’anticiper la relation entre ces solutions et les systèmes d’information pour construire l’environnement d’incubation et de validation des modèles.

Plus le modèle est entraîné sur de grands volumes de données, plus il sera performant et précis. La participation des opérationnels et experts concernés par ces processus enrichira l’algorithme, le rendant plus sûr (élimination des faux positifs) et plus performants.

C’est aussi la raison pour laquelle de nombreuses entreprises sont parfois déçues de la performance de l’IA, car elles espèrent un effet immédiat, alors que du temps d’apprentissage machine est nécessaire.

3.4. Incubation (POC):

Cette étape consiste à déployer le modèle statistique entrainé sur des nouvelles données afin d’accomplir la tâche spécifique pour laquelle il a été conçu (ex. prédiction ou détection des cas de fraude).

Le périmètre de données est alors bien réel mais circonscrit afin de valider le Proof of Concept (POC). Cette phase de test permet d’obtenir les premières mesures d’impacts financiers réelles et d’identifier plus précisément les évolutions IT et métiers à prévoir pour l’industrialisation du modèle.

3.5. Industrialisation:

Si l’incubation s’avère concluante, le modèle est pris en charge par le métier et intégré aux processus. À ce stade, les activités métiers et les systèmes IT sont adaptés pour alimenter le modèle data science au quotidien et des processus de back testing sont mis en place dans une logique de contrôle et d’amélioration continue.

De manière globale, l’intégration d’une technologie d’IA dans une entreprise nécessite d’impliquer de nombreuses parties prenantes pour concevoir, paramétrer, connecter et back tester les modèles : techniciens (DataScientist et architectes SI), pilotes de projet, experts fonctionnels, utilisateurs finaux, etc. Afin de s’assurer de la réussite de ces projets, si toutes les compétences ne sont pas disponibles en interne, il conviendra d’avoir recours à un accompagnement adapté.

Il est primordial de prendre le temps nécessaire lors des étapes préliminaires (Exploration et Apprentissage) pour identifier les processus impactés par les modèles d’Intelligence Artificielle, de repenser les processus cibles “hybrides”, et de construire les démarches d’accompagnement au changement adaptées (acculturation des collaborateurs, formations, évolution des procédures et des interfaces des outils, etc.).

4. Dépasser les expérimentations et intégrer l’Intelligence Artificielle au cœur de l’entreprise

Réussir une expérimentation portant sur un outil d’Intelligence Artificielle, améliorer un processus métier grâce à l’IA… cela représente un défi en soi. Aller plus loin que l’initiative concluante (POC – Proof Of Concept) et intégrer effectivement l’IA comme partie prenante des processus et de l’organisation de l’entreprise en est un plus grand encore.

Plus qu’une problématique technique, le « passage à l’échelle » nécessite une réelle réflexion de fond sur la gouvernance de la donnée, l’organisation voire la culture de l’entreprise, les compétences à développer et à intégrer, les processus métiers, l’évolution de l’écosystème SI nécessaire, etc.

Ce point spécifique de gouvernance de la donnée fera l’objet d’un nouvel article prochainement, mais n’hésitez pas à nous contacter si dans l’intervalle, vous souhaitez une présentation de notre point de vue.

Pareillement, en synthèse, si vous souhaitez expérimenter l’utilisation d’une technologie d’IA, voici notre conviction ACI partners sur les facteurs clés de succès de la démarche :

  • Des cas d’usage concrets… : sélectionner les cas d’usage de la donnée pour générer de la valeur et impacter la Bottom Line
  • …reposant sur des données de qualité… : définir les règles de gestion et les limites d’utilisation de la donnée, ainsi que les rôles et responsabilités des « maîtres » de la donnée (au sens RGPD)
  • … supportés par une infrastructure adaptée… : casser les silos de données et développer un datalake au cœur du SI pour faciliter la mise à disposition des données à toute l’entreprise (au besoin, via le développement d’API internes)
  • … en impliquant les opérationnels concernés: l’intelligence métier sera centrale dans la détection des cas d’usages clés à développer, le choix des données pertinentes à utiliser, l’analyse des faux positifs en phase d’apprentissage, etc.

Les auteurs

Vincent Falgéras

Associé

Après un début de carrière à l’Inspection Générale, il a travaillé pour des DG en banque et en assurance puis est intervenu comme Associé dans le conseil pour le secteur financier auprès des principaux acteurs de la place.

Yoann Deluchat

Manager

Yoann est un consultant de plus de 8 années d’expérience conseil dans le secteur Banque-Assurance. Il est intervenu sur de nombreuses missions de pilotage de projets de transformation majeurs, d’AMOA et d’amélioration continue des pratiques et des outils clients notamment en matière de gestion de la donnée.

Adrien Pina

Senior Consultant

Disposant de 7 années d’expérience dans le conseil, il est intervenu en pilotage de projets et programmes, accompagnement métier et accompagnement du changement.

Moïse Gueye

Consultant

Disposant de 2 ans d’expérience, il a pu intervenir sur des projets de transformation, de déploiement de système d’information et de recensement de cas d‘usages d’IA et de Data Science.