L'intelligence artificielle, une mécanique à apprivoiser

Pionnières de l’analytique par l’importante quantité de données disponibles et par les enjeux financiers sous-jacents, les entreprises du secteur bancaire et de l'assurance s’interrogent encore sur la véritable valeur ajoutée de l’intelligence artificielle (IA) dans leurs processus décisionnels.

L’intelligence artificielle est un ensemble de théories et de techniques visant à doter les machines de capacités d’apprentissage et de raisonnement, analogues en certains points à celles des humains. Or le machine learning, c'est-à-dire l'apprentissage automatique, et le traitement du langage naturel (NLP), les deux composantes principales de l’intelligence artificielle, sont a priori particulièrement adaptés à la valorisation des données et à l’automatisation de certains processus métiers du secteur bancaire (?). 

1. Périmètre de l'intelligence artificielle (source : Saagie)

Résumer des amas complexes de données

Le machine learning revêt un double intérêt. Il permet tout d’abord d’explorer, de comprendre ou de résumer les amas complexes de données. On parle de modélisation descriptive ou de machine learning non supervisé, c'est-à-dire sans variable à expliquer (Figure 2). Cela peut aboutir à de simples statistiques descriptives - comme la moyenne et les quartiles - ou à des modèles plus sophistiqués telles que les analyses dites “factorielles” visant à cartographier le plus clairement possible les clients et à réduire le nombre de variables nécessaires à leur description, les moteurs de recommandation permettant de déterminer les offres sur lesquelles tel ou tel client pourrait avoir une réelle appétence, compte tenu de son historique d’achat, ou encore le clustering, qui vise à regrouper les clients en segments homogènes selon un grand nombre de critères. 

2. Exemples d’applications d’algorithmes non supervisés (source : Saagie)

Mais le machine learning permet aussi d’anticiper un certain nombre de phénomènes sur la base d’un historique de données déjà qualifiées. Il prend alors le nom de modélisation prédictive ou de machine learning supervisé, et se caractérise par la présence d’une variable à expliquer. L’exemple le plus simple est tout simplement la régression linéaire qui extrapole un nuage de points à partir d’une droite. Mais pour que cela soit possible, il est indispensable de disposer d’un historique qualifié de données (Figures 3). 


3. Démarche d'apprentissage-test pour une régression linéaire (source : Saagie) 

Profilage, ciblage et scoring

Si l’on veut par exemple déterminer quels sont les clients susceptibles de présenter un risque (solvabilité, fraude) ou de partir à la concurrence, il faut déjà disposer d’une base de données constituées avec des clients ayant manifesté ces comportements. Ensuite, le modèle se charge d’apprendre tout seul les variables qui sont responsables de l’effet recherché. On est alors en mesure de déterminer, pour tous les nouveaux clients, si ces derniers sont plus ou moins susceptibles de se comporter de la même manière que les clients aux caractéristiques similaires de la base de données historique. 

Avec un arsenal d’algorithmes de machine learning - non supervisé et supervisé -, il est ainsi possible de traiter un grand nombre de cas d'usage. Cela peut aller du profilage - aussi appelé vision client à 360° - lequel peut intégrer par exemple un algorithme descriptif de segmentation, c'est-à-dire une projection factorielle couplée à une partition en sous-groupes. Il est également possible de s'attaquer à des problématiques de ciblage et de scoring - c'est-à-dire d'évaluation d'un prospect à l'aide de scores de risque, d’octroi de crédit, d’attrition ou d’appétence - au moyen de modèles prédictifs tels que les régressions logistiques, les arbres de décision voire les réseaux de neurones. 

Détecter les fraudes

Un autre exemple typique est celui de la détection des fraudes. Si l’on ne dispose pas d’un historique suffisant de fraudes, il est possible de mettre en place des algorithmes de détection d’anomalies (non supervisés) qui viendront mettre en exergue les transactions ou clients qui ne s’apparentent pas aux autres et pour lesquels une vérification est recommandée. En revanche, avec un historique, il est envisageable de mettre en place un ciblage (supervisé) des futures transactions qui indiquera instantanément si elles sont frauduleuses. L'enjeu ici est tout de même de bien calibrer la précision du modèle pour limiter le nombre de faux positifs. Il peut être en effet intéressant de repérer toutes les fraudes, mais si l’algorithme signale à tort de nombreuses transactions non frauduleuses, cela risque d’engendrer un travail supplémentaire pour les responsables de l’activité. La problématique métier consiste donc à définir un seuil à partir duquel un contrôle humain sera nécessaire. 

Automatiser des processus métiers 

Ce cas d’usage de fraude montre d'ailleurs une autre utilisation intéressante de l’intelligence artificielle : l’automatisation des processus métiers. En effet, dans la mesure où les algorithmes peuvent reconnaître ou classifier eux-mêmes des éléments contextuels, ils peuvent faire gagner potentiellement beaucoup de temps aux différents métiers. Dans cette optique, des algorithmes de reconnaissance optique de caractères, basés notamment sur des modèles de deep learning - sous-partie du machine learning dédiée aux algorithmes de réseaux de neurones à couches profondes -, permettent par exemple d’extraire de l’information de documents manuscrits ou numériques pour les intégrer dans le système d’information (SI). Cela évite de devoir saisir ces informations à la main. De même, certains algorithmes se chargeront tout seul de recouper les informations d’un client avec d’autres données pour valider l’exactitude ou la pertinence des informations transmises. 

Une menace pour certains métiers du secteur bancaire ?

Bien que la plupart des algorithmes d’intelligence artificielle soit déjà utilisée depuis plus de vingt ans dans les métiers de la finance de marché et de l’actuariat, afin d’évaluer les risques et de gagner du temps dans l’analyse croisée d’un grand volume de données, la question du remplacement de l’humain par la machine revient régulièrement. Il faut se rassurer ! Les algorithmes d’aujourd’hui sont extrêmement performants dans la réalisation de tâches bien spécifiques. Mais ils ne peuvent guère s'adapter seuls à différents cas d’usage ni intégrer certaines composantes comme les émotions, la confiance ou la créativité. En ce sens, il faut envisager aujourd’hui l’intelligence artificielle comme un moyen de soutenir la prise de décision sur la base d’éléments analytiques et d’automatiser les tâches répétitives, tout en prolongeant les actuelles solutions de robotisation informatique. L'intelligence artificielle permet alors au conseiller bancaire de se concentrer sur les tâches à forte valeur ajoutée plutôt que sur les opérations manuelles ingrates, comme la saisie de formulaires. Bien sûr, comme toute rupture technologique, l’intelligence artificielle se traduit par une modification des métiers qu’il convient d'accompagner d’un dispositif de conduite du changement. 

Une transition par étapes

Le passage à l’IA complètement intégrée est une transition qui doit prendre le temps de s’opérer, à l’image de la révolution digitale. Il se fait bien évidemment par étapes, en réunissant la DSI, le Data Lab et les métiers autour de cas d’usage bien identifiés et en dotant l’entreprise des outils nécessaires à cette transformation. Il faut d'abord moderniser le processus décisionnel de l’entreprise, s’il existe. On trouvera de grands axes de progrès du côté de la Business Intelligence (BI). Les infrastructures de type entrepôts-magasins de données (datawarehouse - datamarts) sont désormais avantageusement remplacées par des infrastructures big data (data lakes - datamarts NoSQL), qui intègrent des traitements par lots (batchs) et en continu (streaming) pour plus de flexibilité et de rapidité. Ensuite, dans le but de démocratiser l’IA, on peut faire appel à des dispositifs de type Data Fabric (solution logicielle orchestrant différentes technologies pour couvrir l'ensemble de la chaîne de valeur de la donnée) qui permettent de dé-siloter les équipes en confiant des outils d’exploration et d’analyse aux métiers de la banque, en s'appuyant sur les outils et bibliothèques utilisés par les équipes data, et en facilitant l’industrialisation des algorithmes. Cette démarche permet de faire monter en compétences les équipes métiers et BI, et d’intégrer progressivement le machine learning à certaines étapes clés des processus décisionnel, par exemple l'enrichissement des données ou le calcul de certaines métriques, ou aux processus métiers, lors du traitement d’une demande client, ou d'une analyse de marché.

A. Augey

Publication d'origine : http://www.revue-banque.fr/management-fonctions-supports/article/intelligence-artificielle-une-mecanique-apprivoise

Posts les plus consultés de ce blog

Quantum AI - Part 2 - The dice have been cast!

IA Quantique - Partie 4 - Le rôle clé du DataOps

Quantum AI - Part 3 - The rise of the AIs