Les Smart Data dans les banques et assurances

Avec les taux d’intérêt à des niveaux très bas, la sécurisation du PNB (produit net bancaire) et la recherche d’une meilleure rentabilité client sont devenues les priorités des banques et assurances. Les données sont un levier important pour améliorer la connaissance client et accroître l’efficacité opérationnelle. En particulier, l’anticipation de certains événements (sinistres ou moments de vie tels qu’un déménagement, une naissance d’enfant, un départ à la retraite) sont des opportunités essentielles pour proposer de nouveaux services et ainsi développer les cross-selling (Ventes croisées / Offres complémentaires) et up-selling (Montée en gamme).

Un autre phénomène intimement lié capte l’attention de nombreuses entreprises du secteur : l’attrition client. Traduisant le comportement d’un client qui quitte sa banque / son assurance, l’attrition est un phénomène complexe présentant des causes très diverses, comme :
  • Des causes sociodémographiques : situation sociale, maritale, professionnelle
  • Des causes psychographiques : valeurs, style de vie
  • L’apparition d’un « moments de vie » : achats de voiture ou de logement, mariage…
  • Le sentiment d’indifférence voire d’insatisfaction à l’égard des services souscrits ou de la relation client-entreprise.
La réalité est complexe car l’attrition est généralement due à la conjonction de plusieurs facteurs simultanés. Comprendre les critères qui amènent les clients à devenir des churners peut s’effectuer au moyen de deux approches complémentaires. L’étape préalable étant de définir, pour les clients actuels, ceux qui font preuve d’attrition (ce qui suppose avoir une définition claire de ce qu’est l’attrition en termes de mesure), et d’avoir un échantillon d’apprentissage avec des variables nettoyées et enrichies.

La première approche, non supervisée, consisterait à effectuer une segmentation du groupe des churners de la base. Cette segmentation commence généralement par une réduction dimensionnelle (visant à réduire le nombre de variables à manipuler) faite au moyen d’ACP (Analyse en Composantes Principales : analyse factorielle utilisée lorsque les variables sont numériques) ou d’ACM (Analyse des Correspondances Multiples : analyse factorielle utilisée lorsque les variables sont catégorielles) suivie des techniques de partitionnement (ex : K-Means, cartes de Kohonen) et/ou de regroupement hiérarchique (ex : CAH Classification Ascendante Hiérarchique). On fait ainsi émerger un certain nombre de clusters (ou segments) qui définissent les grandes typologies de churners, et que l’on caractérise pour les rendre plus opérationnels.

En complément de cette approche, on procède usuellement à des techniques de scoring (supervisé) à l’échelle individuelle. Grâce aux technologies actuelles, on confronte les traditionnelles méthodes de régression logistique et analyse discriminante à des techniques plus précises comme les random forests ou le gradient boosting. Il convient néanmoins de veiller à la répartition de la base d’apprentissage en termes de churners / non-churners. En cas de trop fort déséquilibre, on peut précéder ces modèles par une one-class SVM visant à écarter les grandes masses de non-churners pour rééquilibrer la base.

Tous ces modèles, théorisés il y a de nombreuses années, voient enfin leur mise en pratique concrète grâce à la multiplicité des sources de données clients et la puissance des frameworks exécutant les algorithmes.

A. Augey


Posts les plus consultés de ce blog

Quantum AI - Part 2 - The dice have been cast!

Quantum AI - Part 3 - The rise of the AIs

IA Quantique - Partie 4 - Le rôle clé du DataOps