Paroles d’experts 19 juin 2019

Comment allier approches métiers, statistiques avancées et technologie ?

Il est parfois difficile de créer du lien entre approches statistiques ultra sophistiquées et réalité business. La transformation de la Data en Valeur est un art qui doit marier approches métiers, statistiques avancées et parfois technologie ; une approche triangulaire mise en œuvre lors d’un projet de machine learning appliqué de manière très concrète à la promesse de marque.

Le client d’Ekimetrics, leader du secteur des assurances, souhaitait améliorer le pilotage de son churn (attrition clients), et ce dans le cadre d’une ambition d’entreprise bien plus vaste : se positionner non plus comme une société d’actifs financiers, mais plutôt comme une société de services, permettant à ses assurés de mieux gérer leur risque.

Cette démarche data-driven s’inscrit donc dans le cadre d’une vision d’entreprise long terme, l’un des facteurs clés de réussite selon Ekimetrics, qui consiste en un véritable changement de paradigme pour l’assureur, et ses équipes partout dans le monde.

 #1 BESOINS ET CONTRAINTES CLIENTS

A. Une vision intégrée du parcours client qui reconnecte les moments phares

La plupart des entreprises ont une vision parcellaire du parcours de leurs clients, pour des raisons de moyens (travailler avec des pure players, uniquement sur des briques du parcours par exemple) ou de disponibilité de données.

Avant toute chose, construire une vision holistique du parcours client requiert, selon nous, de comprendre parfaitement le métier et le secteur d’activité de l’entreprise, afin d’identifier les interactions qui jalonnent l’expérience de ses cibles.

Avant même de toucher à la donnée, une série d’interviews et de rencontres de collaborateurs a permis d’identifier 3 grands groupes d’interactions clients lors de la vie d’un contrat d’assurance.

·    Demande de couverture de risque de la part de l’assuré. Des demandes suivies d’étapes d’arbitrage, c’est-à-dire les analyses permettant à l’assureur d’accepter ou pas la demande, selon le risque de la transaction. Cette étape requiert de nombreux allers-retours entre l’assureur et ses clients, une certaine complexité dans les prises de décisions (études multicritères, acceptations conditionnées, variété des scenarii possibles, santé financière du débiteur, conjoncture économique, etc.) qui contribuent à la complexité du parcours et des données à manipuler.

·    Interactions menées par l’account manager : gestion du quotidien, astreintes, suivi de sinistres, évènements marketing, etc. Dans le cadre de leur stratégie CRM, un ensemble d’actions prédéfinies impacte l’expérience client tout au long du contrat (formations à 3 mois, visite commerciale à 6 mois, demandes de renseignements...). Une opportunité de se nourrir des données CRM... qui dans ce cas n’a pas été concluante, car l’outil CRM s’est révélé être peu renseigné par les account managers et ne bénéficiait finalement pas de données exploitables. 

·    Gestion des sinistres (réalisation du risque entraînant une perte financière pour le client assuré). Des situations délicates qui requièrent une approche au cas par cas, avec un nombre de scénarii démultiplié : remboursements échelonnés, remboursement total ou partiel, délais négociés à la carte... Un aspect important de la relation client dont nous allons découvrir qu’il impacte beaucoup la satisfaction.

CRM Arbitrage et Réclamation dans le temps

B. Une approche statistique sophistiquée, qui passe par un scoring dynamique

L’exploration de ces 3 groupes d’interactions a rapidement démontré que le parcours client n’était pas linéaire d’un client à l’autre - facteur de complexité supplémentaire - qu’il n’y avait pas d’événement isolé impactant drastiquement le churn, mais qu’une répétition d’évènements à priori négligeables pouvait, à terme, affecter l’expérience client significativement.

Une solution technologique aurait été compliquée à construire, car chaque organisation a ses spécificités métier, ses facteurs de risque propres, des business models contractuels vs. Non contractuels (soft churn). Partir des métiers pour construire une solution ad-hoc avait plus de chances de réussir : nous avons donc mis en place une approche sur mesure.

 

·    Score et raisons du score : expliquer la versatilité du client

Le secteur de l’assurance est l’un des plus mûrs en termes statistiques par nature (la gestion du risque constitue le cœur de métier), il a rapidement été décidé que le pilotage de l’attrition devait passer par la mise en place d’un score dynamique.

Il est important de noter que la capacité à capturer statistiquement les changements de satisfaction client, en fonction des interactions et ce tout au long du contrat, a été un facteur clé du succès. Et évidemment l’un des plus complexes ! Deux approches à formaliser pour Ekimetrics sur le plan analytique : chronologique (l’ordre des événements est important) et dynamique (le score doit être continu). Il a donc été décidé d’aborder le projet comme la reconstitution d’une histoire : l’histoire du comportement client avec ses rebondissements, positifs ou négatifs.

Le résultat business attendu par l’assureur devrait donner assez d’informations pour lui permettre d’améliorer la relation client aux moments où ça compte, et de réinventer les processus avec les départements au besoin.

·    Éviter l’effet black box : garantir une lisibilité des résultats pour le COMEX et les métiers

De nombreuses méthodes sont disponibles sur le plan statistique mais toutes ne sont pas égales face à l’interprétation business. Les approches machine learning sont particulièrement difficiles à traduire, et les rendre concrètes pour les métiers est souvent un challenge.

Si la plupart des bons prestataires data sont capables de délivrer des résultats puissants sur le plan analytique, peu arrivent à rendre ces livrables lisibles et exploitables dans un cadre business (que dois-je concrètement changer dans mon quotidien ou ma stratégie pour résoudre mon problème ?).

La notion de création de valeur prend ici tout son sens. Le dernier mètre - de traduction des insights en valeur métier - reste encore un défi en 2019 pour la plupart des prestataires data / advanced analytics.

Dès le départ, nous avons donc mis un point d’honneur à inscrire notre approche dans une démarche d’adoption des équipes et donc de création de valeur tangible, condition inéluctable à l’utilisation des insights par les équipes, et au soutien du projet de Data Science en amont et en aval.

#2 DISPOSITIF MIS EN PLACE (ACTEURS, CRITERES, PROCESS TIMING

 3 phases

A. Technique : mise en place d’un premier prototype

·    Environnement IT, DSI : la pierre angulaire d’un bon démarrage

Le prérequis pour récupérer la donnée est de se brancher aux systèmes d’information pour pouvoir accéder, récolter et commencer à exploiter les données. Il est important d’être flexible sur cette étape, car il y a autant de systèmes IT que d’entreprises !

Il faut connaître l’environnement de chaque acteur Cloud (AWS, Azure, GCP), jongler avec les différentes technologies et construire un environnement IT qui va servir l’objectif business à court et à moyen terme. Cette étape peut prendre de quelques semaines à quelques mois, suivant la nature des bases des données disponibles et leur adéquation avec l’exploitation qu’on veut en faire.

Afin d’éviter le syndrome du puits sans fond, le parti pris d’Ekimetrics consiste à privilégier le time-to-market pour les premiers résultats au moins. Convaincre par la preuve, dans une démarche itérative et agile, avant d’aller plus loin.

·    Récupérer les bonnes données : type, quantité et structure

Comme pour une voiture, il n’y a pas de modèle statistique ou d’algorithme qui fonctionne efficacement sans carburant. Les données injectées dans le modèle sont choisies précisément, en lien direct avec la problématique métier qu’on cherche à résoudre. Variété, complétude, qualité, quantité des data impactent le choix et la pertinence de tel ou tel algorithme.

Dans le cas de l’assureur, les données clients étaient bien sûr au cœur de l’équation. Nous avons exploré l’accessibilité, la pertinence et la solidité des données de comportement d’achat transactionnel, etc.), comportement à chaque étape du tunnel de conversion (navigation sur le site, etc.), relations service client (réclamations, etc.).

Certaines données n’étant pas exploitables, nous avons jeté notre dévolu sur les données d’arbitrage, commerciales (interactions account managers) et gestion des sinistres / réclamations, que nous avons considérées comme assez solides pour dessiner un parcours client complet et représentatif de la réalité. Si aucune de ces données n’est disponible, alors le projet peut être caduque avant même de l’avoir commencé. Dans ce cas, le projet doit être abandonné, ou revisité dans son périmètre. La créativité d’un data scientist à identifier les bonnes données, ou trouver des moyens de les obtenir, fait partie du cœur de compétences.

La quantité compte aussi. Pour garantir la fiabilité de nos modèles statistiques, il a aussi fallu vérifier le volume de données disponibles. Dans le cas de notre cet assureur, nous avons récupéré plusieurs centaines de milliers de données, prérequis nécessaire à l’entraînement du modèle, pour lui permettre de tirer des conclusions crédibles et sûres.

Enfin, la structure des données accessibles influence aussi le choix de l’algorithme. Le deep learning par exemple permet d’exploiter la richesse de données à plusieurs dimensions (ou « tenseurs »), comme le temps, les clients, les événements...

La non-disponibilité de ces données élude rapidement la possibilité de choisir telle ou telle approche machine learning, ce qui n’était pas le cas pour notre client.

·    Définir les meilleures approches statistiques : machine learning et statistiques descriptives

Machine learning : neural network pour répondre à la complexité

Nous avons déjà parlé de la complexité du parcours client, superposant plusieurs couches d’interactions de la part de départements différents, et l’ouverture de nombreux scenarii possibles suivant le type d’évènements (arbitrage positif, refusé, renouvellement du contrat sous conditions, etc.).

Nous avons donc choisi d’avoir une approche « réseau de neurones », un type de modèle capable (via une variante appelée « RNN » pour Recurrent Neural Network, ou réseau de neurones récurrents) de prendre en compte la temporalité, de capturer la chronologie des moments phares, et de déterminer l’impact positif ou négatif des événements sur la satisfaction client.

Nous avons déployé une approche dynamique du score, évolutive dans le temps. Cette approche deep learning nous a semblé la plus pertinente pour exercer cette analyse à plusieurs dimensions ; un scoring traditionnel aurait demandé un travail manuel extrêmement important de création de variables et n’aurait pas été fondamentalement capable de construire une histoire client. Une approche deep learning en revanche est assez puissante pour capturer la chronologie et l’influence positive et négative sur le comportement.

Modélisation statique vs. Modélisation séquentielle

Statistiques descriptives : amener de la clarté dans la boîte noire

Mais comme dans toute approche « réseau de neurones », il n’est pas facile de raccrocher les wagons, et l’enjeu d’interprétation est toujours là. Afin de garder une certaine clarté, et de nourrir un discours toujours orienté business, nous avons intégré des statistiques plus descriptives ou des modèles très lisibles (régression linéaire, arbres de décisions, etc.). Gage de soutien du Comex, gage d’adoption des équipes opérationnelles, gage de pertinence (contrôles de cohérence, etc.), cette hybridation des méthodes statistiques nous a permis de composer subtilement entre précision des résultats et valeur métiers tangibles, et de proposer des plans d’actions ancrés dans leur réalité.

B. Implémentation : embarquer l’adhésion des opérationnels et l’adoption

Comme évoqué au début de cette étude de cas, il était impératif pour l’assureur que le projet ne soit qu’un POC de plus sur l’étagère.

Dans le cadre de l’évolution du positionnement de l’assureur d’une société « d’actifs » vers société de « services orientée client », il était crucial que les résultats de cette analyse, soient pris en main par les équipes terrain, dans le cadre de leur démarche d’amélioration de l’expérience client à l’échelle de l’entreprise.

Nous avons donc imaginé des mises en œuvre tactiques mais très concrètes pour créer des passerelles entre la vision stratégique, l’approche Data Science, et le quotidien des équipes opérationnelles. Quelques exemples :

·    Avant d’avancer sur une industrialisation « at scale » (> 4 000 employés), nous avons déployé les résultats sur un scope réduit de métiers, dans des pays ciblés. Une manière de tester l’implémentation métiers, et d’ajuster le cas échéant avant le déploiement mondial.

·    Nous avons mis en place des représentations graphiques simples, comme par exemple des courbes évoluant dans le temps en fonction des événements, illustrant le parcours client, ses étapes, ainsi que l’évolution de sa satisfaction. Visualiser le parcours client a aidé chaque département à identifier son rôle spécifique dans l’expérience client, et donc sa capacité à minimiser, ou participer au risque de churn sur un segment de parcours donné.

·    Mise à jour tous les 15 jours, cette courbe dynamique a permis aux départements de constater officiellement le risque de churn, et donc de mettre en place des actions concrètes pour améliorer l’expérience client, au bon moment. Un bon moyen également d’acculturer les équipes opérationnelles à la pensée data driven, au quotidien.

·    Avec notre échantillon de champions, dans plusieurs pays et métiers, nous avons aussi identifié les informations les plus utiles pour les équipes opérationnelles, afin de les faire remonter visuellement sur la courbe. Une façon simple de donner accès à de nouvelles informations, et de préparer la démocratisation de ces données de façon plus lourde lors de l’industrialisation finale (accessibles via le SI, les ERP...).

·    Enfin, nous avons mis en place des scripts, proposés par les métiers, pour être proactivement informés des forts moments à risque par exemple (création de seuils de risques et d’alertes automatiques). Des actions malines à forte valeur ajoutée, qui s’inscrivent dans le quotidien, et font vivre la promesse de marque à tous les étages.

Pour construire le graphique ci-dessous :

·    les évènements impactant la satisfaction client ont été identifiés et positionnés chronologiquement, pour permettre une lecture sous forme « d’histoire » ;

·    des seuils de risque ont été déterminés par Ekimetrics, en accord avec le client ;

·    la lecture est simple : chaque département peut constater visuellement la séquence d’événements, amenant progressivement à un risque d’attrition de plus en plus grand ;

·    cette data visualisation, proposée par Ekimetrics, a rendu les analyses accessibles au métier. Cela a favorisé la compréhension du projet, et donc l’adoption par les équipes.

Succession d'événements négatifs

La Data Science a donc été le trait d’union entre l’évolution de la promesse relationnelle, le choix des use case au service de cette nouvelle posture de marque, jusqu’à l’industrialisation.

Au-delà des modèles statistiques, c’est la mise en place de nouvelles capacités data et analytiques, durables, qui nous semble importante : un écosystème de solutions data, de nouveaux frameworks analytiques, de nouveaux processus métiers, au service d’une meilleure compréhension des attentes client.

---
Article co-rédigé avec l'équipe de l'EBG dans le cadre de The Digital Benchmark, et remis à Berlin en mai 2019 à plus de 800 CMOs, Directeurs Marketing, Directeurs Data et Directeurs Expérience Client.
Pour en savoir plus : sophie.desroseaux@ekimetrics.com // 
https://www.ebg.net/berlin2019/.

Actualités 6 mai 2020

Alcov2 : enquête de grande ampleur sur la transmission de SARS-Cov2

Une équipe composée de chercheurs et chercheuses en mathématiques, statistiques et épidémiologie (Sorbonne Université, CNRS, Collège de France, Oxford University, Ekimetrics, Datacraft) a lancé une enquête à destination des foyers français ayant expérimenté la présence du nouveau coronavirus pendant la période de confinement.