vendredi 4 décembre 2020

Quand la Société Générale et Micropole relèvent ensemble des défis de Big Data

Face à des volumes de données de plus en plus importants et à l’émergence de nouveaux concurrents au sein d’un secteur bancaire totalement disrupté, la direction financière de la Société Générale a sollicité son centre de solutions pour répondre à un enjeu critique : disposer d’une solution data centrique et intégrée des SUBU pour les Directions Centrales capable de lui fournir une vision 360 sur le pilotage des coûts.

 

Quel est l'objectif du projet Basycout ?

 

L'objectif de ce projet est de centraliser des informations financières et non financières granulaires au sein d’une même interface, pour gagner en profondeur d’analyse et répondre aux questions opérationnelles et stratégiques du Groupe. « La solution permet de croiser des données financières et des données non financières pour en sortir des KPI spécifiques tels que les coûts des DSI internes, les coûts liés à la filière immobilière, etc., explique Ludovic Moullé, Responsable de domaine SI à la Société Générale Global Solution Centre. De plus, elle favorise également la rationalisation des applicatifs IT au niveau DSI ».


À la clé : la capacité désormais à suivre précisément chaque valeur, à simplifier les processus et à
répondre aux besoins métiers.

 

Un socle technologique pour traiter les enjeux métiers


La DSI a alors décidé de partir de l’écosystème Big Data et donc du Data Hub du groupe Société Générale pour aborder les enjeux et les données métiers. Première étape : identifier les « golden sources » et les référentiels pour faciliter la traçabilité de l’applicatif.

 

« L’idée était alors de nettoyer toutes ces données pour repartir de la véritable golden source ». Un
processus chronophage rendu possible grâce à la méthode agile qui a permis de gagner un temps
précieux via des séquences de livraison tous les quinze jours.

 

« Nous avons ainsi obtenu une visualisation plus fine et une meilleure maîtrise de nos données grâce à un monitoring qui permet d’identifier les processus de transformation. Désormais, la DSI est capable de fournir à la direction financière tous les matins à 8h30 une donnée qualifiée et de qualité ».


Pari réussi : 400 jobs sont intégrés à Basycout, et ce tout au long de la chaîne de processus, depuis
la donnée brute à sa restitution sous Power BI. Et plusieurs chaînes de traitement fonctionnent en parallèle pour favoriser une flexibilité optimale entre de simples ajustements d’une durée de quelques minutes à des traitements plus complexes de plusieurs heures.

 

« Pour orchestrer toutes ces chaînes, nous nous sommes appuyés sur une architecture intégrant une première couche Big Data, un niveau BI impliquant de la data visualisation et une partie reposant sur l’intelligence artificielle (NLP) ».

 

Un partenaire BI & Data de confiance


Deuxième étape du projet : permettre aux équipes de se projeter vers de nouvelles perspectives en intelligence artificielle grâce à la diffusion rapide de dashboards, à la mise en oeuvre de KPI via des algorithmes de machine learning capables d’identifier les tendances issues de leur CRM, c’est-à-dire les
arrêtés mensuels et trimestriels des résultats du groupe. À cette fin, un PoC a été réalisé sur Microsoft Azure pour porter toute la partie BI sur le cloud. Objectif : accélérer le time-to-market, favoriser le pay as you go et bénéficier d’une scalabilité adaptée aux besoins réels. « Nous nous sommes focalisés sur le PaaS mais l’objectif est d’évoluer vers le SaaS pour tendre vers un métier augmenté à base d’intelligence artificielle, de chatbots, de réalité virtuelle… Nous allons utiliser notre datalab pour avancer et favoriser encore davantage nos utilisateurs ».

 

Partenaire privilégié de la Société Générale depuis 7 ans, Ludovic Moullé a donc pu pleinement s’appuyer sur les équipes Micropole et sur leur expertise Data pour mener à bien le projet.


Plus de 5 Tb de données intégrées


Parmi les facteurs clés de succès du projet : la forte implication des équipes métier avec les équipes IT. Une démarche qui génère une grande flexibilité et qui permet de réaligner en permanence le produit sur les besoins client. Autre élément de succès : le passage réussi du PoC à l’industrialisation sur le projet Basycout, un point critique qui cause la plupart des échecs des projets Big Data. « Nous avons déjà déroulé 3 applicatifs et nous utilisons 5 Tb de données. Sur certaines sources, nous sommes à plus d’1,5 milliard de lignes. Mais les gains les plus importants sont essentiellement opérationnels vis-à-vis du métier et en productivité pour les contrôleurs de gestion. Effectivement, la Direction Financière estime à 20% de temps gagné pour la production des Dashboards mensuels. Sur la BI, nous travaillons sur 32 axes différents, de la partie financière au provisioning et jusqu’à la facture. Nous pouvons aller jusqu’à un niveau très fin. Nous avons établi une véritable relation de confiance pour avancer ensemble sur nos offres de services respectives et relever les défis, à commencer par ceux du big data. Nous
évoluons dans une relation de partenariat gagnant – gagnant très forte ».

 

Quelles sont les prochaines étapes ?


Côté Big Data, effectuer l’analyse des tendances et les réaliser à un horizon de 5 à 10 ans. De plus, l’écosystème Basycout devrait être enrichi avec deux nouvelles SUBU : périmètre wholesale et les activités de Banque de détail en France (RBDF).


 

Le projet en bref :

 

Problématique : Doter la direction Financière d’une vue 360 sur l’ensemble des informations financières et non financières.

 

Solutions :

  • Microsoft Azure (Azure DWH, Analytics, PBI)

  • Talend (Outil d’intégration, orchestration, urbanisation)

 

Bénéfices :

  • Capacité à suivre précisément chaque valeur, à simplifier les processus et à répondre aux besoins métiers ;

  • 400 métiers intégrés à Basycout et ce, tout au long de la chaîne de processus, depuis la donnée brute à sa restitution sous Power BI.

  • Déroulement des 3 applicatifs et utilisation de 5 Tb de données.