Interview Meriem Berkane, Data architect : “Dans tout projet d'architecture Big Data, il faut d’abord interroger ses motivations !”

Consultante chez OCTO Technology depuis 10 ans, et leader de la tribu Nouvelles Architectures de données, Meriem Berkane accompagne les entreprises dans leur projet d’architecture de SI et Big Data. Elle nous livrera, lors de La Duck Conf, ses conseils et ses convictions pour réussir ce type de projet et créer de nouveaux services à valeurs ajoutées. Mais au-delà de la technique et la méthode, les entreprises ne devraient-elles pas commencer par s’interroger sur leurs motivations ?

Quel est généralement le niveau d’expertise des entreprises sur le management de la donnée et le big data ?

Le niveau de maturité est très hétérogène. On a des entreprises françaises très à la pointe, qui connaissent bien les technologies… mais pas forcément la démarche !

Du côté des entreprises plus historiques (généralement dans les secteurs bancaire, santé, industrie), on a fait du chemin. Il y a aujourd’hui une vraie prise de conscience – même si le niveau technique n’est pas toujours suffisant et que certains process lourds ralentissent encore la transformation. Mais la machine est en marche, et on voit déjà de très bonnes initiatives dans le paysage. Je pense notamment à la Banque de détail de France de la BNPP, avec qui nous avons collaboré récemment.

Quels sont les typologies de use case ou de projets Big Data que l’on voit le plus émerger aujourd’hui ?

Tout d’abord, le déchargement massif de données : on veut décomissionner ou soulager des systèmes existants assez coûteux (et plus vraiment de première jeunesse) comme le mainframe par exemple.

Il y a aussi le matraquage d’évènements. Aujourd’hui, le temps réel est partout. L’immédiateté n’est plus optionnelle, et ceux dans une multitude de secteurs. Je pense à la lutte contre la fraude dans le secteur bancaire par exemple, la détection de courrier pour une entreprise comme Chronopost, la réactivité d’une entreprise ecommerce face à l’abandon ou la mise en attente d’un panier d’achat, etc.

Troisième cas, la recherche en profondeur : apprendre à connaître son client, étudier les historiques... Bref, creuser et capitaliser sur les données. C’est tout l’enjeux d’un référentiel data lake : pouvoir croiser et organiser les données, pour créer de la valeur et anticiper des besoins. Tout ceci ouvre des opportunités, ajoute de l’intelligence et de la richesse aux algorithmes. Bref, voir déjà plus loin !

Quels sont les prérequis pour mener à bien un projet d’architecture Big Data ?

Il faut toujours commencer par interroger ses motivations, pour être sur qu’un projet d’architecture Big Data est la bonne solution. Même si vous commencez petit, il faut une vision globale pour créer de la cohérence… et pour être certain que votre projet sera viable en grossissant. Il y a des contraintes techniques, métiers et règlementaires intrinsèques à chaque entreprise. Il est indispensable les soulever d’entrer de jeu et d’établir, à partir de là, un cadrage très fin. Et ne pas lésiner ensuite sur les moyens logistiques, techniques et humains. Enfin adapter ses processus internes (cadrage et lancement des projets, accès aux sources, livraisons dans les différents environnements, etc.) afin d’apporter de la valeur métier au plus vite.

Il faut aussi une forte charge de data dès le début. Le projet en lui même doit être simple au démarrage, mais il doit prendre en compte de gros volumes.

Je pense également que faire auditer sa plateforme régulièrement est indispensable. Des modélisations qui auraient été mal pensées au début pour des données plus larges peuvent s’avérer catastrophiques par la suite, notamment au niveau du temps de traitement. Pour cela, des experts externes sont les bienvenues.

Enfin – et cela reboucle avec les motivations – ne pas négliger la démarche. On a vu beaucoup de projets qui justifiaient ces architectures et dont la vision était bonne, mais qui ont voulu aller trop vite et qui ont développé des mauvais réflexes. Par exemple : choisir de l’open source sans avoir véritablement le temps et les ressources nécessaires pour assumer ce choix. C’est l’idéologie vs le pragmatisme. On ne condamne pas du tout l’idéologie, au contraire ! Mais il faut se donner les moyens de l’appliquer...

Quels sont les principaux enjeux autour de la Data que les entreprises vont devoir relever dans les années à venir ?

Comme je disais, il y a une vraie prise de conscience des entreprises historiques. Mais je vois encore 3 enjeux les concernant :

  • réussir à monter en compétences en interne. Un chantier capital pour maintenir leur capacité à innover, et donc leur compétitivité.
  • réussir à adresser des problématiques – pas si nouvelles – de gouvernance  et de sécurité de la donnée, s’ouvrir vers le monde (c’est-à-dire rapatrier des données et/ou ouvrir les leurs).
  • Adapter les processus internes pour ces projets, comprendre que dans une logique d’expérimentation de nouvelles technologies et de nouveaux use cases, il faut adapter sa méthode et ses standards habituels.

Tous ces enjeux sont intimement liés à leurs leviers de croissance.

Pour répondre à ces enjeux, les entreprises commencent déjà à recruter beaucoup plus de développeurs en internes – au lieu d’externaliser ce qu’elles considéraient comme des problématiques indépendantes de leur coeur de métier. C’est une petite révolution !

Et pour les entreprises digital natives ?

Ces entreprises ont l’avantage et l’inconvénient d’être assez jeunes, et leur parc de développeurs aussi. On peut remarquer, parfois, un certain manque de pragmatisme face à la technologie, à partir de laquelle elles se définissent presque entièrement. Les moyens sont engagés sur la techno, plus que le retour sur investissement. On y trouvent des gens extrêmement compétents techniquement, mais qui n’ont pas forcément l’expérience et le recul nécessaires. Nous travaillons aussi beaucoup avec ces entreprises chez OCTO, au niveau méthodologie. Contrairement aux entreprises historiques, avec des métiers établis, elles sont aussi finalement plus dépendantes des aléas de l’écosystème digital.

A chaque entreprise ses faiblesses ; le tout est d’y faire face au plus vite, pour qu’elles n’endommagent pas leurs projets et leurs ambitions. Le fameux pragmatisme...

Retrouvez Meriem Berkane à La Duck Conf :

“Les données sont là, dans votre SI, éclatées dans différents silos applicatifs. Maintenant qu'elles commencent à alimenter un Data Lake, que va-t-on en faire ? Comment les valoriser ? Comment créer de nouveaux services à valeur ajoutée ? Après dix ans de programmes data menés par OCTO dans toutes sortes d'organisations c'est le moment de faire le point. Qu'est ce qui a réellement marché, quels sont les écueils et les pièges récurrents venus ternir l'avenir de ces programmes ?”

Consultante chez OCTO Technology depuis dix ans, Meriem Berkane a accompagné plusieurs grands clients d’OCTO Technology dans différents domaines, notamment le conseil en architecture des SI, la réalisation de DAGs (Dossier d’Architecture Général), cadrages fonctionnels et techniques de projets informatiques et l’accompagnement d’équipes de développement sur les volets techniques et méthodologiques (méthodologies agiles). Ses nombreuses expériences lui ont permis de développer de l’expertise dans différentes plateformes de développement, notamment java/JEE, .Net, iOS et Android. Dans le cadre de ses activités R&D chez OCTO Technology , elle s’intéresse aussi plus particulièrement au NoSQL et Big Data.

A propos de La Duck Conf :

La Duck Conf est la conférence technique OCTO dispensée par nos experts. Cette première édition, consacrée à l**’architecture de SI**, s’adresse aux architectes techniques, architectes de données et d’entreprise, aux tech lead et aux experts en tout genre qui souhaitent soulever le capot et aborder concrètement leurs problématiques projet…

Unique à Paris, elle offre un tour d’horizon des meilleures pratiques d’architecture, fondé sur notre expertise et nos expériences du terrain : DevOps, Big Data, Scalabilité, Résilience, Rénovation de legacy…