Quel type de valeur voulez-vous générer avec la Data et l’IA ?
Cet hiver, nos experts OCTO vous proposent un cycle de contenus autour de la data et de l’IA. Le sujet vous intéresse ? Pour découvrir le programme et ne rien rater, inscrivez-vous sur notre page Intelligence Artificielle & Data Science.
L’intelligence artificielle revient sur le devant de la scène depuis l'ouverture de ChatGPT au grand public le 30 novembre 2022. Depuis ce moment clé dans l’histoire des ruptures technologiques, plus de 50% des comités exécutifs ont mis à leur agenda l’intelligence artificielle générative et la majorité des sociétés expérimentent des cas d’usages métiers (source, Gartner). Nous sommes dans la courbe ascendante du hype cycle de Gartner.
Pour autant, nombreuses sont les sociétés qui continuent à trouver difficile de générer de la valeur avec la Data & l’IA, ou même parviennent à mesurer cette valeur une fois les produits data déployés à leur utilisateurs ou clients.
Depuis la prise de conscience du potentiel de l’Intelligence artificielle avec l’apprentissage profond et AlexNet en 2012, la majorité des fonctions IT et de nombreuses fonctions métiers, en particulier le marketing ou le manufacturing, se sont lancées dans l’idéation et la construction de cas d’usages, avec une réussite très variable. Elles ont rencontré de nombreuses embûches et peu sont parvenues à un véritable usage générateur de valeur.
Parmi les nombreux freins rencontrés, on trouve :
- le passage douloureux de l’expérimentation à l’industrialisation ;
- la lourdeur d’un existant technologique qui peine à être migré sur des technologies modernes cloud ;
- l’absence de bases fondamentales solides construites sur un modèle opérationnel ou une gouvernance des données ;
- une adoption limitée causée par des barrières culturelles qui n’ont pas été franchies.
Devenir data driven reste d’actualité, mais pour la majorité demeure un Graal difficile à saisir. En parallèle, l’exploitation de l’intelligence artificielle, notamment à travers les réseaux neuronaux, est de plus en plus énergivore avec un retour sur investissement qui reste parfois à démontrer.
Pourtant, nous restons convaincus que l’intelligence artificielle (et la data dont elle a besoin) va transformer notre société en profondeur dans les années à venir. Ignorer son impact serait faire comme la grenouille qui reste immobile dans une eau qui se met à bouillir très lentement.
Nous livrons dans cet article quelques réflexions sur les orientations qui peuvent mener à une exploitation raisonnée à l’échelle des données et de l'intelligence artificielle.
Generative AI 🧠
ChatGPT a fait prendre conscience que l’IA est utile, et surtout utilisable par toute personne ayant un téléphone portable, soit plus de 5 milliards d’entre nous (source, Statista : GSM Association). La capacité des LLM (Large Language Models ou grands modèles linguistiques) à traiter des ensembles massifs de données leur permet potentiellement de "connaître" tout ce qu'une organisation n’a jamais connu - l'ensemble de l'histoire, du contexte, des nuances et des intentions d'une entreprise, de ses produits, de ses marchés et de ses clients. Les développeurs, les créatifs, ou les métiers qui manipulent majoritairement du texte (service public, supports client, services financiers…) ont déjà au moins expérimenté l’IA générative.
98% des managers s’accordent désormais sur le fait que les LLM vont être la source la plus importante de changements dans leur manière de travailler, dans les 3 à 5 ans (source, Accenture Technology Vision). Les cas d’usages sont quasi infinis, et les modèles propriétaires ou open-source, de plus en plus performants, rendent déjà service à bon nombre d’entre nous.
Pour autant, ces modèles questionnent encore. Laissons de côté les peurs d’être dominés par l’IA et considérons que l’IA va nous aider à être plus intelligents.
La technologie des LLMs auto-régressifs, ces LLMs aux milliards de paramètres comme ChatGTP ou Claude, aussi prometteuse soit-elle, est encore imparfaite dans sa conception actuelle : hallucinations, jailbreaks, injection de prompts sont autant de limites ou de moyens de briser la confiance que l’on peut y accorder, tant est si bien qu’un certain Yann LeCun considère que les LLMs dans leur conception actuelle sont condamnés. Va-t-on rapidement atteindre la pente de la désillusion du hype cycle de Gartner ?
De nombreuses questions se posent à nous : comment contourner les limites des modèles existants ? Comment construire une feuille de route permettant à la fois de bénéficier de l’IA générative avec les modèles disponibles et d’être en mesure de s’adapter au rythme de l’évolution des technologies sous-jacentes ? Comment déployer l’IA générative à l’échelle ? Comment s’organiser autour des solutions mises en œuvre pour en assurer l’adoption et l’évolutivité ? Comment s’assurer que les investissements engagés délivrent la valeur escomptée ? Comment l’utiliser en conscience tout en limitant son impact social et environnemental ?
Stratégie Data & Gestion de la valeur 💡
La stratégie data consiste à établir une vision à long terme et un plan d’action sur la manière de structurer et de faire fructifier le patrimoine de données d’une entreprise pour répondre à ses ambitions. La mise en place d’une fondation de données pour collecter, stocker, gérer et industrialiser l’exploitation des données afin de répondre aux attentes des Métiers est un pilier de la stratégie data mais ne peut et doit pas en être la finalité.
En effet, les changements incessants, qu’ils soient concurrentiels, réglementaires, conjoncturels, sociétaux, comportementaux, environnementaux, technologiques avec l’AI, et les contraintes induites obligent les organisations et les Hommes qui la composent à adapter en permanence, et de plus en plus vite, leurs modèles d'affaires.
Chez OCTO nous avons la conviction qu’il est indispensable de combiner dès le départ une vision “Business” pragmatique dans la stratégie data au travers de cas d’usage Métier concrets qui délivrent de la valeur dès que possible et qui viennent au fur et à mesure valider ainsi la stratégie data par la preuve de valeur (exemples : augmentation du CA, réduction des coûts).
La stratégie data consiste alors à articuler les moyens qui permettent d'accélérer la génération de valeur pour l’Entreprise au travers la démultiplication de la livraison des cas d’usage à valeur Métier (via les méthodes de product management, Value Ops, etc.).
La stratégie data devient dès lors une démarche pour déployer des méthodes inclusives afin d’impliquer l’ensemble des collaborateurs (Métiers, DSI) via l’acculturation à la donnée et à la gouvernance de données, afin de prendre conscience des enjeux de la data et de l’IA, et de la nécessité de flexibiliser le SI (via le Cloud et l’IA par exemple) pour pouvoir opérationnaliser les évolutions de la stratégie de l’entreprise.
Au-delà de ces convictions, des questions surviennent : comment générer d’autres types de valeurs que le gain financier ? Comment gagner l’adhésion des collaborateurs à l'échelle de l’entreprise et à quel moment l’intégrer dans notre stratégie data pour passer à l’échelle ? Comment combiner les enjeux de la création de valeur et du passage à l’échelle dès la mise en place de la stratégie data ? OCTO propose de répondre avec vous à ces interrogations, en abordant les aspects culturel, organisationnel et de performance opérationnelle.
Data Product Management 📦
L’ambition de devenir data driven enjoint à démultiplier les usages de la donnée pour la création de produits digitaux, à rechercher des gains d’efficacité et à prendre de meilleures décisions de management. Cette recherche de nouvelle valeur métier par la donnée rend d’autant plus cruciale la maîtrise de sa qualité, mettant ainsi sous pression les équipes Data des organisations.
Pour aider la transition vers un nouveau modèle organisationnel et d’architecture autour de la donnée, un changement radical de point de vue propose de positionner la “donnée elle-même comme un produit” (au delà même de la donnée comme asset d’une organisation), produit qui lui-même permettra de construire les nouveaux “produits data” (dashboards, APIs, apps, algorithmes...).
Cette nouvelle perception de la donnée va dans le sens d’une “data democratization” avec de nouveaux rôles et responsabilités pour les métiers et l’IT et de nouveaux outils et plateformes digitaux. Chez OCTO, nous sommes persuadés que les LLM accélérerons cette tendance. Des LLMs interopérant avec ce nouvel écosystème de “data products” permettront de simplifier l’interaction avec les données pour atteindre toutes les strates de l’organisation.
MLOps 🤖
Du prototype de Machine Learning à un service en production qui livre la valeur promise, en servant de nombreux utilisateurs de manière robuste, il y a un long chemin à parcourir. Ce chemin fera appel à la plupart des compétences du monde du logiciel.
Premier challenge, rendre les expérimentations reproductibles : transformer le code produit (souvent dans un notebook) en code robuste, scalable, testé de manière automatisée et documenté. Nous faisons ici appel à des compétences venant du software craftsmanship.
Deuxième challenge : designer une architecture qui prend en compte les spécificités du Machine Learning (avoir un service d’entraînement, un service d’inférence, un registre de modèle). Face à la hype du MLOps et des nouvelles technologies qui sortent toutes les semaines, il faut savoir faire preuve de pragmatisme pour éviter que le run ait un coût disproportionné par rapport aux bénéfices tirés du modèle. Nous faisons ici appel à des compétences d’architecture.
Troisième challenge : avoir une infrastructure capable d’accueillir le cas d’usage (il peut requérir une puissance importante, des GPUs, etc.). Puis mettre en place la chaîne de CI/CD pour déployer de manière automatisée la solution en production. Nous faisons ici appel à des compétences d’Ops. Une fois en production, des questions de monitoring, d’annotations, de ré-entraînement se posent, il convient de définir des niveaux de service attendu et de mettre en place les outils nécessaires pour y répondre. Nous faisons alors appel à des compétences SRE et Data Science.
Finalement, pour que tout cela ne ressemble pas à un énorme tunnel de plusieurs mois, il faut faire appel à de l’agilité et du pragmatisme pour mettre en place au fur et à mesure l’ensemble de ces briques.
Pour approfondir ces pratiques, restez connecté dans les prochaines semaines sortira notre livre Culture MLOps : plus de 200 pages de convictions et de pratiques sur le MLOps !
Green Data & Green AI 💪
85 tonnes : c’est l’estimation de la consommation CO2 pour entraîner GP3, l’ancêtre de ChatGPT de taille bien inférieure. Aujourd’hui, force est de constater que la compétition que se livrent les principaux acteurs IA se fait au détriment de leur consommation énergétique qui est occultée. OpenAI a d’ailleurs décidé de ne plus communiquer sur la taille de ses modèles. Bien évidemment, ils ne sont pas les seuls pollueurs : l’utilisation de l’IA explose dans toutes les entreprises de tous les secteurs confondus.
Si les résultats atteints par l’IA sont souvent remarquables, justifient-ils les moyens mis en œuvre ? Aujourd'hui, on ne sait pas répondre à cette question, car aucune mesure de l'empreinte carbone d’IA n’est faite. Seule la performance compte ! Tel le Pharmakon d’Homère, une IA est à la fois une potion (avec des algorithmes capables d’optimiser l’utilisation de nos ressources), mais également un poison en étant une source de pollution plus importante qu’une application standard. La réponse à cette question n’est donc pas uniquement du ressort des équipes qui construisent ces IA. Elle concerne également les équipes métier pour définir la juste performance d’une IA dans son domaine d’application. Et la réponse n’est évidemment pas la même s’il s’agit d’optimiser une campagne marketing ou de poser un diagnostic un médical…
Nous avons la conviction qu’il est urgent de changer de paradigme pour créer des IA frugales en adoptant une démarche éco-modélisation des IA capables de diviser jusqu'à 2 leur émission de CO2 sans dégrader significativement leur performance. Comment gérer et faire adopter ces changements ? Comment s’organiser autour des solutions à mettre en œuvre pour le décliner de manière opérationnelle ? Ce sont autant de questions auxquelles OCTO apporte une réponse en 3 volets : culturel, organisationnel et opérationnel.
→ Pour tout savoir sur les enjeux Data & IA, rendez-vous sur notre page dédiée.
→ La Grosse Conf, c’est la conférence Data & IA by OCTO qui pose un cadre à la mesure des enjeux. Programme, infos et billetterie sur lagrosseconf.com.