La Grosse Conf 2026 : innover sans perdre la maîtrise

le 09/04/2026 par Philippe Goge
Tags: Product & Design, Data & AI

Introduction

Le 24 mars 2026, OCTO Technology a organisé la troisième édition de La Grosse Conf, notre conférence annuelle Data & IA. Ce fut une journée dense, exigeante et volontairement engagée, qui a rassemblé praticiens, leaders techniques et experts autour d’une question centrale, presque paradoxale : comment continuer à innover à toute vitesse, tout en gardant la maîtrise de nos systèmes, de nos données et de nos organisations ?

Cette tension, loin d’être un slogan marketing, a structuré toute la journée. Deux thématiques claires – Innover et Maîtriser – deux tracks complémentaires, des talks profondément ancrés dans le terrain, une démozone pensée comme un prolongement concret des conférences, et une philosophie assumée : remettre l’humain, la responsabilité et le discernement au cœur de la Data et de l’IA.

Derrière cette question se cache un constat largement partagé par les équipes data et tech : l’innovation s’accélère plus vite que notre capacité collective à l’absorber. Les organisations empilent outils, modèles et architectures, parfois au prix de leur lisibilité, de leur autonomie et de leur capacité à décider. La Grosse Conf 2026 propose précisément de prendre un pas de recul, non pas pour ralentir, mais pour innover sans renoncer à la maîtrise.

Une conférence qui assume la complexité du moment

Fidèle à l’ADN d’OCTO, la Grosse Conf met en avant des retours d’expérience, des démos, des architectures concrètes et des questions qui fâchent. Elle ne cherche ni à prédire l’avenir, ni à vendre une solution miracle. Elle pose un cadre lucide, à la mesure des enjeux actuels : explosion des usages, accélération technologique continue, dépendances structurelles aux plateformes, incertitude croissante sur les impacts économiques, sociaux et environnementaux.

Dès l’ouverture, Jean‑Baptiste Kempf (Scaleway) pose le cadre avec une keynote sur la souveraineté – ou plutôt l’autonomie numérique. De la donnée brute au matériel, des data centers à l’inférence, il rappelle que l’IA n’existe jamais hors sol : elle s’inscrit dans des chaînes industrielles, énergétiques, économiques et géopolitiques. Innover sans regarder cette réalité, c’est accepter une dépendance subie.

Jean-Baptiste Kempf

Innover : explorer de nouveaux possibles

Comprendre comment l’IA raisonne (et jusqu’où)

Avec son talk « Comment l’IA apprend à raisonner ? », Teïlo Millet a posé un socle conceptuel essentiel pour aborder l’innovation avec lucidité. Raisonner n’est pas magique : c’est une question de compute, de données et de méthodes. Les capacités de raisonnement observées aujourd’hui émergent de compromis subtils entre architecture des modèles, volume de calcul et stratégies d’entraînement.

En distinguant raisonnement rapide (Système 1) et raisonnement lent (Système 2), il a montré comment les modèles actuels exploitent des techniques comme le test-time scaling**, le** scaffolding ou différentes formes de renforcement (RLHF, RLVR). Le message est clair : raisonner, c’est utiliser le calcul de manière plus efficiente, pas simplement empiler des paramètres ou augmenter la taille des modèles.

Cette mise en perspective permet d’éviter deux écueils fréquents : surestimer les capacités actuelles des modèles, ou au contraire les rejeter en bloc. Elle invite surtout à concevoir des systèmes où le raisonnement est orchestré, outillé et contrôlé, plutôt que fantasmé.

Aller au-delà du langage : les world models

Autre moment fort côté innovation : Eric Biernat et son talk « Quand le langage ne suffit plus : vers les world models ». Partant du constat que les LLM restent fondamentalement des systèmes de prédiction statistique, il explore une autre voie : donner à la machine une capacité de simulation du monde.

Perception multimodale, représentation interne, dynamique temporelle, planification : les world models visent à dépasser le texte pour modéliser des environnements complexes et permettre l’anticipation. L’enjeu n’est pas seulement technique, il est aussi conceptuel : passer d’une IA qui décrit le monde à une IA capable de raisonner sur ses évolutions possibles.

Une idée résume bien cette approche : l’IA ne doit plus seulement parler du monde, mais apprendre à le modéliser. Une piste prometteuse, mais qui pose immédiatement des questions de coût, de validation et de contrôle.

Éric Biernat

Expérimenter pour transformer les usages

Plusieurs talks ont illustré comment l’innovation prend sens lorsqu’elle transforme réellement les pratiques quotidiennes.

  • Jérôme Lambert a montré comment un Analytics Engineer peut être augmenté par l’IA, sans être remplacé. Son DataQualityAgent automatise documentation et tests dbt en quelques secondes, libérant du temps pour ce qui compte vraiment : la compréhension métier, la modélisation et le dialogue avec les équipes.
  • Thomas Tourret a partagé deux années d’expérimentation en IA générative. Son retour est sans ambiguïté : l’expérimentation seule ne suffit plus. Après la phase d’émerveillement, l’enjeu devient l’impact réel, mesurable, durable.

Innover, ici, ce n’est pas multiplier les POC. C’est inscrire l’IA dans des chaînes de valeur existantes, avec des bénéfices concrets et assumés.

Maîtriser : reprendre le contrôle

Accepter l’incertitude plutôt que la nier

Le talk de Christian Fauré, « De l’illusion déterministe à la maîtrise de l’incertitude », a profondément marqué les esprits. Son point de départ est simple : nos organisations continuent de se penser comme des systèmes maîtrisables, alors même que l’incertitude est devenue structurelle.

Les LLM n’ont pas créé le non-déterminisme : ils le rendent visible. Ils agissent comme des révélateurs des limites de nos modèles mentaux, de nos processus de décision et de nos outils de pilotage. Dès lors, l’enjeu n’est plus d’éliminer l’incertitude, mais d’apprendre à décider avec.

Une phrase a particulièrement résonné : « Il faut avoir de l’empathie pour les systèmes techniques ». Comprendre leurs signaux faibles, leurs zones de fragilité, leurs comportements émergents devient une compétence clé.

Souveraineté et autonomie numérique

Avec « Souveraineté de l’IA du data center à l’inférence », Jean-Baptiste Kempf a élargi la réflexion. La souveraineté n’est pas un slogan politique ni un simple choix de fournisseur cloud : c’est une autonomie numérique qui se pense sur toute la chaîne de valeur.

Du matériel aux modèles, de l’énergie aux compétences, chaque maillon compte. Monoculture technologique, dépendances critiques, enjeux de sécurité et de résilience : les risques sont connus. Les leviers aussi. Le message est sans détour : la maîtrise est un choix stratégique, qui engage l’organisation sur le long terme.

Industrialiser sans rigidifier

Plusieurs retours d’expérience ont montré que maîtrise et industrialisation ne riment pas nécessairement avec rigidité.

  • An Truong (TotalEnergies) et Thomas Vial ont démontré qu’un MLOps à l’échelle est possible avec pragmatisme : monitoring distribué, architectures événementielles, SDK embarquables.
  • Olivier Wulveryck a questionné l’orchestration centralisée des agents IA, plaidant pour des architectures agent-to-agent plus résilientes, tout en rappelant la nécessité d’observer, mesurer et comprendre avant d’accélérer.

Maîtriser, ici, signifie rendre les systèmes observables, explicables et évolutifs.

La démozone : confronter les idées au réel

La Grosse Conf ne se limite pas aux talks. La démozone a joué un rôle central en permettant de confronter immédiatement les concepts aux usages concrets. Quatre démonstrations ont particulièrement illustré le lien entre innovation et maîtrise :

  • l’accélération de la traduction de code legacy, avec des gains de productivité significatifs ;
  • la sensibilisation aux risques de sécurité liés aux agents IA, à travers des scénarios d’attaque réalistes ;
  • la gouvernance des modèles à l’échelle, de la version au déploiement ;
  • le traitement documentaire par LLM multimodaux, réduisant drastiquement les délais de mise en œuvre.

Un rappel utile : l’IA devient réellement intéressante lorsqu’elle s’inscrit dans des systèmes existants, avec leurs contraintes de sécurité, de performance et de gouvernance.

Une philosophie assumée : innover et maîtriser

Tout au long de la journée – talks, démos, échanges informels – un fil rouge s’est imposé : innover et maîtriser ne sont pas opposés. Ils se renforcent mutuellement.

La keynote de clôture de David Larose, consacrée à l’IA au service de la performance sportive, l’a illustré de manière très concrète. Derrière les GPU et les modèles, il y a des collectifs, des entraîneurs, des athlètes, des ingénieurs. L’IA n’est jamais une fin en soi, mais un levier au service d’un projet humain.

Ce qu’on retient de cette 3ᵉ édition

  • L’IA impose un changement de paradigme, technique et organisationnel.
  • L**’incertitude est devenue structurelle** : il faut apprendre à composer avec.
  • La maîtrise passe par des choix assumés, pas par l’illusion du contrôle total.
  • L**’innovation utile est celle qui transforme réellement les pratiques**.

La Grosse Conf 2026 confirme ainsi son ambition : offrir un espace exigeant pour penser la Data et l’IA autrement, avec lucidité, responsabilité et esprit critique. Une conférence qui ne promet pas des lendemains simples, mais qui donne des clés pour mieux affronter la complexité.

Rendez-vous à la prochaine édition en 2027 à la Maison de la Chimie (Paris).

Photo d'ambiance

Pour aller plus loin

La Grosse Conf 2026 s’inscrit dans une continuité de réflexions et de retours d’expérience portés par nos équipes d’OCTO Technology. Si les sujets abordés pendant la conférence vous ont interpellé, ces contenus permettent d’approfondir les thématiques clés de la journée.

Comprendre l’IA pour mieux la maîtriser

Agents, agentic et transformation des métiers

Souveraineté et autonomie numérique

Industrialiser l’IA de manière durable