SAFe est en place, mais où est l’impact ?
Selon le dernier rapport State of SAFe, plus de 20 000 organisations dans le monde utilisent aujourd’hui le framework SAFe pour structurer leur transformation agile. Parmi elles, 79 % ont dépassé le stade du lancement des Agile Release Trains et de la mise en place des cérémonies. Elles ont formé leurs équipes, organisé leurs premiers PI Plannings, installé les rôles clés... et pourtant, une question revient avec insistance :
Et maintenant, quelle est la suite ?
Si vous lisez ces lignes, il y a de fortes chances que vous soyez vous aussi à ce carrefour. Vous avez mis en place SAFe – ou vous y contribuez – et vous sentez que quelque chose doit évoluer. Que la mécanique tourne… mais que l’impact réel, lui, reste à amplifier.
Je vous propose ici quelques pistes concrètes à explorer, nourries par les tendances actuelles et les problématiques les plus courantes rencontrées sur le terrain.
Car oui, déployer SAFe, c’est un excellent point de départ. Cela apporte de la structure, de la visibilité, une meilleure coordination. Le framework aide à aligner les équipes, à prioriser, à donner un rythme commun. Les rôles, les événements, les backlogs partagés créent une dynamique nouvelle, souvent salutaire.
Mais SAFe, c’est aussi un révélateur. Une fois la structure en place, les tensions systémiques de l’organisation remontent à la surface. Dans cet article, je vous propose d’explorer trois axes d’amélioration, souvent mis en lumière une fois le premier palier de transformation atteint :
- Des équipes mal découpées, générant trop de dépendances et de coordination.
- Un Lead Time encore trop long entre l’idée et sa mise en production.
- Des projets lourds, coûteux, dont l’impact business reste faible.
Autant de signaux qui montrent que la transformation est lancée, mais qu’elle a besoin de trouver un second souffle.
Trois problématiques fréquentes à explorer pour faire décoller la valeur délivrée
1/ Des équipes mal découpées, générant trop de dépendances et de coordination.
À quoi ressemble votre “program board” après un PI Planning ? Si c’est un enchevêtrement de fils rouges, c’est que vous affrontez un excès de dépendances. Les gérer avec des armées de chefs de projet ou des réunions de coordination est inefficace. Il faut traiter le problème à la racine. Dans la suite je distingue trois types de dépendances et propose les pistes d’améliorations. Cet article n’a pas vocation à rentrer en profondeur. D’autres articles suivront.
Dépendances “passage de relai” :
Passer d'une étape à une autre (spécifications → dev → tests → déploiement) en changeant d’équipe crée des pertes d’info, des délais et du rework. Il serait donc judicieux de construire des équipes qui couvrent la totalité de la chaîne de valeur de développement : de la définition à la production. Si cet exercice vous amène à des équipes trop grosses privilégiez plutôt un découpage fonctionnel plutôt que technique.
Dépendances techniques :
Une feature qui implique une équipe front, une équipe back et une équipe data génère aux moins deux dépendances. Dans ce genre de situations considérez une organisation autour de domaines et sous-domaines fonctionnels. C’est une équipe qui gère sa partie du front, back (micro-services) et dans certains cas leurs Data. Exemple :
- Facturation (Domaine)
- Calcul de prix / tarification (sous-domaine) : gestion des règles de tarification, remises, taxes
- Génération de facture (sous-domaine) : transformation d’événements métier ou de consommation en documents facturables
- Suivi des paiements (sous-domaine): appariement paiements/règlements
- Relances et impayés (sous-domaine): règles de recouvrement, scoring
- Calcul de prix / tarification (sous-domaine) : gestion des règles de tarification, remises, taxes
- Reporting (Domaine)
- Statistiques financières (sous-domaine) : CA, marges, DSO, etc.
- Reporting réglementaire (sous-domaine) : fiscalité, compliance (par ex. SOX, RGPD)
- Export comptable (sous-domaine) : exports vers ERP ou systèmes comptables
- Analytique client (sous-domaine) : segmentation, comportement, churn
- Statistiques financières (sous-domaine) : CA, marges, DSO, etc.
Ces notions sont issues du DDD avec son atelier phare l’Event Storming. Je vous recommande vivement de faire un petit tour par là.
Dépendances à l’infrastructure :
Trop souvent, les équipes plateforme sont perçues comme des “centres de support” ou des “gardiens de l’accès aux environnements”, ce qui crée des goulots d’étranglement et ralentit le flux de valeur. Pour sortir de cette logique, il faut repenser le rôle de l’équipe plateforme : elle ne doit plus simplement “répondre à des tickets”, mais concevoir, faire évoluer et maintenir un ensemble de services d’infrastructure pensés comme des produits.
Concrètement, cela signifie que l’équipe plateforme identifie ses utilisateurs internes (les équipes produit), comprend leurs besoins, priorise ses développements en fonction de l’impact, et mesure la qualité de l’expérience fournie (via l’adoption, le NPS interne, etc.). Les services proposés (CI/CD, gestion des secrets, observabilité, gestion des environnements, stockage, authentification, etc.) doivent être exposés via des interfaces self-service, bien documentées, standardisées, testables et intégrables facilement dans les pipelines de delivery des équipes produit.
Ce découplage entre équipes plateforme et stream-aligned est fondamental pour fluidifier les interactions. Il ne s’agit pas de supprimer les échanges, mais de les rendre asynchrones, contractuels et scalables. Les équipes produit consomment l’infrastructure comme un service, à la demande, sans dépendre d’une intervention manuelle continue.
2/ Lead Time (ou Time to market) élevé entre l’idée et la production
L'efficience opérationnelle est un des sujets clés des organisations. Trop souvent, la mise en place des frameworks vous permet certes d’observer et mesurer, n’est pas suffisante pour améliorer votre Time to market. Ce Time to market peut être dû à plusieurs causes et pour chaque cause un ensemble de solutions à envisager :
Un déséquilibre entre les débits des différentes étapes de votre flux de valeur
Imaginons que vous êtes capables d’analyser 30 Features par PI, que vos équipes de développements peuvent en implémenter 20 par PI et que vous en mettez en production 15 que va-t-il se passer ?
Chaque PI, 10 features analysées mais non développées vont s'accumuler dans le système et au bout de 3 PIs, tu as déjà 30 features en attente de développement.
5 features développées mais non mises en production s’accumulent par PI. Ces features en attente de déploiement peuvent devenir obsolètes, générer de la dette, ou créer de la confusion (Qu'est-ce qui est vraiment "fait" ?).
Et surtout vous allez être en situation de surcharge et de frustration. On voit s’accumuler les Features aux portes du PI et les features que nous implémentons ne voient pas le jour : seulement 50% des features développées sont réellement mises à disposition des utilisateurs.
Bon c’est connu (ou pas), le débit d’un système est égal au débit du noeud le plus lent et si nous cherchons une optimisation globale de ce système c’est à ce noeud qu’il faut se pencher (la capacité de MEP dans ce cas précis). Dans ce genre de situation plusieurs pistes s’offrent à vous :
- Adoptez une démarche de pilotage du flux de droite à gauche, en lisant votre système comme un Kanban, depuis ce qui est proche de la mise en production vers ce qui est encore à démarrer. Posez-vous systématiquement la question : “Que pouvons-nous terminer ? Comment nous organiser pour y arriver ?”. Cette approche favorise un flux tiré, aide à réduire le travail en cours, à fluidifier les livraisons, et à concentrer les efforts sur la valeur réellement délivrée, plutôt que sur la quantité d’éléments commencés.
- Équilibrer les débits de chacune des étapes du flux. Si vous ne pouvez mettre en Prod que 15 Features vous n’en analyserez que 15 et en développerez que 15. Ça permet à minima de ne pas empirer la situation.
- Être toujours à l'affût du nœud le plus lent de votre système et chercher à l’optimiser. Ceci passe par une remise en cause (parfois profonde) de vos manières de faire, de votre comitologie et de vos outillages (Automatisation).
Gros Batchs
Autre cause fréquente : des Features trop grosses pour tenir dans un PI. Souvent lié à un manque de maîtrise des techniques de découpage, cela peut aussi être culturel : “Il faut en faire beaucoup pour briller”, “on doit tout faire de toute façon, pourquoi découper ?” ou encore “profitons-en pour rajouter ça”.
Sortir de ces réflexes nécessite un vrai travail collectif. Et pour cela, il est utile de rappeler pourquoi nous cherchons à découper petit :
- Accélérer les boucles de feedback techniques et produit, pour ajuster rapidement. Plus le cycle est court, plus les ajustements sont simples.
- Fournir plus tôt des fonctionnalités digestes : les gros batchs complexifient le produit et nuisent parfois à son adoption.
- Mieux maîtriser ce qu’on livre, notamment en termes de qualité et de stabilité. Un petit périmètre est plus facilement testable et plus fiable.
Trop de rework :
Une autre cause fréquente d’un Time to Market trop élevé est ce que l’on appelle le rework, autrement dit le travail à refaire. Cela peut se manifester à différents moments du cycle de développement : en phase d’analyse, pendant le développement, lors des tests, ou encore au moment du déploiement. Dans tous les cas, c’est un signal clair que quelque chose ne tourne pas rond dans votre système de delivery.
Mais comment détecter ce phénomène ? Il existe plusieurs indicateurs révélateurs :
- Des Features qui font marche arrière dans votre Kanban, passant d’une étape "en test" ou "en revue" à "à retravailler".
- Des éléments qui stagnent, restent longtemps bloqués dans une colonne, sans signe clair d’avancement.
- Des retours fréquents du type “ce n’est pas ce que j’attendais”, “ce n’est pas prêt pour test”, “le code n’est pas conforme”, etc.
Ce rework est coûteux à plusieurs niveaux, alors comment limiter, voire éliminer, ce gaspillage :
1. Définissez vos standards de qualité
La première chose à faire pour réduire le rework, c’est de se pencher sur vos standards de qualité. Trop souvent, ces standards sont absents, flous, ou simplement ignorés. Dans l’esprit du Lean, un standard n’est rien d’autre que la meilleure manière connue, à ce jour, pour réaliser une activité donnée. Et c’est ce point de départ commun qui permet de réduire les aléas et d’améliorer progressivement la qualité du flux.
Prenons un exemple concret : une Feature. Que signifie “prête à être développée” ? Que signifie “terminée” ? Si la réponse varie d’une personne à l’autre, les malentendus sont inévitables. D’où l’importance de formaliser une Définition of Ready claire, partagée, adaptée à votre contexte. Et, de la même manière, une Définition of Done robuste, qui englobe à la fois les aspects techniques (code relu, testé, intégré) et les aspects métiers (démo validée, documentation à jour, etc.).
Mais ce travail ne doit pas s’arrêter là. Il est tout à fait pertinent de définir des standards sur d’autres étapes du cycle : comment une Feature est analysée, avec quel niveau de détail et quels artefacts ; comment le code est intégré, avec quelles règles de branchement, de couverture ou de nommage ; ou encore comment une mise en production est préparée, validée et sécurisée.
L’objectif, ici, n’est pas de figer. C’est de réduire les zones de flou, car ce sont précisément dans ces zones que le rework prolifère. Plus les attentes sont claires et comprises, moins il y a de place pour l’ambiguïté, et plus les équipes peuvent se concentrer sur ce qui compte vraiment : livrer de la valeur, avec confiance et sérénité.
2. Refuser la non-qualité dès l’entrée
Ensuite, chaque acteur de la chaîne de valeur doit être en capacité – et légitimité – de refuser un travail non conforme aux standards. Cette posture est exigeante, mais elle est essentielle pour préserver la qualité globale du système.
C’est ce qu’on appelle dans le Lean le principe du “Shit in, shit out”. Si l’entrée d’un processus est de mauvaise qualité, il est illusoire d’espérer en faire sortir un produit fiable et satisfaisant. À l’inverse, en filtrant en amont les éléments mal préparés, on évite d’enclencher une chaîne de production qui tournera à vide.
Exemples concrets :
- Un développeur peut refuser de commencer une Feature tant que les critères d’acceptation ne sont pas définis.
- Un PO peut refuser de valider une Story tant que le test de validation n’est pas automatisé.
- Un testeur peut refuser de tester une fonctionnalité si les données de test ne sont pas prêtes ou si l’environnement est instable.
Cette culture du refus constructif n’a rien de bloquant. Au contraire, elle est au service du flux : elle évite de gaspiller de l’énergie à produire du rework et favorise une livraison plus fluide et plus prévisible.
3/ Des projets à impact faible sur votre business
Lors d’une conversation avec un Head of Product, celui-ci m’a partagé une frustration bien trop courante : un projet qui a mobilisé des équipes pendant deux ans… pour à peine dix contrats vendus, alors que l’objectif initial était d’en signer cent. Un ratio d’effort / résultat clairement déséquilibré.
Et ce genre d’histoire, on l’entend souvent. La vraie question devient alors : comment valider nos hypothèses de valeur plus rapidement ? Ou dit autrement : comment échouer plus vite, et à moindre coût ?
Soignez l’analyse de vos Epics (ou projets)
Dans SAFe, chaque Epic mérite une analyse sérieuse avant d’entrer dans le flux de mise en œuvre. Le framework propose pour cela deux outils très utiles : l’Epic Hypothesis Statement et le Canvas associé. Sur le papier, c’est structurant, pertinent et cadrant. Mais dans les faits, cette étape est trop souvent expédiée. Les cases sont remplies machinalement, parfois lors d’un atelier de cadrage express, et le fond de l’analyse passe à la trappe.
Or, c’est précisément ici que tout se joue.
Analyser un Epic, ce n’est pas juste un exercice de style. C’est prendre le temps de comprendre en profondeur le contexte dans lequel ce projet va évoluer. Cela implique de se poser les vraies questions : À quoi ressemble l’environnement concurrentiel, y compris en interne ? Quels sont les comportements, frustrations, besoins et usages réels des utilisateurs visés ? Quelle est la maturité du marché ? Quelles contraintes — réglementaires, techniques, opérationnelles — pourraient freiner le déploiement ?
Et pour répondre à ces questions, Il faut aller au contact. Faire du terrain. S’immerger dans les usages. Rencontrer les utilisateurs. Les écouter. Les observer dans leur environnement. Reformuler leurs problèmes avec leurs mots, pas avec ceux du comité de pilotage.
C’est là que les approches comme le Design Thinking prennent tout leur sens. Elles permettent d’ouvrir le champ des possibles tout en s’ancrant dans le réel. Un Epic bien analysé, c’est déjà un risque réduit, des hypothèses explicites, une meilleure priorisation, et surtout… un projet qui a une chance d’être utile.
Définissez un vrai MVP et planifiez son déploiement
Une confusion que l’on retrouve encore trop souvent, c’est celle qui consiste à croire qu’un MVP serait simplement le premier “lot” d’un projet découpé en tranches. Une sorte de version 1, un peu allégée, qui amorce le reste. Mais en réalité, le Minimum Viable Product n’a rien à voir avec un simple découpage technique ou chronologique. C’est un produit volontairement incomplet, conçu non pas pour livrer quelque chose, mais pour apprendre quelque chose.
Son but est clair : tester au plus vite les hypothèses critiques qui sous-tendent votre projet. Est-ce que cette proposition de valeur intéresse réellement vos utilisateurs ? Est-ce qu’ils l’utilisent comme vous l’aviez imaginé ? Est-ce que le problème que vous pensiez résoudre est bien réel — et prioritaire — pour eux ?
Un bon MVP s’adresse à un segment d’utilisateurs bien identifié, et leur propose une solution suffisamment concrète pour obtenir un retour réel. Et surtout, il doit pouvoir être livré rapidement. Pas dans six mois. Pas dans un an. Rapidement.
définir un MVP ne se résume pas à choisir un périmètre fonctionnel réduit. Il s’agit aussi de réfléchir à la manière dont ce produit sera déployé, à qui il sera destiné, et surtout de définir en amont les critères qui permettront d’évaluer sa pertinence : quels résultats espérez-vous ? Quels comportements, quels retours, quels usages viendront confirmer — ou invalider — vos hypothèses ?
Cette réflexion amont est indispensable. Elle permet non seulement de cadrer l’expérimentation, mais aussi d’en tirer des enseignements concrets. Et si le MVP ne donne pas les résultats escomptés ? Tant mieux. Vous venez d’échouer vite, à moindre coût — et vous avez appris quelque chose d’essentiel.
L’éléphant dans la pièce : le sponsorship
Les actions proposées dans cet article sont généralement bien comprises et techniquement réalisables. Pourtant, dans la réalité des organisations, le principal frein n’est pas la complexité technique mais le manque de temps, d’attention et d’engagement pour les mettre en œuvre. C’est là qu’intervient le rôle clé du sponsorship.
Sans un sponsorship fort, actif et visible, toute démarche de transformation, même bien pensée, risque de s’essouffler. Les équipes peuvent vite se retrouver seules, en mode “guérilla”, à porter le changement à bout de bras, sans relais ni appui.
Qu’est-ce qu’un sponsorship fort ?
1/ Des leaders embarqués et convaincus
Un bon sponsor ne se contente pas d’un “oui” en comité. Il comprend les enjeux, y voit un levier pour répondre à ses priorités (performance, engagement, innovation…) et soutient la démarche dans la durée. Pour cela, il est essentiel de l’embarquer dès le début, en l'exposant aux irritants terrain, en partageant des cas concrets, et en lui montrant des résultats via des expérimentations locales réussies.
2/ Des prises de parole claires et régulières
Les collaborateurs doivent entendre et ressentir que “ce changement est porté au plus haut niveau”. Cela passe par des messages forts lors des all-hands, des newsletters, des cérémonies internes, etc. Le sponsor valorise les efforts, soutient les équipes qui tentent, même imparfaitement, et incarne dans ses décisions les valeurs de la transformation.
3/ Un soutien opérationnel concret
Au-delà des discours, un sponsor fort agit. Il débloque les budgets et le temps, lève les freins organisationnels, soutient les porteurs de changement, et crée un climat de sécurité psychologique pour expérimenter, apprendre, ajuster. Il devient un véritable facilitateur de terrain.
Sans ce niveau de sponsoring, les résultats seront limités et les succès ponctuels risquent de ne pas durer. À l’inverse, un sponsoring fort est un accélérateur et un stabilisateur du changement : il aligne, il motive, il rassure, et il montre que la transformation n’est pas un “side project”, mais une priorité stratégique.
Conclusion
Vous l’aurez compris : au-delà de la mise en place initiale, SAFe devient un terrain d’exploration. On quitte les chemins balisés des formations et des rituels pour entrer dans quelque chose de plus vivant, plus systémique, parfois plus inconfortable aussi. C’est là que la transformation prend (ou perd) tout son sens.
Ces sujets — dépendances, time to market, impact business, sponsorship — sont autant d’opportunités d’évoluer vers un fonctionnement plus fluide, plus aligné, plus porteur de valeur. Mais ils ne se résolvent pas avec des outils ou des checklists. Ils demandent du dialogue, de l’analyse, des choix parfois profonds, souvent courageux. Et surtout, ils ne se traitent pas seuls.
Si certaines idées de cet article ont fait écho à ce que vous vivez dans votre organisation, alors peut-être est-ce le bon moment pour en parler. Pas pour ajouter un framework de plus, mais pour construire ensemble la suite la plus utile et la plus juste pour votre contexte.