Anthropic, à la suite d’un article fondateur (Building Effective Agents), introduit la notion de système agentiques, dans lequel il est important de distinguer deux notions architecturales importantes : Les workflows et les agents.
Fig 1 : du LLM aux agents IA
Dans la suite de cet article, nous conserverons ces distinctions qui semblent gagner en popularité au sein de la communauté IA. Nous détaillons les différentes étapes qui nous amènent à introduire de plus en plus d’agentivité dans nos processus (fig 1).
Fig 2 : LLM augmenté
Ces dernières années nous avons commencé à “connecter” les LLMs à du contenu et des outils externes. Nous avons notamment vu l’essor des applications RAG (Retrieval Augmented Generation) consistant à augmenter les LLMs par de la donnée externe. Pour plus de détails : cette vidéo ou cet article : Maîtriser le RAG.
Le lien entre d’un côté le LLM et de l’autre un environnement composé d’outils (API principalement) et bases de données, constitue ce que nous appelons l’augmentation d’un LLM. C’est la brique essentielle dans un système agentique.
L’utilisation grandissante d’outils pour augmenter les LLMs a amené à un problème évident : les applications créées deviennent plus complexes et surtout dépendent d’outils externes. En effet, la méthodologie principalement utilisée jusqu’à présent était le “function calling” : on ajoute dans le prompt system une information qui explique comment faire appel aux outils avec les différentes fonctions. Le “prompt system” fait partie intégrante de notre application LLM, si une fonction d’un outil évolue, il faudra également mettre à jour notre “prompt system” et donc notre application… Afin de limiter cette dépendance forte (entre notre application IA et les outils), un standard émerge : MCP ( Model Context Protocol), créé par Anthropic.
Fig 3 : MCP le protocole pour standardiser le lien entre un LLM et son environnement.
De nombreux articles expliquent très bien le fonctionnement de MCP : exemple d'article sur le blog Octo. La principale force de MCP est de découpler l’exposition d’outils du fonctionnement de notre LLM. Des équipes peuvent en toute autonomie créer un MCP server (fig 4) qui exposera du contenu ou des services en toute autonomie avec son cycle de vie. Cette standardisation ouvre la voie à la naissance d’un écosystème de contenu et de service dont l’objectif principal est d’être lisible pour un LLM.
Fig 4 : Construire des serveurs MCP pour rendre du contenu ou des services visibles par des LLMs
Dans un système agentique, nous parlons de workflows lorsque les LLMs et les outils sont orchestrés selon des parcours définis et contrôlés. Une orchestration souvent matérialisée par des nœuds et des liens (fig 5). Par exemple, si nous voulons automatiser l’analyse de nos factures, nous pouvons utiliser un LLM ( voire un modèle de vision) pour récupérer des informations depuis un document pdf. Nous ajoutons ensuite des traitements LLM (validation d’une note, accord d’un remboursement, etc) qui ne se déclencheront qu’en fonction d’informations précises. Nous pouvons également laisser une validation humaine dans le “workflow”, surtout si ce dernier reproduit un processus existant dont les erreurs ont des conséquences importantes.
Fig 5 : Prompt Chaining, un exemple d’agentic workflow
La construction de “workflow” étant assez libre, quelques types d’orchestration adaptés à l'utilisation de LLMs émergent :
FIg 6 : Quelques types d’agentic worflow
Fig 7: schéma d’un agent IA
Un agent IA est un système autonome, piloté par un modèle d’intelligence artificielle (souvent un LLM), capable de raisonner, planifier et interagir avec son environnement pour atteindre un objectif donné.
Cette définition que nous vous proposons, émerge notamment de l’analyse des définitions proposées par des grands acteurs de l’IA (Tableau 1). Ils font tous apparaître les points les plus importants lorsqu’on parle d’agents IA : Autonomie, modèle (souvent LLM), planification, interaction avec un environnement et l’atteinte d’un objectif donné.
Google : https://www.kaggle.com/whitepaper-agents | AI agent can be defined as an application that attempts to achieve a goal by observing the world and acting upon it using the tools that it has at its disposal. Agents are autonomous and can act independently of human intervention, especially when provided with proper goals or objectives they are meant to achieve. Agents can also be proactive in their approach to reaching their goals. Even in the absence of explicit instruction sets from a human, an agent can reason about what it should do next to achieve its ultimate goal |
---|---|
HuggingFace https://huggingface.co/learn/agents-course/unit1/what-are-agents | An Agent is a system that leverages an AI model to interact with its environment in order to achieve a user-defined objective. It combines reasoning, planning, and the execution of actions (often via external tools) to fulfill tasks. |
Anthropic : https://www.anthropic.com/engineering/building-effective-agents | Agents are systems where LLMs dynamically direct their own processes and tool usage, maintaining control over how they accomplish tasks. |
OpenAI https://cdn.openai.com/business-guides-and-resources/a-practical-guide-to-building-agents.pdf | Agents are systems that independently accomplish tasks on your behalf. |
AWS https://docs.aws.amazon.com/prescriptive-guidance/latest/agentic-ai-foundations/introduction.html | In a world of increasingly intelligent, distributed, and autonomous systems, the concept of an agent—an entity that can perceive its environment, reason about its state, and act with intent—has become foundational. Agents are not merely programs that execute instructions; they are goal-oriented, context-aware entities that make decisions on behalf of users, systems, or organizations. Their emergence reflects a shift in how you build and think about software: a shift from procedural logic and reactive automation to systems that operate with autonomy and purpose. |
Table 1 : Quelques définitions d’agents |
Il existe trois composants principaux d’un agent IA : Le modèle, l’orchestration et les outils (Tools).
Fig 8 : Les composants d’un agent IA
Nous détaillons plus en détail ces composants en vidéo : Le comptoir Octo -Agents IA
Comparativement aux “agentic workflow”, le grand potentiel des agents IA réside dans leur autonomie. Une autonomie encore très compliquée à contrôler : multiplication des hallucinations, difficulté à s’arrêter, coût exorbitant (appels importants et non maîtrisés à des LLM), etc... C’est pourquoi, il faut se poser la question de l'intérêt d’aller sur ce type d’architecture.
Fig 9 : Quand est ce que l’utilisation d’agents IA est envisageable ?
Un des succès les plus récents des agents IA porte sur le développement logiciel (Assistants de code voire Vibe Coding). C’est un contexte où l’utilisation d’agents IA est déjà rentable, ce que confirment les valorisations et revenus de certains acteurs comme Cursor. En effet :
De nombreuses solutions ont émergé pour faciliter la création d’un “agentic workflow” et d’agents IA. Elles ne s'adressent pas toujours au même public. On peut différencier des outils qui s’adressent principalement à des développeurs/AI engineer (Full code) de ceux qui promettent une démocratisation de l’IA via des outils No-Code s’adressant à un public très large d’utilisateurs (fig 10).
Liste non exhaustive : dust.tt, Microsoft Copilot, Zapier agents, Onyx.app, Flowise, Langflow, Vertex agents, Bedrock agents, n8n, dify, Mindflow, Dataiku, OpenAI agents, Pydantic-AI, Smolagents, Autogen, Google-adk, langgraph, CrewAI
Fig 10 : Liste d’outils pour déployer des agents IA
Les agents IA constituent un nouvel acteur dans le système d’information (SI), entraînant par la même occasion de nouveaux types d’intéractions à préparer .
Fig 11 : Interaction autours des agents IA.
Bien que pour beaucoup, la frontière peut paraître floue entre ce que Anthropic appelle des “agentic workflow” et les “agents IA”, nous conseillons de débuter avec les workflows, ce qui assure une certaine stabilité et maîtrise. En effet, il n’est pas encore possible pour des questions de “coût” et “performance” de rendre rentable de nombreux projets d’agents IA en 2025. Il faut cependant être conscient que les coûts se réduisent rapidement (prix d’un équivalent GPT4 divisé par 1000 en 1.5ans) et la performance unitaire des LLMs s’améliore considérablement (le niveau des tâches réalisées double tous les 7 mois )… Ce qui n’est pas rentable aujourd’hui le sera peut être dans quelques mois ou années.