Cursor (en version payante) ou Cline, un plugin pour VS Code permettant de choisir le LLM à interroger (y compris des LLM privés). Ces solutions se démarquent notamment du plus mainstream GitHub Copilot. Attention cependant aux coûts de licence et d’utilisation !
Notons que l’automatisation de certaines tâches à l’aide de l’IA passe par du code dédié : il ne faut pas hésiter à développer ses propres outils, dédiés à la tâche qu’on veut réaliser.
Enfin, rappelons que la qualité du prompt est fondamentale, et qu’il faut consacrer du temps à l’améliorer jusqu’à obtenir un résultat satisfaisant.
Quand on parle de LLM dans le cadre du développement logiciel, il est évident de donner du contexte au LLM à partir de la base de code.
L’expérience montre qu’il ne faut pas négliger les autres sources de données de l’entreprise, qui sont aussi à même de nourrir le modèle avec de l’information pertinente : documents Word ou PowerPoint, PDF ou autres vidéos.
Des solutions existent déjà pour transmettre ces différents formats à un LLM : markitdown pour les documents Office, MuPDF pour les PDF, Whisper pour transcrire des contenus audio et vidéo…
Les premiers résultats obtenus grâce à l’IA sont parfois spectaculaires, mais attention à ne pas prendre la confiance !
Il faut toujours s’assurer que le résultat est conforme à l’attendu, et itérer dessus jusqu’à être pleinement satisfait. A vous de rester maître de l’IA, de l’emmener là où vous voulez aller et non l’inverse.
Piloter l’IA est donc un vrai travail d’ingénierie, qui requiert de la séniorité.
Contrairement aux outils historiques de transformation de code automatique, les LLM ont la capacité de produire du code de qualité, testé et maintenable dans la durée. Mais encore faut-il l’orienter dans ce sens !
Un prompt très simple (“génère une fonction qui calcule la TVA”) donnera un résultat non seulement basique, mais aussi très aléatoire, car le LLM peut répondre à la question de multiples façons.
A l’inverse, il est possible d’obtenir un résultat beaucoup plus déterministe, et respectant la qualité de code attendue, avec un prompt plus complet : préciser l’intention de la fonction, les cas de test, lui fournir de la documentation sur les standards de code, des exemples de code, etc.
Encore une fois, cet exercice requiert de la séniorité dans le domaine du développement, car il faut avoir une bonne vision du résultat désiré et rester critique de ce que l’IA propose.
Il ne faut pas hésiter à s’inspirer des nombreux exemples de prompts partagés ici ou là, par exemple x1xhlol / system-prompts-and-models-of-ai-tools.
Pour nous, la conclusion est nette : sur ces cas d’usages, l’IA fonctionne et on ne veut pas revenir en arrière.
Alors, voici quelques conseils pour vous lancer à votre tour :