L'IA ou le syndrome de l'Imposteur Augmenté

l’IA, miroir grossissant de nos doutes

Les outils d’IA générative, et plus récemment les agents autonomes capables d’inférer, de coder ou de décider à notre place, transforment en profondeur notre rapport au travail et à l’expertise. Leur capacité à simuler une intelligence, une créativité, voire une intentionnalité, pose une question vertigineuse : et si ces technologies, conçues pour nous assister, finissaient par nous convaincre que nous sommes nous-mêmes des imposteurs ?

Depuis les premiers chatbots des années 1960 jusqu’aux agents autonomes d’aujourd’hui, capables de gérer des projets entiers ou de diagnostiquer des pannes complexes, l’IA a toujours oscillé entre promesse d’émancipation et menace de déshumanisation. Pourtant, avec les modèles récents des leaders du marché (Anthropic, Mistral, OpenAI, Perplexity), c’est notre rapport à la compétence elle-même qui est bouleversé. Ces outils ne se contentent plus d’automatiser des tâches répétitives : ils simulent des processus cognitifs, brouillant la frontière entre ce qui relève de l’humain et ce qui émane de la machine.

Mettons nous à la place de Laura, développeuse depuis cinq ans. Elle utilise quotidiennement un agent IA pour générer des bouts de code, optimiser des algorithmes, voire rédiger de la documentation. Un jour, son manager lui demande d’expliquer une fonctionnalité complexe qu’elle a "écrite" avec l’aide de l’IA.

Laura se fige. "Suis-je vraiment l’auteure de ce code ?"

Le doute s’installe.

Ce scénario, de plus en plus courant, illustre un phénomène inquiétant : l’IA, en simulant l’expertise, exacerbe notre peur de ne pas être à la hauteur.

Entre la tentation de déléguer notre pensée critique à des algorithmes et la crainte de devenir obsolètes, le syndrome de l’imposteur, ce sentiment persistant de ne pas mériter sa place malgré des preuves contraires, prend une nouvelle dimension.

Selon une étude de l’Université de Stanford (2025), 58 % des professionnels utilisant des outils d’IA générative déclarent ressentir une augmentation de leur anxiété liée à la performance, contre 35 % il y a cinq ans.

En France, une enquête OpinionWay de 2026 révèle que 47 % des moins de 35 ans présentent comme leurs des contenus largement produits par des agents virtuels, et 41 % ressentent une gêne à être félicités pour un travail qu’ils n’ont pas entièrement réalisé.

Dans cet article, nous explorerons pourquoi ces technologies, aussi puissantes soient-elles, risquent d’aggraver nos insécurités, mais aussi comment elles pourraient, paradoxalement, nous aider à les surmonter en redéfinissant ce que signifie "être compétent.e" à l’ère de l’intelligence artificielle.

L’IA générative : une imposture par design ?

La mécanique de l’illusion

Les modèles d’IA générative fonctionnent sur un principe simple : prédire la suite la plus probable d’une séquence de données. Que ce soit pour générer du texte, du code ou des images, ces systèmes s’appuient sur des architectures statistiques complexes (comme le transformeur) pour reproduire des patterns appris à partir de milliards d’exemples. Pourtant, ils ne comprennent pas, au sens humain du terme.

Prenons un exemple concret : une IA générant un rapport technique sur la cybersécurité assemble des phrases cohérentes, cite des concepts pertinents et structure le document comme le ferait un expert. Mais elle ignore ce qu’est un "firewall" au-delà de sa représentation textuelle. Son "expertise" est une illusion, une mimétique statistique.

Au final, sa performance repose sur une simulation de compétence, si convaincante qu’elle peut éclipser la valeur du raisonnement humain, imparfait mais intentionnel.

L’IA générative, imposteur systémique ?

En 2023, une entreprise a déployé un agent IA pour automatiser la rédaction de rapports financiers. Résultat : des erreurs de cohérence sont passées inaperçues pendant des mois, car les employés faisaient aveuglément confiance à l’outil. Le syndrome de l’imposteur s’est généralisé : "Si l’IA se trompe, comment puis-je faire mieux ?"

Quelques données clés :

  • 70 % des cadres utilisant des outils d’IA avouent craindre d’être jugés sur leur capacité à utiliser l’IA plutôt que sur leurs compétences intrinsèques. (Enquête McKinsey 2025)
  • 63 % des développeurs utilisant GitHub Copilot déclarent ressentir une pression accrue pour produire plus, plus vite (Stack Overflow, 2024).
  • 42 % doutent de leur expertise après avoir vu l’IA résoudre des problèmes complexes (MIT Technology Review, 2025).

Au sein d'OCTO, une étude a été menée auprès de quelques Octos, en mode "User research", auprès de profils variés. Je vous encourage à lire l'article de Nils qui détaille les résultats, et j’en reprends ici quelques verbatims :

  • “J’ai peur de devenir con, j’ai peur de déléguer à la machine une réflexion que je pourrais savoir faire”
  • “Ça peut nous rendre dépendant, ça peut nous rendre bête. La dépendance à l’IA, c’est un gros red flag.”
  • “Tout le monde peut faire du faux, c’est dangereux d’un point de vue sociétal.”

La véritable question qui se pose est la suivante : "Si une IA peut simuler une expertise, celle-ci a-t-elle encore une valeur intrinsèque ? Ou devient-elle un simple théâtre d’ombres, où l’on juge l’acteur sur sa capacité à manipuler les marionnettes plutôt que sur sa maîtrise réelle ?"

L’aggravation du syndrome de l’imposteur : quand l’outil éclipse l’humain

La compétence dévaluée par la délégation

Le syndrome de l’imposteur naît souvent d’un décalage entre la perception de ses propres compétences et les attentes extérieures.

Avec l’IA, ce décalage se creuse :

  • Effet miroir : Plus l’outil simule bien une tâche (rédaction, analyse, codage), plus l’utilisateur doute de sa légitimité à la réaliser sans l’outil.
  • Nouveau critère d’évaluation : On ne juge plus seulement ce que vous savez faire, mais comment vous savez utiliser ce qui le fait à votre place.
    • Pour un développeur : "Suis-je un bon développeur, ou simplement doué pour prompter ?"
    • Pour un consultant : "Mon analyse est-elle pertinente, ou juste une reformulation habile de ce que l’IA m’a suggéré ?"

Et c'est tout le paradoxe de ces nouveaux outils : l’IA, censée démocratiser l’expertise, crée une nouvelle élite, celle qui maîtrise l’art de faire croire qu’elle maîtrise. Après les Bullshit Jobs, va-t-on parler de Bullshit Skills ?

Gardons ces chiffres en tête :

  • 26 % des salariés français (et 47 % des moins de 35 ans) admettent présenter comme leurs des contenus largement produits par des agents virtuels.
  • 23 % des salariés ne savent plus si une idée vient vraiment d’eux ou de l’IA, brouillant la frontière entre leur propre créativité et celle de l’outil.
  • 22 % des répondants ont déjà ressenti une forme de gêne ou de honte à être félicités pour un travail réalisé par la machine, un chiffre qui double presque chez les jeunes (41 %).

Et la fracture générationnelle va au delà de l'utilisation, elle concerne aussi le cadre de travail :

  • 45 % des jeunes actifs estiment qu’ils seraient "beaucoup moins efficaces sans l’IA", contre seulement 24 % de l’ensemble des salariés.
  • 56 % des employés estiment que leur entreprise les laisse "se débrouiller seuls" avec l’IA, sans règles claires, ce qui aggrave le sentiment d’imposture.

La pression de la performance algorithmique

C'est probablement la promesse de l'IA la plus mise en avant : les gains de productivité. Et si tout le monde n'est pas d'accord sur la valeur de ce gain (10%, 50%, 100% ?), le résultat est bien là : on produit plus, plus de lignes de code, plus de lignes de texte, plus de slides powerpoint, ...


Et cette pression du toujours plus provoque une "course à l'augmentation" : celui qui ne s’appuie pas sur l’IA est perçu comme moins productif, moins "efficace".

Mais on ne se pose pas la seule bonne question : pourquoi faire ? En effet, cette productivité est-elle synonyme de valeur ajoutée ?

Pour celles ou ceux qui sont familier de ces outils, de leur fabrication (de leur entraînement), savent bien que leurs réponses sont lisses, "moyennes" et souvent proches d'un modèle à un autre.


Sans pour autant évoquer la notion d'AI Slop, les réponses produites sont souvent homogènes et fades, au détriment de la singularité d’une production humaine.

La banalisation de l’imposture, quand n’importe qui peut "donner le change"

Les agents IA abaissent le seuil d’entrée pour produire des artefacts apparentés à de l’expertise :

  • Un junior peut générer du code complexe sans en comprendre les fondements,
  • Un consultant peut proposer des recommandations sans comprendre le contexte et les résultats d'un audit,
  • Un manager peut produire des stratégies claires sans maîtrise réelle du sujet.

Résultat, la frontière entre savoir-faire et savoir-faire semblant s’estompe : "Fake it until you make it" est devenu "Fake it, AI will make it"

Et cette forme d'imposture commence dès le recrutement, comme l'a mesuré une étude Capterra : 57 % des demandeurs d’emploi français interrogés ont utilisé au moins une fois l'IA pour postuler à une offre.

Le pire, c'est que ça marche : 85 % des candidats utilisant fréquemment l’IA ont reçu une à plusieurs réponses positives, contre 54 % de ceux qui n’utilisent pas cette technologie et ne souhaitent pas l’utiliser à l’avenir.

Même les entretiens ne sont pas épargnés : si l’amélioration des CV (35 %) et des lettres de motivation (32 %) sont les raisons d’usage principales de l’IA, cette technologie est également employée pour générer des réponses aux questions d'entretien (27 %) et réaliser des évaluations ou tests de compétences (24 %).

Cette banalisation de l'imposture, ajoutée à la pression d'une course à la productivité, ne risque-t-elle pas d'aggraver les risques psycho-sociaux en entreprise ?

En tous cas, les premiers symptômes commencent à apparaître :

  • 30 % des utilisateurs d’IA générative craignent que leur poste disparaisse à cause de l’IA.
  • Climat de discrétion : certains préfèrent cacher leur usage de l’IA, de peur que leur mérite soit remis en question.
  • Sentiment d’infériorité : face à des collègues qui "semblent" plus compétents parce qu’ils maîtrisent mieux les outils, certains se sentent dépassés ou illégitimes.
  • Les cadres supérieurs et les jeunes consultants sont les plus touchés par le doute sur leur légitimité.

Chez OCTO, des premiers signaux faibles commencent aussi à poindre :

  • “Clairement, ça isole [ndlr. des autres].”
  • “On passe notre temps à relire du code généré, à corriger. C’est intense.”
  • “Je trouve difficile d’avoir un avis assertif sur les outils : il y en a beaucoup. Et tous les mois, il y a une nouvelle génération.”
  • “J’ai peur qu’une machine fasse mon travail à ma place.”
  • “La limite c’est que je n’étais pas capable de tout vérifier.”

Vers une post-vérité des compétences ?

Dans La Crise de la culture (1961), Hannah Arendt alertait sur les dangers de la post-vérité :

"Si tout le monde vous ment en permanence, la conséquence n’est pas que vous croyez les mensonges, mais plutôt que personne ne croit plus rien."

Transposé à l’ère de l’IA générative, cela pourrait devenir :

"Si tout le monde simule en permanence (via des outils qui simulent la pensée), la conséquence n’est pas que l’on croit aux simulations, mais que l’on cesse de croire en l’authenticité elle-même."

Avec pour conséquence une défiance généralisée envers les compétences, y compris les siennes :

"Et si mon succès n’était qu’un artefact de mes prompts ?"

Conclusion, et quelques pistes

Les outils d’IA générative ne sont ni des imposteurs ni des sauveurs. Ils sont des miroirs et des accélérateurs :

  • Ils reflètent nos peurs (celle de ne pas être assez compétent, de se tromper).
  • Ils amplifient nos travers (la tentation de la facilité, la fuite devant l’effort de compréhension).

L’IA générative ne vous transforme pas en un imposteur, elle révèle une imposture bien plus ancienne : celle d’une société qui confond performance et valeur, résultat et intention.


À nous de choisir : devenir les marionnettes de nos outils, ou les artisans d’un usage qui nous grandit.

Comment faire ?

1 - Être transparent sur l'utilisation de l'IA

Préciser quand on fait appel à l'IA, que ce soit pour du code, du texte ou du contenu multimédia

Préciser comment on y a fait appel : documenter les outils utilisés, les prompts, les contextes.

Expliquer ces choix : l'humain avait-il une valeur ajoutée ? Quelle aurait été l'alternative ?

Créer des espaces de partage d’usages et de bonnes pratiques pour dédramatiser l’utilisation de l’IA.

2 - Valoriser le processus

Dans un monde de réponses standardisées, la manière dont on arrive à une solution (avec ou sans IA) redevient cruciale.

Définir les "chemins de pensée", les méthodes, plutôt que les résultats bruts.

3 - Réhabiliter l'échec

Une IA ne doute pas. Un humain, si. C’est dans ces doutes, ces tâtonnements, que réside la vraie expertise.

4 - Rester humain

Essayer de poser la question à son voisin d'open space plutôt qu’à ChatGPT !

5 - Bonus post-scriptum

Quelques semaines après avoir écrit ce texte, on m’a pointé cet excellent article d’un développeur qui se pose d’autres interrogations sur son métier, et dont les réponses rejoignent et complètent les miennes.

Et vous, avez-vous déjà ressenti que l’IA exacerbait votre syndrome de l’imposteur ? Ou au contraire, vous a-t-elle aidé à mieux cerner vos forces ?

Références :

  • Arendt, H. (1961). La Crise de la culture. Gallimard.
  • Enquête OpinionWay/Factorial (2026) sur l’IA et le syndrome de l’imposteur.
  • Étude Ivanti (2025) sur l’IA générative au travail.
  • Enquête IPSOS/Jedha (2025) sur les professionnels français et l’IA.
  • Rapport McKinsey (2025) sur la transformation des compétences.
  • Étude OpinionWay/Elles bougent (2024) sur les femmes et le syndrome de l’imposteur.
  • Enquête Captera (2024) sur la recherche d'emploi et l'IA