IA générative : comprendre les systèmes pour rester acteur des usages
L’IA générative s’est installée en quelques mois dans nos environnements professionnels : rédaction assistée, synthèses automatiques, génération d’images ou de code. Cette diffusion rapide donne parfois l’impression d’une technologie radicalement nouvelle, presque magique, tant ses usages semblent simples et immédiats.
Mais derrière cette apparente facilité se pose une question centrale : comment utiliser l’IA générative sans perdre la maîtrise de nos décisions, de nos pratiques et de leurs impacts ? Par "maîtrise", nous entendons la capacité à exercer un contrôle réflexif sur trois dimensions : technique (comprendre ce que fait le système), décisionnelle (choisir consciemment ce qu'on lui délègue) et organisationnelle (définir collectivement les conditions d'usage). Autrement dit, comment éviter que ces outils deviennent des boîtes noires auxquelles nous déléguons, sans toujours en avoir conscience, des tâches de formulation, de jugement ou de priorisation ?
Cet article propose d’aborder l’IA générative non pas comme une simple innovation technique, mais comme un système sociotechnique, ancré dans des infrastructures matérielles, des formes de travail et des rapports de pouvoir. Il s’appuie sur des apports en anthropologie, sciences sociales et data science pour rendre visibles ce qui reste souvent hors champ : les coûts sociaux, écologiques et organisationnels de ces systèmes.
À partir de cette lecture, l’article défend une idée simple : comprendre est une condition pour décider. Développer une littératie en intelligence artificielle, c’est-à-dire une compréhension minimale de son fonctionnement, de ses limites et de ses effets, permet de rester acteur des usages. Le prompting, loin d’être une simple astuce de productivité, devient alors un levier concret pour reprendre la main sur ce que l’on délègue aux systèmes d’IA générative.
L’IA générative : un système sociotechnique, pas une intelligence autonome
On présente souvent l’intelligence artificielle comme l’ensemble des systèmes capables de réaliser des tâches que l’on associe habituellement à l’intelligence humaine, comme apprendre, raisonner ou prendre des décisions (Russell & Norvig, 2020). Cette définition est utile pour poser le cadre, mais elle donne une image un peu trompeuse : celle d’une technologie abstraite, presque autonome.
Or, les sciences sociales nous rappellent que les technologies ne sont jamais neutres. Bruno Latour (1992) explique que les objets techniques cristallisent toujours des choix humains, des priorités, des arbitrages et des valeurs. Une fois intégrés dans la technique, ces choix deviennent moins visibles : ils finissent par apparaître comme allant de soi, alors qu’ils pourraient être discutés ou remis en question.
L’IA générative s’inscrit pleinement dans cette logique. Comme le montre K.Crawford ( 2021), elle repose sur un assemblage de données, d’infrastructures matérielles (énergie, eau, data centers), de travail humain et d’organisations économiques. Mais cette matérialité ne commence pas avec les data centers : elle s'enracine dans l'extraction minière. La fabrication des serveurs, des GPU et des infrastructures réseau nécessite des ressources finies et inégalement réparties : lithium, cobalt, terres rares, cuivre. Ces matériaux sont extraits dans des contextes géographiques et sociaux souvent marqués par des asymétries de pouvoir, des conditions de travail dangereuses, et des impacts environnementaux considérables (Crawford, 2021 ; Pitron, 2018). L'IA générative s'inscrit ainsi dans des chaînes d'approvisionnement mondialisées, dont les coûts écologiques et humains sont largement externalisés vers les pays du Sud global. Elle est donc profondément matérielle et située.
À cette matérialité s’ajoute une dimension souvent invisibilisée : le travail humain qui rend ces systèmes possibles. L’entraînement et l’évaluation des modèles reposent sur une main-d’œuvre souvent précarisée, communément désignée comme les « travailleurs du clic », chargée de filtrer, modérer, classer et évaluer les données et les outputs. Si la phase de pré-entraînement des LLM s'appuie sur l'ingestion massive de corpus non annotés, les phases de fine-tuning, d'alignement (RLHF) et d'évaluation continue mobilisent un travail humain intensif et souvent invisibilisé. Plusieurs travaux montrent que ces activités s’inscrivent dans des chaînes de production mondialisées, fréquemment externalisées vers des contextes économiques marqués par de fortes asymétries de pouvoir et de protection sociale (Casilli, 2019 ; Anwar & Graham, 2020 ; Perrigo, 2023).
Ces dynamiques ne produisent pas uniquement de la précarisation, mais également de nouvelles formes d’emploi : métiers hybrides, fonctions d’évaluation de modèles, modération algorithmique, annotation spécialisée ou ingénierie de prompts. Plusieurs travaux ont montré que l’automatisation repose sur une expansion du travail humain plutôt que sur sa disparition (Gray & Suri, 2019).
Toutefois, ces formes de travail échappent largement aux cadres classiques du droit du travail, de la protection sociale et de la reconnaissance institutionnelle. Elles s’inscrivent dans des configurations transnationales, fragmentées et asymétriques, qui rendent leur régulation particulièrement complexe (International Labour Organization, 2021).
L’IA générative n’est donc ni autonome ni immatérielle : elle est soutenue par une chaîne mondiale de travail, d’infrastructures et d’organisations. Rendre cette chaîne visible est une condition centrale d’une approche responsable, car elle permet d’intégrer les coûts sociaux réels dans les décisions d’usage, plutôt que de les considérer comme des externalités invisibles.
Déléguer sans comprendre : limites cognitives, biais et naturalisation
Le problème central de l’IA générative n’est pas tant qu’elle produise des contenus sans comprendre, mais que nous lui déléguons de plus en plus de tâches de formulation, de synthèse et parfois de décision, sans toujours percevoir ce que cette délégation engage réellement. Tant que les systèmes restent perçus comme immatériels, rapides et “automatiques”, leurs effets sociaux, écologiques et politiques restent largement invisibles, et donc peu discutés.
Sur le plan technique, les modèles d’IA générative fonctionnent par prédiction statistique. Ils recombinent des formes apprises à partir de vastes corpus de données, sans compréhension du sens. Bender et Gebru (2021) ont qualifié ces systèmes de « perroquets stochastiques » : capables de produire du langage plausible, mais dépourvus d’intention, d’expérience vécue ou de compréhension sémantique. Cette limite se traduit concrètement par des hallucinations factuelles, des références inventées ou des raisonnements apparemment cohérents mais empiriquement fragiles. Les systèmes produisent de la vraisemblance, non du jugement.
Cette absence de compréhension devient critique dès lors que nous leur déléguons des fonctions humaines à grande échelle. Comme l’ont montré Benjamin (2019) et Noble (2018), ces systèmes automatisés intègrent et amplifient des inégalités sociales, raciales et de genre déjà présentes dans leurs données et leurs conditions de conception. Ces biais ne proviennent pas uniquement de choix de conception explicites : ils résultent aussi de décalages contextuels (un modèle entraîné dans un contexte A produit des effets imprévus dans un contexte B) et d'interactions systémiques entre données, architecture du modèle, interface et organisation (Selbst et al., 2019).
À ces enjeux sociaux s’ajoute une dimension matérielle souvent sous-estimée. Les travaux de Strubell et al. (2019) ont mis en évidence le coût énergétique et carbone significatif des modèles de grande taille. Des études plus récentes, comme celle de Luccioni et al. (2022) sur l'empreinte carbone du modèle BLOOM, confirment cette tendance tout en montrant une grande variabilité selon les modèles, les infrastructures et les longueurs d'échange. L'empreinte d'une requête reste nettement inférieure à celle de l'entraînement, mais l'usage cumulé à grande échelle pose des questions de soutenabilité. Il convient toutefois de reconnaître les limites méthodologiques actuelles : mesurer l'empreinte carbone réelle reste complexe, et les effets de déplacement (réductions possibles d'autres coûts environnementaux) ne sont pas toujours pris en compte.
Comprendre cet envers du décor change profondément la manière d’envisager l’usage de l’IA générative. La question n’est plus seulement ce que l’outil permet de produire, mais si cet usage justifie les ressources mobilisées. La frugalité n’apparaît alors ni comme une contrainte morale ni comme un refus de l’innovation, mais comme une posture informée : choisir quand recourir à l’IA générative, pour quels besoins, et quand des solutions plus simples, humaines ou techniques, sont suffisantes. Être frugal, dans ce contexte, revient à aligner les usages avec leurs coûts réels, et à réintroduire du discernement là où l’automatisation tend à le masquer. Toutefois, cette frugalité ne peut reposer uniquement sur des décisions individuelles : elle suppose des arbitrages organisationnels explicites entre productivité et sobriété, et des heuristiques de décision partagées pour déterminer dans quelles situations recourir à l'IA générative est justifié.
Littératie IA : une condition pour décider
Face à ces enjeux, la réponse ne peut être uniquement technique. Elle passe par le développement d’une littératie en intelligence artificielle.
Dans la littérature académique, la littératie IA est définie comme la capacité, pour des non-spécialistes, à comprendre les principes généraux du fonctionnement des systèmes d’IA, leurs usages possibles, leurs limites et leurs impacts, afin de pouvoir porter un jugement critique et prendre des décisions éclairées (Long & Magerko, 2020 ; Ng et al., 2021).
Mais ces définitions, souvent centrées sur des compétences cognitives individuelles, ne suffisent pas. Comme le rappelle Benjamin (2019), comprendre une technologie, c'est aussi interroger les valeurs, les rapports de pouvoir et les structures sociales qu'elle véhicule. Il s'agit de savoir qui conçoit ces systèmes, pour quels usages, selon quelles logiques économiques et avec quelles conséquences sociales.
Nous proposons donc de distinguer trois dimensions complémentaires de la littératie IA :
- La littératie technique : comprendre les principes de fonctionnement, les limites et les capacités des systèmes
- La littératie critique : interroger les choix incorporés, les biais encodés et les effets sociaux et environnementaux
- La littératie organisationnelle : savoir négocier les usages, identifier les contextes où l'IA apporte de la valeur, et construire des cadres de décision collectifs
Dans un contexte professionnel, la littératie IA ne peut être réduite à une compétence individuelle. Elle devient une capacité collective, qui nécessite du temps, de la formation, et une reconnaissance institutionnelle. Elle suppose également des espaces de délibération où les équipes peuvent discuter des usages, identifier les risques et ajuster les pratiques. La littératie IA devient ainsi une capacité d’analyse, de vigilance et de décision, indispensable pour rester acteur des usages de l’IA générative dans les organisations.
Le prompting : une interface critique entre langage, décision et responsabilité
C’est dans ce cadre que le prompting prend toute son importance. Souvent réduit à une astuce de productivité, il constitue en réalité un point de contact critique entre humains et systèmes d’IA générative.
Du point de vue de la philosophie du langage, un prompt peut être compris comme un acte de langage (Austin, 1962) : une manière de formuler une intention, de cadrer une situation et de produire du sens. Dire quelque chose à un modèle, c’est déjà orienter ce qui pourra être produit.
Des travaux en interaction située montrent que les systèmes automatisés ne fonctionnent jamais indépendamment de leurs contextes d’usage (Suchman, 1987). Le prompt devient ainsi une interaction située, dans laquelle l’humain explicite, ou non, son point de vue, ses attentes et ses contraintes.
Dans la continuité de cette approche, Akrich (1992) a montré que les objets techniques embarquent des scripts d’usage. Le prompt devient alors un lieu où ces scripts peuvent être partiellement réécrits, dans les marges de manœuvre laissées par l'architecture technique du système. Toutefois, cette capacité de réappropriation reste limitée : les choix de conception, les données d'entraînement et les biais encodés échappent largement à l'utilisateur final. En ce sens, le prompting relève davantage d'une tactique, au sens de De Certeau (1980), une manière de composer avec un système contraint, que d'une stratégie de transformation structurelle. Un prompt vague délègue implicitement des choix au système, un prompt contextualisé réintroduit le jugement humain et rend visibles les critères de décision.
Du point de vue sémiotique, le prompt agit comme une interface invisible : il structure la relation entre l’humain et le modèle en organisant les signes, les attentes et les interprétations possibles (Eco, 1979). Il ne s’agit pas seulement d’obtenir une “meilleure réponse”, mais de clarifier ce qui fait sens dans une situation donnée.
Le prompting ne peut pas être considéré comme une compétence universelle et indépendante des outils. Comme l’ont montré les travaux sur l’interaction humain–machine, le sens d’une instruction ne réside pas uniquement dans sa formulation, mais dans la manière dont elle est interprétée par un système donné (Suchman, 1987).
Chaque outil d’IA générative est conçu selon des choix techniques et organisationnels spécifiques, qui orientent ce que l’utilisateur peut exprimer, ce qui sera compris, et ce qui pourra être produit (Akrich, 1992 ; Amershi et al., 2019). Développer une littératie de l’IA suppose donc de comprendre que le prompt est toujours situé, et que l’esprit critique passe aussi par une attention aux limites et aux biais propres à chaque système.
Cette distinction entre usage passif et usage réflexif n'est pas qu'une hypothèse théorique. Une étude empirique récente menée auprès de 140 apprenants en programmation montre que la manière dont les utilisateurs interagissent avec l'IA générative détermine significativement leurs performances et leur capacité d'apprentissage (Handa et al., 2025). Les participants qui questionnaient activement les outputs, cherchaient à comprendre les réponses et reformulaient leurs requêtes obtenaient de meilleurs résultats que ceux qui copiaient passivement les suggestions. L'étude confirme que l'IA générative peut soutenir l'autonomie cognitive, mais uniquement si elle est utilisée de manière critique et réflexive (Anthropic, 2026). Toutefois, cette étude porte sur un contexte d'apprentissage contrôlé avec des débutants en programmation. Les dynamiques observées ne sont pas nécessairement transposables à des situations de travail professionnel sous contrainte temporelle et productive.
Enfin, au sens de l’empowerment (Kabeer, 1999), le prompting devient un levier de capacité d’action. Il permet de faire des choix explicites dans un environnement contraint, plutôt que de laisser les décisions se faire par défaut. Sur le plan écologique, cette explicitation limite les itérations inutiles et contribue à une sobriété d’usage. Un prompt contextualisé et précis réduit le nombre d'allers-retours nécessaires pour obtenir un résultat satisfaisant, ce qui diminue la consommation énergétique cumulée. Néanmoins, l'économie réelle reste variable : des études récentes montrent qu'un prompt avec un contexte très long peut consommer significativement plus d'énergie qu'une requête courte, même optimisée (You, 2025 ; Niu et al., 2025). Au-delà de cette optimisation au cas par cas, la sobriété suppose surtout une interrogation collective sur la pertinence même du recours à l'IA générative : certaines tâches peuvent être réalisées de manière plus sobre par d'autres moyens (recherche documentaire classique, rédaction directe, outils moins intensifs en calcul).
Le prompting ne peut donc être envisagé comme une solution individuelle à un problème structurel. Il constitue un levier d'action parmi d'autres, qui doit s'articuler avec des transformations organisationnelles plus larges : gouvernance des usages, métriques alternatives de performance, et régulation collective des outils.
Conclusion :
L’IA générative continuera de se diffuser dans les organisations. La question centrale n’est donc pas de savoir s’il faut l’utiliser, mais comment en garder la maîtrise.
Sans littératie partagée, ces outils risquent de devenir des boîtes noires coûteuses, peu discutables et mal alignées avec les enjeux humains et environnementaux. À l’inverse, développer une compréhension minimale et des pratiques concrètes comme le prompting réfléchi, permet de faire des choix plus responsables et plus lucides : identifier quand l’IA apporte de la valeur, quand elle n’en apporte pas, et sous quelles conditions.
En ce sens, le prompt n’est pas un simple levier de productivité. C’est un outil d’aide à la décision, qui contribue à préserver l’autonomie des équipes et à inscrire l’usage de l’IA générative dans une trajectoire plus maîtrisée et plus soutenable.
Mais ce levier individuel ne suffit pas. La maîtrise de l'IA générative suppose d'articuler trois échelles d'action complémentaires : au niveau individuel, développer une littératie IA et des pratiques de prompting réflexif ; au niveau collectif, construire des cadres de décision partagés et des espaces de délibération sur les usages ; au niveau institutionnel, intégrer les coûts sociaux et environnementaux dans les décisions d'adoption, et développer des métriques alternatives à la productivité brute. Le prompting individuel ne peut être un levier d'empowerment que s'il s'inscrit dans des cadres collectifs et institutionnels qui le rendent légitime et soutenable.
Références
Akrich, M. (1992). The de-scription of technical objects. In W. E. Bijker & J. Law (Eds.), Shaping technology/building society: Studies in sociotechnical change (pp. 205–224). MIT Press.
Amershi, S., Weld, D., Vorvoreanu, M., Fourney, A., Nushi, B., Collisson, P., ... & Horvitz, E. (2019). Guidelines for human-AI interaction. In Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems (pp. 1–13). Association for Computing Machinery.
Anthropic. (2025). Does AI assistance help people become better learners? Evidence from a controlled coding experiment. Anthropic Research.
Anwar, M. A., & Graham, M. (2020). Digital labour at economic margins: African workers and the global information economy. Review of African Political Economy, 47(163), 95–105.
Austin, J. L. (1962). How to do things with words. Oxford University Press.
Benjamin, R. (2019). Race after technology: Abolitionist tools for the New Jim Code. Polity Press.
Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big? In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT ’21) (pp. 610–623). Association for Computing Machinery.
Casilli, A. A. (2019). En attendant les robots: Enquête sur le travail du clic. Seuil.
Crawford, K. (2021). Atlas of AI: Power, politics, and the planetary costs of artificial intelligence. Yale University Press.
De Certeau, M. (1980). L'invention du quotidien. 1. Arts de faire. Gallimard.
Eco, U. (1979). A theory of semiotics. Indiana University Press.
Gray, M. L., & Suri, S. (2019). Ghost work: How to stop Silicon Valley from building a new global underclass. Houghton Mifflin Harcourt.
Handa, M., Ahuja, K., Mueller, S., Jakesch, M., Amershi, S., Williams, A., ... & Chilton, L. B. (2025). Does AI assistance help people become better learners? Evidence from using a large language model-powered learning tool. arXiv preprint arXiv:2601.20245.
International Labour Organization. (2021). World employment and social outlook 2021: The role of digital labour platforms in transforming the world of work. International Labour Office.
Kabeer, N. (1999). Resources, agency, achievements: Reflections on the measurement of women's empowerment. Development and Change, 30(3), 435–464.
Latour, B. (1992). Where are the missing masses? The sociology of a few mundane artifacts. In W. E. Bijker & J. Law (Eds.), Shaping technology/building society: Studies in sociotechnical change (pp. 225–258). MIT Press.
Long, D., & Magerko, B. (2020). What is AI literacy? Competencies and design considerations. In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems. Association for Computing Machinery.
Luccioni, A. S., Viguier, S., & Ligozat, A.-L. (2022). Estimating the carbon footprint of BLOOM, a 176B parameter language model. arXiv preprint arXiv:2211.02001.
Ng, D. T. K., Leung, J. K. L., Chu, K. W. S., & Qiao, M. S. (2021). AI literacy: Definition, teaching, evaluation and ethical issues. Computers and Education: Artificial Intelligence, 2, 100014.
Niu, Z., Zhang, Y., Chen, X., Li, M., Wang, S., Liu, X., ... & Zhou, L. (2025, December 2). TokenPowerBench: Benchmarking the power consumption of LLM inference. arXiv preprint arXiv:2512.03024.
Noble, S. U. (2018). Algorithms of oppression: How search engines reinforce racism. NYU Press.
Perrigo, B. (2023, January 18). Exclusive: OpenAI used Kenyan workers on less than $2 per hour to make ChatGPT less toxic. Time.
Pitron, G. (2018). La guerre des métaux rares : La face cachée de la transition énergétique et numérique. Les Liens qui Libèrent.
Russell, S., & Norvig, P. (2020). Artificial intelligence: A modern approach (4th ed.). Pearson.
Selbst, A. D., Boyd, D., Friedler, S. A., Venkatasubramanian, S., & Vertesi, J. (2019). Fairness and abstraction in sociotechnical systems. In Proceedings of the Conference on Fairness, Accountability, and Transparency (pp. 59–68). Association for Computing Machinery.
Strubell, E., Ganesh, A., & McCallum, A. (2019). Energy and policy considerations for deep learning in NLP. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics (pp. 3645–3650). Association for Computational Linguistics.
Suchman, L. A. (1987). Plans and situated actions: The problem of human–machine communication. Cambridge University Press.
You, J. (2025, February 7). How much energy does ChatGPT use? Gradient Updates. Epoch AI.