“L’Intelligence artificielle est plus encline à renforcer les inégalités qu’à les réduire” : interview d’Amaranta López, doctorante en philosophie

Image générée par une intelligence artificielle.

“Je rougirais si je le pouvais”, voilà comment répondait Siri, l’application vocale d’Apple, lorsqu’elle était insultée par un.e utilisateur.ice. En mai 2019 déjà, l’Unesco sortait un rapport pour alerter sur les préjugés sexistes présents dans les applications d’intelligence artificielle et en particulier les assistants vocaux. “La plupart des assistants vocaux sont dotés de noms et voix de femmes ainsi que d’une ‘personnalité’ docile”, pointait l’étude.

Quatre ans plus tard, le marché mondial de l’intelligence artificielle a connu un bond. Estimé à 87 milliards de dollars en 2021, il devrait atteindre 1597 milliards de dollars d’ici 2030 (selon une enquête Precedence Research). Son adoption est continue, ses applications multiples et un tel développement pose de nombreuses questions éthiques, morales et sociétales. Car derrière une intelligence artificielle se cachent des algorithmes mais également des êtres humains pour l’alimenter en données. Comment garantir alors que les algorithmes qui font tourner une intelligence artificielle ne soient ni excluants, ni porteurs de visions stéréotypées, voire discriminantes par nature ? Une IA peut-elle être responsable ?

C’est à ce genre de questions que réfléchit Amaranta López, doctorante en philosophie féministe à l’EHESS et à OCTO Technology depuis 2022. Son projet de thèse intitulée “Une épistémologie politique féministe intersectionnelle de l’intelligence artificielle” vise à apporter une réflexion encore trop rare qui mérite d’être entendue. Interview.

Tu es doctorante en philosophie à l’EHESS et tu travailles sur l’intelligence artificielle, peux-tu nous expliquer ce que tu fais au sein d’OCTO ?

Mon travail porte sur les approches féministes intersectionnelles de l’intelligence artificielle. Plus concrètement sur l’impact des intelligences artificielles sur les inégalités de genre et leur croisement avec d’autres rapports de domination et de pouvoir. Ma thèse comporte deux parties : une première partie de critique du modèle actuel et une deuxième partie axée sur les propositions positives pour la réduction et correction des impacts négatifs de l’intelligence artificielle. Bref, comment concevoir une intelligence artificielle plus en accord avec des projets de société égalitaires. Ce travail à l’université est un travail de recherche scientifique et académique et cela me permet de prendre du temps et du recul pour réfléchir.

Chez OCTO, je baigne dans un environnement interdisciplinaire avec des métiers impliqués dans la production de ce type de produits numériques (les IA, ndlr), mais où les philosophes n’ont pas tant l’habitude de venir ! Travailler en entreprise enrichit mon travail académique en me permettant de développer un rapport plus immédiat et opérationnel vis-à-vis de la rapide évolution de ces technologies. J’essaye de contribuer à la démarche sur la diversité en interne, en partageant mes recherches afin de donner les clés pour affûter son esprit critique envers les technologies numériques. Dans la mesure où on contribue à créer ces technologies numériques, je pense qu’il faut aussi se rendre compte du pouvoir qu’on a entre les mains, lorsqu’on les fabrique. Je pense également que les réflexions et propositions autour du numérique responsable à OCTO doivent prendre intégralement en compte les questions sociales, de diversité et inégalités.

Ta thèse porte sur les approches féministes intersectionnelles de l’intelligence artificielle. Pourquoi relier intelligence artificielle et féminisme ?

La philosophie féministe est un domaine de la philosophie qui n’est pas assez pris en compte. En faisant des recherches en philosophie féministe, on se rend vraiment compte que le féminisme porte des projets et des idéaux de société. Et cela permet d’avoir une attention toute particulière au fonctionnement des logiques de pouvoir qui sont reproduites et reconfigurées par l’IA. Se saisir de la question de l’IA à partir de la philosophie féministe, c’est apporter un nouveau point de vue qui est selon moi nécessaire.

Si on regarde le traitement fait par les médias sur les intelligences artificielles, on constate que ces technologies peuvent permettre de mieux comprendre comment marchent les inégalités. Grâce à mes recherches, je me rends aussi compte que ce sont des technologies qui, parallèlement, sont plus enclines à renforcer les inégalités qu'à les réduire. Étant donné leur caractère auto apprenant, en voyant l’échelle et la vitesse à laquelle évolue le big data, on peut légitimement se dire qu’il faut prendre des actions rapidement pour pouvoir tenter de contenir au maximum les impacts négatifs.

“Grâce à mes recherches, je me rends aussi compte que ce sont des technologies qui, parallèlement, sont plus enclines à renforcer les inégalités, qu’à les réduire.”

Justement, nous pourrions facilement croire que les algorithmes à la base des IA sont objectifs et neutres et ne prennent pas parti. C’est donc une fausse croyance ?

Exactement, et c’est le biais d’automatisation. Si un algorithme me dit quelque chose je vais le prendre comme étant plus objectif que ce que me dit un être humain. C’est ancré dans notre rapport aux technologies : c’est justement parce qu’elles ne sont pas humaines que nous  développons ce biais.

“Le biais d’automatisation : si un algorithme me dit quelque chose je vais le prendre comme étant plus objectif que ce que me dit un être humain. “

Plus largement, il y a beaucoup de choses à dire sur les prétendues neutralité et objectivité de la technologie. Dans les faits, et dans la réalité des métiers qui conçoivent ces produits numériques, il y a toujours des choix : de design, de conception, de déploiement… Et lorsqu’on choisit, c’est comme si on inscrivait nos valeurs dans les technologies que l’on crée. On y transcrit, de manière inconsciente, notre propre vision du monde. Et cela peut évidemment reproduire des stéréotypes.

Prenons juste un simple exemple : les assistants vocaux. Ce sont toujours des voix de femmes. Elles sont serviles, à la disposition, elles aident, bref elles sont “au service de”. C’est une vision très stéréotypée de la femme que l’on retranscrit dans ces robots.Au fond, qu’est-ce que ça veut dire “être objectif” ? Les féministes ont beaucoup questionné les méthodes scientifiques dans les sciences dures comme la biologie, mais aussi dans les sciences sociales. Elles ont démontré que dans ces champs scientifiques, où la population sur- représentée est masculine, le point de vue défini comme neutre et prétendu “objectif”, est en réalité un point de vue particulier, à savoir masculin. Il s’agit là d’une critique épistémologique qu’on peut appliquer dans toutes les sciences et disciplines.

“Dans la réalité des métiers qui conçoivent ces produits numériques, il y a toujours des choix : de design, de conception, de déploiement (...) c’est comme si on inscrivait nos valeurs dans les technologies que l’on crée. On y transcrit, de manière inconsciente, notre propre vision du monde. Et cela peut évidemment reproduire des stéréotypes.”

L’objectivité serait-elle un concept totalement utopique ?

Non plus ! Je m’explique. Sandra Harding, une philosophe américaine qui a beaucoup travaillé sur l’épistémologie (discipline qui prend la connaissance scientifique pour objet, ndlr), a cherché à comprendre comment atteindre une véritable objectivité, qui soit la plus inclusive possible. Elle a développé son concept “d’objectivité forte”, dans lequel elle nous dit que c’est en acceptant la partialité de notre propre point de vue et en le confrontant à d’autres points de vue que nous atteignons l’objectivité. Un concept extrêmement intéressant et qui éclaire ma réflexion sur les intelligences artificielles.

Pouvons-nous affirmer aujourd’hui que les IA sont reproductrices de stéréotypes et d’inégalités ?

Oui, nous pouvons le dire.

Image générée par une intelligence artificielle.

Comment se rendre compte qu’un algorithme est sexiste ou raciste ?

C’est très vaste comme question (rires) ! En réalité, c’est en faisant attention à un potentiel différentiel de traitement que l’on peut se rendre compte qu’un algorithme est sexiste ou raciste.

Ce qui rajoute une couche de difficulté, c’est la définition du mot “intelligence artificielle”. Que met-on derrière ? On y retrouve toute une panoplie de technologies, de méthodes d’apprentissages et de manières de “réfléchir” très différentes. Comment faire alors pour déceler des stéréotypes ou des biais ?

D’un côté, il y a l’utilisateur. Il n’aura pas forcément une compréhension très profonde de la manière dont l’intelligence artificielle a été construite ou développée, mais il peut tester ces intelligences artificielles et en dévoiler des biais sociaux ou de genre par exemple. Il a donc une expertise pour dire si telle ou telle intelligence artificielle qu’il utilise l’affecte négativement, voire concourt à renforcer des situations discriminantes qu’il éprouve déjà.

De l’autre côté, il y a la personne qui construit l’intelligence artificielle, le développeur, toute personne impliquée dans la conception. De nombreuses démarches existent pour aider à prendre du recul sur ce que l’on fait, ce que l’on construit. Ces démarches vont nous permettre d’identifier si on introduit potentiellement des biais dans le système que l’on crée.

Finalement, le point central c’est l’attention que tout un chacun porte sur les inégalités et sur les différents rapports de pouvoir. Une règle générale serait de dire que si nous ne pensons pas pas aux différences et aux inégalités, nous avons de grandes chances d’introduire quelque chose de négatif dans l’intelligence artificielle que nous développons, puisque nous ne l’auront pas anticipé.

D’où l’importance d’éveiller et de conscientiser les esprits dans les équipes tech…

Tout à fait, et ce n’est pas évident ! C’est à la fois un travail de sensibilisation des équipes tech sur les différents rapports qui existent, et c’est un énorme challenge personnel et humain, mais aussi un travail de confrontation des différents points de vue. Ce n’est pas une seule personne qui peut réussir à tout prévoir, tout empêcher. Mais c’est plutôt dans les relations entre les différentes personnes d’une équipe tech par exemple, que ce travail de diversité et de réflexion peut se faire.

“Si nous ne pensons pas aux différences et aux inégalités, nous avons de grandes chances d’introduire quelque chose de négatif dans l’intelligence artificielle que nous développons, puisque nous ne l’aurons pas anticipé.”

On a parlé des problématiques lors de la conception et de la non diversité des équipes tech. Mais la production d’algorithmes ne serait-elle pas porteuse en elle-même d’inégalités ?

Oui, on assiste aujourd’hui à un renforcement des inégalités dans la production des algorithmes qui font tourner les intelligences artificielles. En effet, les algorithmes ont besoin d’ingérer une quantité énorme de données et de paramètres. Et pour faire cela, il y a tout un travail d’annotation des données qui est nécessaire. Ce sont des travaux très chronophages, précarisés et dévalorisés, qui sont bien souvent délocalisés : c’est le concept du “travail du clic”.Ainsi, on voit une certaine division du travail : d’un côté les équipes tech et de l’autre les “travailleurs du clic” qui fournissent la donnée. Je pense que tant qu’on aura cette division du travail, on ne pourra pas parler d’intelligence artificielle inclusive. Je pense qu’il est très important de visibiliser cela aussi.

“On voit une certaine division du travail : d’un côté les équipes tech et de l’autre les “travailleurs du clic” qui fournissent la donnée. Je pense que tant qu’on aura cette division du travail, on ne pourra pas parler d’intelligence artificielle inclusive.”

Comment rendre les technologies d’intelligence artificielle plus inclusives ? Quelles solutions préconises-tu ?

Dans l’état actuel de mes recherches, je vois déjà de nombreuses pistes possibles. Pour en citer quelques-unes, il y a d’abord la question de la diversité des équipes de production de ces technologies. Que les équipes tech soient diverses, et que la production des algorithmes soit éthique comme on l’a vu précédemment.

Ensuite, il y a les méthodologies de conception. Je pense par exemple au concept “Ethics by design”, qui prône le fait de se mettre d’accord sur les valeurs qu’on veut inscrire dans une technologie avant même de commencer la phase de conception. Il s’agit alors de se poser les bonnes questions : en quoi cette technologie est-elle utile à la société ? A-t’on besoin d’y ajouter de l’intelligence artificielle ? Quel va être son rôle ? etc. Cela va permettre de définir où l’on va, ce que l’on fait.

Il y a également tout ce qui relève de la curation des jeux de données, à savoir bien documenter les jeux de données, connaître leur provenance, et garder en tête que les sources doivent être diverses.

Enfin, et c’est hyper important, co-concevoir la technologie avec les personnes envers qui elle est destinée.

Tu prêches une convaincue (rires) ! Si on s’attache à faire tout ça, est-ce qu’un jour on pourrait voir des technologies qui aident à la déconstruction et à l’émancipation ?

C’est la question très complexe qui anime tout mon travail… Il y a des initiatives et des applications explicitement conçues pour la réduction des inégalités.

Je pense par exemple à des traducteurs de langues autochtones. Au-delà de l’aspect traduction, il y a une réflexion autour de la gouvernance de ces traducteurs : à qui appartient l’algorithme, à qui appartiennent les données ? Les réflexions vont dans le sens d’une souveraineté des peuples autochtones. Ce sont des expériences totalement opposées au modèle dominant de la Silicon Valley.

En fait, c’est un pari de mettre en place des intelligences artificielles qui œuvrent en faveur de l’égalité. Je ne dis pas qu’on ne peut pas le faire, mais je garde un regard très attentif à la production de ces technologies. On peut avoir quelque chose de très bien conçu, qui va dans le sens de la réduction des inégalités, qui porte des valeurs, mais dont l’impact environnemental ou social sera très négatif.

C’est pour ça que les points de vue féministes et critiques du modèle économique actuel sont pertinents pour penser un tout autre modèle qui évitera au maximum d’avoir un impact négatif sur notre société.