IA Act : a-t-on pris le sujet par le bon bo(u)t ? - Compte-rendu du talk de Julie François-Franco à La Grosse Conf 2024

Image de Julie François-Franco lors de son talk à la Grosse Conf 2024.

Lors de la première édition de la Grosse Conf ayant eu lieu le 27 mars 2024, Julie François-Franco, ex-Octo désormais juriste à la CNIL, nous a sensibilisé au Règlement sur l’Intelligence Artificielle (RIA), texte européen ayant pour but de réguler l’intelligence artificielle (IA) en abordant tout d’abord l’esprit de ce texte puis la réalité du terrain.

I/ L’esprit du RIA

Le RIA est le texte législatif - à son sens - le plus complexe soumis aux institutions européennes du fait de la complexité de l’objet juridique que représentent les modèles d’intelligence artificielle (IA).

1. Une complexité traduite institutionnellement

Réfléchis depuis 2018, le texte a d’abord été déposé par la Commission européenne en 2021 - démarrage de la procédure législative - puis au Parlement européen. Il y a eu beaucoup de négociations entre ces deux institutions et une troisième : le Conseil européen (organe représentatif de l’exécutif - chefs d’Etats et des gouvernements - des 27 États-membres), qui s’opposait à certains aspects de la réglementation de l’IA, dans le but de favoriser l’innovation.

Pour preuve, ces chiffres comparant le Règlement Général sur la Protection des Données (RGPD) et RIA.

Image comparant le RIA et le RGPD
RIA : 180 considérants, 113 articles, 68 définitions, 13 annexes
RGPD : 170 considérants, 99 articles, 26 définitions, 0 annexe

L’IA étant une matière complexe, comment faire coïncider les valeurs et intentions du législateur - partagées notamment dans les considérants - avec les modèles algorithmiques ?

De nombreuses définitions communes ont dû être trouvées, non sans encombre, telles que la définition de l’IA, du fournisseur, du petit fournisseur, de ce qu’est un jeu de données, etc. Pourquoi ? Car l’IA fait peser de vrais risques sur les personnes.

2. Les risques sur les personnes

La Commission européenne est partie du postulat que le RIA devrait être construit autour d’une approche basée sur une échelle de risques que les IA pourraient engendrer sur les personnes. Plusieurs raisons justifient ce parti pris, notamment la rapidité d’évolution des modèles. Dès lors, une approche par un élément immuable et commun à tous les modèles semblait nécessaire : une approche par les risques et non technologique.

Cette approche s’est matérialisée par une pyramide des risques divisée en 4 niveaux :

  • Les risques minimes : ils ne font peser que peu de risque sur les personnes. Un code de conduite élaboré par l’entreprise ou au niveau du secteur est recommandé, ce qui pourrait mener à une position de juge et partie (Une pratique qui a soulevé des questions auprès des professionnels de la matière, cet instrument classique en droit de la conformité permettrait aux entreprises de poser les règles relatives à leurs propres modèles).

  • Les risques modérés : outre le code de conduite, quelques obligations pèsent ici sur l’entreprise, notamment de transparence, car les risques existent mais ne sont pas considérés comme élevés.

  • Les risques élevés : en présence de ces risques, ce sont bel et bien les obligations de l'IA Act qui s'appliquent. L’idée est d’identifier les risques qui pourraient intervenir sur les personnes et les modérer. Huit catégories d’IA à hauts risques sont d’ailleurs listées à l’annexe III du RIA.

  • Les risques inacceptables : ces usages sont interdits. Par exemple, une IA qui aurait pour but d’attribuer une notation sociale aux citoyens, sera interdite en UE mais acceptable dans d’autres pays comme la Chine - cf. épisode de Black Mirror (en Chine, des actions aux conséquences parfois moindres : rater un rendez-vous médical, emmener ses enfants en retard à l’école etc. donnent lieu à une dégradation de la notation sociale des personnes. La dégradation de cette note entraîne des effets juridiques ou similaires sur les personnes (interdiction de prendre l’avion, de diriger une usine etc.).

Image présentant le scénario choisi par la Commission : une approche basée sur les risques. Il s'agit d'une pyramide des risques : 1/ risques inacceptables : pratiques interdites. 2/ risques élevés : l'IA Act s'applique. 3/ risques modérés : transparence. 4/ risques minimes : code de conduite

Le 9 décembre dernier - après un marathon de 36 heures de négociations - les institutions européennes (Commission, Parlement et Conseil) sont parvenues à un accord de principe.

“Je suis admirative de l’UE qui a réussi à s’accorder à 27 sur un objet juridique d’une grande complexité.”

Voici comment Julie François-Franco conclut sa première partie sur l’esprit du RIA, avant d’enchaîner sur la réalité du terrain.

II/ La réalité du terrain

La question est de savoir comment le RIA va se traduire dans nos entités respectives.

1. Les approches face au RIA

Julie en est convaincue : il ne peut y avoir que plus de régulation du numérique en Europe. Pour preuve, nous nous trouvons dans un enchevêtrement de régulations avec le RGPD, le DMA, le DSA, le DGA, le Data Act, le RIA…

Il y a dès lors deux possibilités pour accueillir le RIA :

  • L’approche « ceinture-bretelle » : similaire à celle des avocats, qui se traduit par l’absence de prise de risque dans l’utilisation des IA afin d’être sûr de sa conformité. La problématique ici est de s’empêcher d’user de l’IA par une peur qui entraînerait la perte d’un avantage concurrentiel pour les entreprises qui n’iraient pas sur le terrain de l’IA.
  • L’approche « bénéfice risque » : inspirée du conseil, qui consiste à déterminer le niveau de risque que nous sommes prêts à accepter afin de recourir aux IA. C’est une approche similaire à ce qu’OCTO Technology pourrait recommander.

Image présentant les deux approches possibles face au RIA : 1/ l'approche "ceinture et bretelles" : je ne prends aucun risque. 2/ l'approche "conseil" bénéfice vs. risque : quel niveau de risque je suis prêt à assumer

Dès lors, Julie nous donne trois conseils :

  1. Embaucher des experts et former les équipes afin qu’elles deviennent expertes, si ce n’est pas déjà le cas ;
  2. Encourager la veille, étant donné que le sujet va excessivement vite aussi bien juridiquement que techniquement ;
  3. Favoriser la collaboration juridique / technique. En effet, elle propose une analogie avec les contrôles de la CNIL toujours menés en binôme du fait des questions juridiques et techniques qui se posent. Dès lors, il devient indispensable d’apporter aux équipes l’opportunité de travailler ensemble du fait de la complexité de la matière et des risques très importants qui pèsent non seulement sur les individus concernés mais aussi sur les organismes mettant en œuvre ces modèles d’IA. Selon Julie :

“Le binôme juriste data scientist est essentiel pour vos structures”.

Julie François-Franco.

Image présentant le nécessaire binôme entre le juriste et le data scientist. 1/ Compétences juridiques : cadre juridique entourant les données personnelles et l'IA, veille permanente, compréhension des usages. 2/ Compétences tech/data/IA : anticipation des biais, entraînement des modèles, contrôle des systèmes d'IA, machine unlearning

2. Les risques et sanctions face au RIA

Julie a choisi de présenter trois types de risques qui pourraient peser sur les organismes du simple fait de recourir aux IA :

  • Un risque sur l’emploi, avec une possible perte de compétences des collaborateurs. Pour la CNIL, les IA ne font pas forcément peser un risque de pertes d’emploi sèches, en revanche elles risquent de creuser l’écart entre les salariés qui sauront prendre partie des IA - y avoir recours dans leur quotidien - et ceux qui ne le sauront pas. Ainsi, pour que le recours aux IA soit efficace, il faut que les collaborateurs adoptent une posture qui ne soit ni trop dans la défiance ni trop dans la confiance.
    Également, il y a un risque de baisse de l’esprit critique qui peut intervenir - en se reposant trop sur les recommandations des modèles - mais aussi de compétences parfois critiques, acquises sur plusieurs années qui ne seraient plus utilisées. Potentiellement, des experts ayant des connaissances très fines pourraient les perdre en n’y ayant plus recours au profit des IA.
    Un autre élément important : la manière dont les IA peuvent changer le rapport au travail, notamment via le management algorithmique ( Risque très important identifié par le législateur, qui consiste en la gestion de la relation de travail - embauche, promotion, sanction - principalement basée sur des décisions automatisées, en sortant l’humain de l’équation).

→ La solution ici est la nécessaire intervention humaine lors du recours à l’IA.

Image présentant les impacts sur l'emploi avec les problématiques force. 1/ perte de compétences des salariés : selon le niveau d'autonomie, une perte d'esprit critique, trop forte défiance / trop forte confiance. 2/  management algorithmique : gérer la relation de travail, surveillance accrue, automatisation des décisions. Solution : l'intervention humaine

  • Un risque d’exclusion de certains acteurs du marché. Les coûts d’entrée élevés de l’IA (puissance de calcul, puces etc.) entraînent un risque d’exclusion des plus petits acteurs par ceux qui ont les moyens d’investir, créant des standards pour tout un secteur. De ce fait, les petits acteurs seront exclus car ne peuvent ni s’aligner ni offrir les mêmes fonctionnalités que les acteurs dominants, ce qui pourrait même les amener à totalement disparaître. En effet, le regroupement d’un secteur dans les mains de peu d’acteurs a des conséquences directes avec l’apparition de risques tels qu’une hausse des prix, une dépendance et finalement une baisse des droits des consommateurs.

→ La solution ici est la nécessaire régulation de l’IA.

Image présentant les impacts sur le secteur bancaire avec les problématiques force. 1/ exclusion de services bancaires essentiels : recul du droit à la vie privée (hub / PVID / quasi monopole), scoring dans le cas de l'octroi de crédit (solvabilité, note etc.). 2/ regroupement du secteur dans les mains de peu d'acteurs : coût d'entrée élevés, hausse des prix, dépendance, baisse des droits des consommateurs. Solution : régulation

  • Un risque sur les droits des personnes. C’est ici que se révèlent les intentions du législateur de faire coïncider les valeurs de l’UE et le développement des IA avec la question d’un futur désirable pour nos sociétés. Dans ce contexte géopolitique, on pressent un risque fort de perte de droits pour les personnes dans le cas où l’IA ne serait pas ou insuffisamment régulée.

“les États-Unis stimulent, la Chine planifie, l’Europe réglemente.”

Carlos Ghosn (ex-patron de Renault et Nissan qui envisageait cette réflexion comme une critique à l’égard de l’Union européenne).

→ La solution ici est la nécessaire régulation de l’IA.

Image présentant les impacts sur la bigtech, la concurrence et la géopolitique avec les problématiques force. 1/ coûts d'entrée élevés : Risque d'exclusion du marché, abus de position dominante, infrastructures essentielles (puces, puissance calcul, etc.), dépendance. 2/ explosion des prix : risque d'ingérence, de surveillance, guerre économique, quasi monopole. Solution : régulation

Et c’est dans ce rôle de géant de la réglementation que l’Europe se place avec le RIA qui prévoit des audits et contrôles des systèmes d’IA, avec des sanctions plus élevées que pour les manquements au RGPD. En effet, le RIA se base sur sa pyramide des risques pour établir le montant des sanctions : plus on monte dans la pyramide - dans les risques et les obligations au titre du RIA - plus les sanctions deviennent élevées.

Image décrivant les sanctions prévues par le RIA, avec un montant variant selon la nature des manquements. 1/ risques inacceptables : pratiques interdites : jusqu'à 35 millions d'euros ou 7% du chiffre d'affaires annuel mondial. 2/ risques élevés : violation des obligations : jusqu'à 15 millions d'euros ou 3% du chiffre d'affaires annuel mondial. 3/ risques modérés : informations inexactes : jusqu'à 7,5 millions d'euros ou 1,5% du chiffre d'affaires annuel mondial.

Il est nécessaire d’insister sur les montants en pourcentage du chiffre d’affaires (CA) consolidé, en raison des pratiques des autorités de protection des données (la CNIL et ses homologues européens) , qui retiennent plus souvent - surtout pour les grands groupes - le montant en pourcentage plutôt que celui en millions d’euros, l’amende y étant plus conséquente.

Enfin, un des sujets qui préoccupe la CNIL est celui de l’exercice des droits des personnes sur leurs données avec la question du désapprentissage machine ou machine unlearning. Avant de se poser la question du désapprentissage, il faut se demander si les données entrées dans le modèle pour son entraînement sont des données personnelles ou non. À ce jour, la CNIL ne s’est pas prononcée, contrairement au Danemark qui considère que les modèles ne contiennent jamais de données personnelles.

La question est de savoir s’il est techniquement possible de supprimer les données d’un individu d’un modèle et ce à quel coût. Au niveau de l’interface, a priori, oui, mais au niveau des données d'entraînement, une telle action pourrait impliquer un réentraînement du modèle. Qu’en est-il, également, de la suppression des données d’une personne qui étaient représentatives pour l’apprentissage du modèle et permettaient de limiter certains biais ? Les questions évoquées ici sont restées sans réponse étant donné que que la CNIL ne s’est pas encore prononcée.

Image décrivant les contrôles applicables pour l'exercice des droits des personnelles aussi bien sur l'interface que sur les données du modèle

Pour certains, un tel exercice des droits sur les données du modèle est techniquement impossible, notamment en présence d’IA génératives, souvent décrites comme des “boîtes noires”, mais des questions de coûts - environnemental, technique, économique - qu'entraînerait un tel contrôle sur les données des modèles se posent également.

Questions :

1. Qui sera garant de la mise en conformité du RIA ?

La question est autour du choix du profil, qui va dépendre des structures. Ce qui est sûr, c’est que la personne chargée de la mise en conformité du RIA devra avoir des compétences et connaissances variées autant juridiques, techniques, éthiques qu’environnementales, etc.

Le DPO et ses homologues sont déjà garants de la mise en conformité au RGPD, dès lors il est probable qu’ils le soient pour le RIA ; les professionnels de la protection des données d’aujourd’hui seront les professionnels de la régulation de l’IA de demain.

2. Quel est le champ d’application du RIA ?

Le RIA a la même base que le RGPD : il a un champ d’application territorial (s’applique en UE) et matériel (s’applique pour tout système d’IA traitant des données personnelles de citoyens européens).

3. L’IA a-t-elle impacté ton job et ta pratique ?

Julie répond avoir beaucoup travaillé dessus chez OCTO Technology, mais désormais beaucoup moins dans le cadre de ses nouvelles fonctions à la CNIL car très focus sur le RGPD.

Dans tous les cas, lorsqu’elle utilise une IA tel que ChatGPT4, Julie dit faire attention aux prompts qu’elle rédige, en n’y inscrivant aucune information confidentielle (secret des affaires) ou personnelle (protection des données personnelles) et est consciente que l’IA peut faire des erreurs (notamment en mettant des majuscules partout, ce que les juristes détestent !).

Sa recommandation : travailler d’abord, bien connaître son sujet, et seulement après vérifier avec une IA.

TAKEAWAY :

  • Une entrée en vigueur du RIA imminente avec des délais de mise en conformité oscillants entre 6 et 36 mois.
  • Un même modèle peut être soit très favorisé, soit très régulé. Exemple pour un même modèle d’identification biométrique : ses usages pour la recherche médicale seront très favorisés ; ses usages à des fins de reconnaissance faciale en temps réel par les autorités répressives, seront très régulés.
  • Le bon réflexe, c’est de penser aux risques sur les personnes.
  • Toujours se tenir informé et se former : l’IA est un domaine qui évolue sans cesse !
  • Collaborer entre les équipes, notamment juridiques et techniques.
  • Attention aux sanctions : jusqu’à 7% du CA annuel mondial !