IA Act : a-t-on pris le sujet par le bon bo(u)t ? - Compte-rendu du talk de Julie François-Franco à La Grosse Conf 2024
Lors de la première édition de la Grosse Conf ayant eu lieu le 27 mars 2024, Julie François-Franco, ex-Octo désormais juriste à la CNIL, nous a sensibilisé au Règlement sur l’Intelligence Artificielle (RIA), texte européen ayant pour but de réguler l’intelligence artificielle (IA) en abordant tout d’abord l’esprit de ce texte puis la réalité du terrain.
I/ L’esprit du RIA
Le RIA est le texte législatif - à son sens - le plus complexe soumis aux institutions européennes du fait de la complexité de l’objet juridique que représentent les modèles d’intelligence artificielle (IA).
1. Une complexité traduite institutionnellement
Réfléchis depuis 2018, le texte a d’abord été déposé par la Commission européenne en 2021 - démarrage de la procédure législative - puis au Parlement européen. Il y a eu beaucoup de négociations entre ces deux institutions et une troisième : le Conseil européen (organe représentatif de l’exécutif - chefs d’Etats et des gouvernements - des 27 États-membres), qui s’opposait à certains aspects de la réglementation de l’IA, dans le but de favoriser l’innovation.
Pour preuve, ces chiffres comparant le Règlement Général sur la Protection des Données (RGPD) et RIA.
L’IA étant une matière complexe, comment faire coïncider les valeurs et intentions du législateur - partagées notamment dans les considérants - avec les modèles algorithmiques ?
De nombreuses définitions communes ont dû être trouvées, non sans encombre, telles que la définition de l’IA, du fournisseur, du petit fournisseur, de ce qu’est un jeu de données, etc. Pourquoi ? Car l’IA fait peser de vrais risques sur les personnes.
2. Les risques sur les personnes
La Commission européenne est partie du postulat que le RIA devrait être construit autour d’une approche basée sur une échelle de risques que les IA pourraient engendrer sur les personnes. Plusieurs raisons justifient ce parti pris, notamment la rapidité d’évolution des modèles. Dès lors, une approche par un élément immuable et commun à tous les modèles semblait nécessaire : une approche par les risques et non technologique.
Cette approche s’est matérialisée par une pyramide des risques divisée en 4 niveaux :
Les risques minimes : ils ne font peser que peu de risque sur les personnes. Un code de conduite élaboré par l’entreprise ou au niveau du secteur est recommandé, ce qui pourrait mener à une position de juge et partie (Une pratique qui a soulevé des questions auprès des professionnels de la matière, cet instrument classique en droit de la conformité permettrait aux entreprises de poser les règles relatives à leurs propres modèles).
Les risques modérés : outre le code de conduite, quelques obligations pèsent ici sur l’entreprise, notamment de transparence, car les risques existent mais ne sont pas considérés comme élevés.
Les risques élevés : en présence de ces risques, ce sont bel et bien les obligations de l'IA Act qui s'appliquent. L’idée est d’identifier les risques qui pourraient intervenir sur les personnes et les modérer. Huit catégories d’IA à hauts risques sont d’ailleurs listées à l’annexe III du RIA.
Les risques inacceptables : ces usages sont interdits. Par exemple, une IA qui aurait pour but d’attribuer une notation sociale aux citoyens, sera interdite en UE mais acceptable dans d’autres pays comme la Chine - cf. épisode de Black Mirror (en Chine, des actions aux conséquences parfois moindres : rater un rendez-vous médical, emmener ses enfants en retard à l’école etc. donnent lieu à une dégradation de la notation sociale des personnes. La dégradation de cette note entraîne des effets juridiques ou similaires sur les personnes (interdiction de prendre l’avion, de diriger une usine etc.).
Le 9 décembre dernier - après un marathon de 36 heures de négociations - les institutions européennes (Commission, Parlement et Conseil) sont parvenues à un accord de principe.
“Je suis admirative de l’UE qui a réussi à s’accorder à 27 sur un objet juridique d’une grande complexité.”
Voici comment Julie François-Franco conclut sa première partie sur l’esprit du RIA, avant d’enchaîner sur la réalité du terrain.
II/ La réalité du terrain
La question est de savoir comment le RIA va se traduire dans nos entités respectives.
1. Les approches face au RIA
Julie en est convaincue : il ne peut y avoir que plus de régulation du numérique en Europe. Pour preuve, nous nous trouvons dans un enchevêtrement de régulations avec le RGPD, le DMA, le DSA, le DGA, le Data Act, le RIA…
Il y a dès lors deux possibilités pour accueillir le RIA :
- L’approche « ceinture-bretelle » : similaire à celle des avocats, qui se traduit par l’absence de prise de risque dans l’utilisation des IA afin d’être sûr de sa conformité. La problématique ici est de s’empêcher d’user de l’IA par une peur qui entraînerait la perte d’un avantage concurrentiel pour les entreprises qui n’iraient pas sur le terrain de l’IA.
- L’approche « bénéfice risque » : inspirée du conseil, qui consiste à déterminer le niveau de risque que nous sommes prêts à accepter afin de recourir aux IA. C’est une approche similaire à ce qu’OCTO Technology pourrait recommander.
Dès lors, Julie nous donne trois conseils :
- Embaucher des experts et former les équipes afin qu’elles deviennent expertes, si ce n’est pas déjà le cas ;
- Encourager la veille, étant donné que le sujet va excessivement vite aussi bien juridiquement que techniquement ;
- Favoriser la collaboration juridique / technique. En effet, elle propose une analogie avec les contrôles de la CNIL toujours menés en binôme du fait des questions juridiques et techniques qui se posent. Dès lors, il devient indispensable d’apporter aux équipes l’opportunité de travailler ensemble du fait de la complexité de la matière et des risques très importants qui pèsent non seulement sur les individus concernés mais aussi sur les organismes mettant en œuvre ces modèles d’IA. Selon Julie :
“Le binôme juriste data scientist est essentiel pour vos structures”.
Julie François-Franco.
2. Les risques et sanctions face au RIA
Julie a choisi de présenter trois types de risques qui pourraient peser sur les organismes du simple fait de recourir aux IA :
- Un risque sur l’emploi, avec une possible perte de compétences des collaborateurs. Pour la CNIL, les IA ne font pas forcément peser un risque de pertes d’emploi sèches, en revanche elles risquent de creuser l’écart entre les salariés qui sauront prendre partie des IA - y avoir recours dans leur quotidien - et ceux qui ne le sauront pas. Ainsi, pour que le recours aux IA soit efficace, il faut que les collaborateurs adoptent une posture qui ne soit ni trop dans la défiance ni trop dans la confiance.
Également, il y a un risque de baisse de l’esprit critique qui peut intervenir - en se reposant trop sur les recommandations des modèles - mais aussi de compétences parfois critiques, acquises sur plusieurs années qui ne seraient plus utilisées. Potentiellement, des experts ayant des connaissances très fines pourraient les perdre en n’y ayant plus recours au profit des IA.
Un autre élément important : la manière dont les IA peuvent changer le rapport au travail, notamment via le management algorithmique ( Risque très important identifié par le législateur, qui consiste en la gestion de la relation de travail - embauche, promotion, sanction - principalement basée sur des décisions automatisées, en sortant l’humain de l’équation).
→ La solution ici est la nécessaire intervention humaine lors du recours à l’IA.
- Un risque d’exclusion de certains acteurs du marché. Les coûts d’entrée élevés de l’IA (puissance de calcul, puces etc.) entraînent un risque d’exclusion des plus petits acteurs par ceux qui ont les moyens d’investir, créant des standards pour tout un secteur. De ce fait, les petits acteurs seront exclus car ne peuvent ni s’aligner ni offrir les mêmes fonctionnalités que les acteurs dominants, ce qui pourrait même les amener à totalement disparaître. En effet, le regroupement d’un secteur dans les mains de peu d’acteurs a des conséquences directes avec l’apparition de risques tels qu’une hausse des prix, une dépendance et finalement une baisse des droits des consommateurs.
→ La solution ici est la nécessaire régulation de l’IA.
- Un risque sur les droits des personnes. C’est ici que se révèlent les intentions du législateur de faire coïncider les valeurs de l’UE et le développement des IA avec la question d’un futur désirable pour nos sociétés. Dans ce contexte géopolitique, on pressent un risque fort de perte de droits pour les personnes dans le cas où l’IA ne serait pas ou insuffisamment régulée.
“les États-Unis stimulent, la Chine planifie, l’Europe réglemente.”
Carlos Ghosn (ex-patron de Renault et Nissan qui envisageait cette réflexion comme une critique à l’égard de l’Union européenne).
→ La solution ici est la nécessaire régulation de l’IA.
Et c’est dans ce rôle de géant de la réglementation que l’Europe se place avec le RIA qui prévoit des audits et contrôles des systèmes d’IA, avec des sanctions plus élevées que pour les manquements au RGPD. En effet, le RIA se base sur sa pyramide des risques pour établir le montant des sanctions : plus on monte dans la pyramide - dans les risques et les obligations au titre du RIA - plus les sanctions deviennent élevées.
Il est nécessaire d’insister sur les montants en pourcentage du chiffre d’affaires (CA) consolidé, en raison des pratiques des autorités de protection des données (la CNIL et ses homologues européens) , qui retiennent plus souvent - surtout pour les grands groupes - le montant en pourcentage plutôt que celui en millions d’euros, l’amende y étant plus conséquente.
Enfin, un des sujets qui préoccupe la CNIL est celui de l’exercice des droits des personnes sur leurs données avec la question du désapprentissage machine ou machine unlearning. Avant de se poser la question du désapprentissage, il faut se demander si les données entrées dans le modèle pour son entraînement sont des données personnelles ou non. À ce jour, la CNIL ne s’est pas prononcée, contrairement au Danemark qui considère que les modèles ne contiennent jamais de données personnelles.
La question est de savoir s’il est techniquement possible de supprimer les données d’un individu d’un modèle et ce à quel coût. Au niveau de l’interface, a priori, oui, mais au niveau des données d'entraînement, une telle action pourrait impliquer un réentraînement du modèle. Qu’en est-il, également, de la suppression des données d’une personne qui étaient représentatives pour l’apprentissage du modèle et permettaient de limiter certains biais ? Les questions évoquées ici sont restées sans réponse étant donné que que la CNIL ne s’est pas encore prononcée.
Pour certains, un tel exercice des droits sur les données du modèle est techniquement impossible, notamment en présence d’IA génératives, souvent décrites comme des “boîtes noires”, mais des questions de coûts - environnemental, technique, économique - qu'entraînerait un tel contrôle sur les données des modèles se posent également.
Questions :
1. Qui sera garant de la mise en conformité du RIA ?
La question est autour du choix du profil, qui va dépendre des structures. Ce qui est sûr, c’est que la personne chargée de la mise en conformité du RIA devra avoir des compétences et connaissances variées autant juridiques, techniques, éthiques qu’environnementales, etc.
Le DPO et ses homologues sont déjà garants de la mise en conformité au RGPD, dès lors il est probable qu’ils le soient pour le RIA ; les professionnels de la protection des données d’aujourd’hui seront les professionnels de la régulation de l’IA de demain.
2. Quel est le champ d’application du RIA ?
Le RIA a la même base que le RGPD : il a un champ d’application territorial (s’applique en UE) et matériel (s’applique pour tout système d’IA traitant des données personnelles de citoyens européens).
3. L’IA a-t-elle impacté ton job et ta pratique ?
Julie répond avoir beaucoup travaillé dessus chez OCTO Technology, mais désormais beaucoup moins dans le cadre de ses nouvelles fonctions à la CNIL car très focus sur le RGPD.
Dans tous les cas, lorsqu’elle utilise une IA tel que ChatGPT4, Julie dit faire attention aux prompts qu’elle rédige, en n’y inscrivant aucune information confidentielle (secret des affaires) ou personnelle (protection des données personnelles) et est consciente que l’IA peut faire des erreurs (notamment en mettant des majuscules partout, ce que les juristes détestent !).
Sa recommandation : travailler d’abord, bien connaître son sujet, et seulement après vérifier avec une IA.
TAKEAWAY :
- Une entrée en vigueur du RIA imminente avec des délais de mise en conformité oscillants entre 6 et 36 mois.
- Un même modèle peut être soit très favorisé, soit très régulé. Exemple pour un même modèle d’identification biométrique : ses usages pour la recherche médicale seront très favorisés ; ses usages à des fins de reconnaissance faciale en temps réel par les autorités répressives, seront très régulés.
- Le bon réflexe, c’est de penser aux risques sur les personnes.
- Toujours se tenir informé et se former : l’IA est un domaine qui évolue sans cesse !
- Collaborer entre les équipes, notamment juridiques et techniques.
- Attention aux sanctions : jusqu’à 7% du CA annuel mondial !