La duck conf 2026 - CR : Auditer l’accessibilité en 15 secondes grâce à l’IA

La Duck Conf 2026 - CR : Auditer l’accessibilité en 15 secondes grâce à l’IA ?

Lors de la Duck Conf 2026, Guillaume Moizan, développeur passionné par les bonnes pratiques et Romy Duhem-Verdière, tous deux experts en accessibilité numérique, se sont demandés comment on pouvait utiliser l’intelligence artificielle pour auditer l’accessibilité sur un site web aujourd’hui.

Quel constat aujourd’hui ?


Depuis juin 2025, tous les services numériques en Europe doivent être accessibles, sous peine de sanctions. L’accessibilité n’est donc plus une option ou une bonne pratique facultative : c’est une obligation légale qui concerne directement les équipes tech.

Pour évaluer la conformité légale, on s’appuie aujourd’hui sur un cadre bien défini : le RGAA (Référentiel Général d’Amélioration de l’Accessibilité).

Ce référentiel structure l’évaluation autour de plus d’une centaine de critères, représentant plus de 250 tests à effectuer. Et pour obtenir un audit fiable, il ne suffit pas de tester une seule page : il faut analyser un échantillon d’une vingtaine de pages, chacune nécessitant elle-même de nombreux tests.

Très vite, le constat est évident : un audit complet est lourd. Il mobilise une expertise humaine, demande une analyse fine et contextualisée, et peut facilement prendre un mois de travail pour un site de taille standard. Les outils historiques comme WAVE, axe ou Tanaguru permettent bien de gagner du temps, mais ils ne couvrent qu’une partie des critères (25% seulement !) et nécessitent, au besoin, une interprétation humaine.

Face à ce constat, une question se pose naturellement : peut-on aller plus vite ? Et surtout, peut-on s’appuyer sur l’IA pour accélérer ces audits ?

L’illusion des outils IA “tout-en-un”

Sur le papier, cela vend du rêve : un audit en quelques secondes et un taux de conformité automatique, et un gain énorme de productivité.

Mais en réalité ces promesses sont trompeuses. Les tests présentés montrent des écarts importants entre les résultats fournis par ces outils et ceux d’un audit RGAA réel. Un site évalué à 58% de conformité par un outil IA peut en réalité être conforme à 86%. À l’inverse, certains outils surestiment fortement des sites peu accessibles.

Les outils surévaluent la conformité (illusion que “tout va bien”) ou, au contraire, poussent à corriger des éléments déjà conformes.

On se retrouve alors dans une situation paradoxale : vouloir gagner du temps peut conduire à prendre de mauvaises décisions. On corrige les mauvaises choses, on ignore les vrais enjeux, et on finit par croire qu’un site est accessible alors qu’il ne l’est pas réellement.

Les agents IA : une promesse encore fragile

Romy et Guillaume ont également testé une autre approche : utiliser directement des agents IA comme ChatGPT, Claude ou Gemini pour réaliser des audits.

Lorsque l’on prompte globalement « Fais un audit RGAA du site », le résultat est sans appel : l’IA échoue à produire un audit fiable. Elle peine à comprendre correctement les critères, à en saisir les nuances et à évaluer la pertinence des éléments analysés. Elle va même jusqu’à inventer des critères inexistants.

On observe alors tout le spectre des erreurs possibles : des faux positifs (des erreurs détectées là où il n’y en a pas), des faux négatifs (des problèmes ignorés) et des interprétations complètement erronées.

La conclusion est évidente : faire un audit complet en un seul prompt par un agent AI est donc à proscrire absolument.

Une approche plus fine : tester critère par critère

Plutôt que de demander un audit global, ils ont testé des prompts ciblés, critère par critère.

Résultat ?

Ça marche… à moitié.

Prenons l’exemple des images. Selon le RGAA, une image informative doit avoir une alternative textuelle pertinente, tandis qu’une image décorative doit être ignorée. Ce type de distinction, pourtant fondamental, est souvent mal évalué par les IA. Elles peuvent valider des descriptions incomplètes ou passer à côté de l’information réellement portée par l’image.

En revanche, certains critères plus techniques ou plus “objectifs” sont mieux traités. C’est le cas, par exemple, de la navigation au clavier ou du contrôle des contenus en mouvement, où les agents IA obtiennent des résultats plus fiables.

Au final, Romy et Guillaume ont établi que prompter par critère conduisait à de meilleurs résultats qu’un prompt global : sur un échantillon choisi de critères testés (qui ne sont pas représentatifs d'un test complet), l'IA donnait à peu près 2 fois sur 3 la même réponse que l'audit RGAA.

C’est encourageant, mais insuffisant pour s’y fier sans vérification humaine.

Quels enseignements en tirer ?

D’abord, un audit RGAA ne peut pas être automatisé par l’IA seule. Il repose nécessairement sur une expertise humaine, seule capable de garantir une conformité légale.

L’IA pourrait avoir une réelle valeur ajoutée pour tester l'accessibilité, mais seulement à condition de l'intégrer intelligemment dans une démarche plus complète, en ayant conscience de ces limites.

Cela implique de repenser la démarche d’accessibilité. Il ne s’agit pas d’attendre un audit final, mais de tester en continu, en combinant différents leviers : outils automatisés, tests manuels et expertise.

Dans ce cadre, l’IA peut jouer un rôle utile. Elle permet d’aller plus vite sur certains contrôles, mais doit toujours être utilisée avec un regard critique.

Il existe des gestes simples et immédiats pour améliorer la situation. Tester un site au clavier, avec les easy-check ou lancer des des outils automatiques rapides permet déjà d’identifier des problèmes majeurs, en quelques secondes, et sont nettement moins coûteux, en temps et en argent, que l’IA !