GenUI et Agentic Interfaces : l'Expérience Utilisateur de demain

Un homme et une femme sur un plateau télévision, un animateur avec un micro entre eux deux. Ils ont l'air enthousiastes et heureus d'être là.

Nous sommes le mardi 10 novembre 2028 et Evan Perth anime un débat prospectif sur le futur des interfaces. Sur le plateau, Clara, UX lead passionnée par la personnalisation, et Andy, designer conversationnel convaincu que l'avenir se joue "sans écran". Autour d’eux, les écrans affichent à la fois des prototypes Figma et des exemples de conversation avec ChatGPT – ambiance 2024.

Interfaces conçues à la volée et agents autonomes dessinent l’expérience utilisateur de demain

Un homme et une femme dos à dos, avec des éléments graphiques (une sphère, une pyramide) et un petit robot qui flottent au dessus de leurs têtes

L’animateur lance la discussion, regardant Clara :
— Clara, tu t’es exprimée sur plusieurs podcasts au sujet de la GenUI, l’interface générée à la volée, en la qualifiant de “la plus grande révolution de l’expérience utilisateur”. Tu peux nous expliquer pourquoi ?

Clara inspire doucement avant de développer :

— En fait, la GenUI, c’est un changement de paradigme radical dans notre façon de concevoir les expériences numériques. On passe d’un modèle où l’interface, ses écrans et ses parcours, sont figés à l’avance, légèrement personnalisés pour les plus poussées, vers un modèle beaucoup plus dynamique et adaptatif.

Elle clarifie, pédagogue :

— Au lieu de construire une suite d’écrans pour tous les profils, on définit des intentions, des besoins, des logiques d’usage… et c’est l’IA, embarquée sur le device, qui génère en temps réel l’interface la plus pertinente pour l’utilisateur et son contexte.

Par exemple, si l’IA détecte que tu es pressé, elle te propose directement le bouton d’action le plus adapté. Si tu es en situation de handicap, elle adapte l'ergonomie, les couleurs ou la taille de la typographie. On peut même imaginer des interfaces qui évoluent dans la journée selon ta fatigue, ta localisation, voire ton humeur. Je te donne un exemple qui a été imaginé par le NNGroup : On suit Alex, voyageuse dyslexique, qui doit réserver un vol sur Delta. Son application va s’adapter automatiquement à ses besoins : la typographie, la couleur, les contrastes … mais pas que ! Selon ses préférences, l’app anticipe l’aéroport de départ, et réorganise les résultats en fonction de ses critères – coût, temps, siège avec hublot obligatoire.

Elle conclut, enthousiaste :

— La GenUI, c’est une sorte de “UI vivante”, fluide, qui réinvente l’expérience à chaque instant, tout en gardant une cohérence globale et des repères stables. Ça transforme notre rôle : on ne dessine plus des écrans, on crée des systèmes capables de s’inventer et de s’ajuster continuellement, en autonomie. Pour moi, c’est l’aboutissement de ce qu’on à toujours cherché en tant que designer : une interface 100% adaptée à chaque utilisateur.

Evan rebondit, touche la tablette devant lui :

— Andy, toi par contre, tu n’es pas convaincu. Pour toi, la vraie révolution, c’est l’Agentic Interface – l’agent autonome. Qu’est ce qu’il a de plus qu’un simple “chat”, comme on en avait en 2024 ?

Andy sourit et prend le temps de préciser :

— C’est vrai qu’en 2024, les “chats” n’étaient que des interfaces conversationnelles, souvent limitées par les bases de données qu’elles exploitaient d’ailleurs. La différence fondamentale avec l’Agentic Interface, aujourd’hui, c’est l’autonomie et la capacité d’agir — et ça change tout.

Il se penche, passionné :

— Un simple chat pouvait répondre ou donner des infos. Un agent autonome, lui, comprend tes intentions, orchestre des services, prend des décisions, exécute des actions concrètes sans que tu doives passer par des interfaces classiques. Par exemple , si je rebondis sur l’exemple donné par Clara, avec un agent autonome, tu peux demander “organise mon voyage à Barcelone”, et il va chercher les meilleurs vols, réserver un hôtel selon tes goûts, programmer les visites incontournables, même coordonner tes transports sur place… tout ça en background, en te posant des questions additionnelles si besoin.

Il ajoute, pour clarifier la rupture technologique :

— Techniquement, l’agent est connecté à ton calendrier, tes préférences, tes paiements. Il peut négocier, comparer, suivre les statuts, changer de prestataire si besoin… En fait, il devient un vrai majordome numérique, qui ne se contente pas de répondre mais d’agir pour toi, souvent mieux et plus vite que ce qu’on ferait en passant par dix ou quinze écrans.

Andy conclut, le regard pétillant :

— Demain, l’écran lui-même sera secondaire ! Regarde, depuis plusieurs années Google Maps permettait déjà de réserver une table sans jamais voir le site du restaurant ou aller sur La Fourchette. On a aussi Comet qui est arrivé en 2025, qui pouvait prendre la main sur ta navigation : tu lui disait “décale mon rendez-vous avec Sarah ”, et il composait le mail, proposait un nouveau créneau, le calait dans vos deux agendas. Demain, si ton frigo est vide, tu lui diras juste « achète mes courses habituelles, remplace le lait par de l’avoine bio ». Il comparera les prix sur plusieurs plateformes, choisira le meilleur panier, programmera la livraison selon ton agenda, tout ça sans jamais ouvrir la moindre interface e-commerce.

Transparence et contrôle, des enjeux d’adoption majeurs

Un homme qui fait face à un robot qui lui ressemble, les deux ont l'air triste. Des interfaces d'écran flottent autour d'eux.

L’animateur intervient :

— Ces exemples sont fascinants. Mais côté utilisateur, lequel inspire le plus de confiance ?

Clara reprend :

— Avec la GenUI, on conserve le contrôle visuel. Alex, dans l’exemple Delta, voit les options, compare, décide. La personnalisation est visible, transparente. Et techniquement, on peut auditer les adaptations, s’assurer qu’on évite toute forme de manipulation.

Elle marque une pause, réfléchit.

— Un autre exemple : on peut imaginer une interface de trading qui s’adapte à ton niveau de stress. Si tu es tendu, elle simplifie les choix, priorise les investissements sûrs, masque les options risquées temporairement. C’est protecteur, pas manipulatoire.

Andy intervient, souriant :

OK, mais pourquoi complexifier avec des écrans ? Un agent autonome, c’est « investis 1000€ de façon équilibrée », et tu as la décision sans l’interface.

Il se penche un peu plus, appuyant son propos  :

— Et franchement, des écrans qui changent tout le temps, c’est le meilleur moyen de perdre les utilisateurs ! On parle tout le temps de mémorabilité, de repères : si à chaque accès l’interface est différente, l’utilisateur passe son temps à réapprendre, à douter, à chercher où se trouvent les fonctionnalités clés.

C’est super pour la personnalisation, mais si ça crée trop d’instabilité ou d’inconfort cognitif, on rate l’objectif. Les gens aiment retrouver leurs marques, c’est rassurant, ça construit la confiance. L’autonomie des agents, elle, offre la même efficacité… sans exposer l’utilisateur à ce stress visuel permanent.

Il s'interrompt, puis reprend, d’un ton plus nuancé :

—  Il faut être transparent sur un point ceci dit : les Agentic Interfaces restent développées par des entreprises. Quand votre agent vous proposera tel restaurant, tel hôtel… est-ce que ce sera le meilleur choix pour vous ou celui qui rapporte le plus à la plateforme ? Cette question de neutralité est cruciale dans la confiance que les utilisateurs accorderont à ces agents. Contrairement à la GenUI, où les options sont exposées et l’utilisateur choisit, l’agent va prendre des décisions de manière autonome. Les critères de décision ne doivent donc pas être opaques.

Les coulisses technologiques du futur des interfaces

Un homme qui regarde un robot, avec un air anxieux. Le robot est connecté à plein d'éléments qui représentent les données des utilisateurs et des enjeux de sécurité.

L’animateur les interrompt :

— D’un point de vue technique, l’un ou l’autre, c’est réaliste ? Qui se confronte aux plus grands défis ?

Clara hoche la tête, concentrée :

— Les défis techniques de la GenUI sont vraiment costauds. Déjà, générer des interfaces en temps réel, adaptées à chaque utilisateur et situation, ça demande une puissance de calcul nettement supérieure à celle des approches plus classiques.

Elle précise, les doigts tapotant légèrement la table comme pour illustrer la complexité :

— À chaque action de l’utilisateur, l’IA doit analyser le contexte, les préférences, parfois même l’historique de navigation ou des signaux physiologiques. Elle doit ensuite assembler à la volée les bons éléments graphiques, tester l’accessibilité, vérifier la cohérence visuelle... Tout ça consomme beaucoup de ressources. Du coup, pour supporter la GenUI, il faut des appareils plus puissants : processeurs performants, mémoire accrue… et ça pèse sur la batterie, forcément. La moindre adaptation consomme de l’énergie, sans parler du transfert de données quand le calcul se fait à distance.

Elle hésite un instant, puis poursuit :

— En plus, plus l’interface est personnalisée et contextuelle, plus elle doit envoyer et recevoir des données privées ou sensibles : comportement, localisation, ... Ça soulève des exigences de sécurisation qui complexifient l’architecture et ralentissent parfois l’expérience.

Clara résume ce panorama technique :

— Finalement, le défi, c’est d’arriver à créer des interfaces ultra-réactives et personnalisées, avec un impact écologique acceptable, tout en garantissant la sécurité et la confidentialité des données. Tout un programme !

Andy rebondit :

— *Les agents autonomes, ce n’est pas moins compliqué  ! Construire un agent performant, ça suppose de comprendre, interpréter chaque site, chaque API, chaque format de données.**
*
Il s’appuie sur ses notes.

— Demain, l’agent devra orchestrer Uber, Booking.com, Google Agenda, ta banque, tes e-mails… Le tout, en temps réel, avec un niveau de sécurité digne d’une infrastructure critique.

Éthique et IA : concevoir les garde-fous du design génératif

Une femme qui regarde une image d'un air inquiet. L'image représente une femme assise derrière son ordinateur, tenant son porte monnaie, avec un air terrifiée. Un robot diabolique sort de l'écran de son ordinateur.

Evan observe les réactions :

— Et sur les enjeux éthique s? Ces technologies, on le sent, peuvent facilement déraper...

Clara acquiesce  :

— Effectivement, imagine une application qui détecte tes émotions à la caméra et qui déclenche des offres « doudou » quand tu es vulnérable. Un rêve pour beaucoup d’entreprises…

Elle rit, puis ajoute :

— Plus sérieusement, c’est pour ça qu’on doit intégrer en amont des garde-fous éthiques dans les systèmes génératifs. Chez nous, on expérimente les « ethical constraints » : empêcher la génération d’interfaces manipulatrices ou discriminantes. Mais auditer chaque interface unique , c’est un travail de dingue !

Andy renchérit :

— Pour les agents, c’est la même histoire, voir pire. Si ton assistant a accès à tout, il peut, mal intentionné, abuser de tes comptes, historiques, préférences… Un agent malveillant pourrait te ruiner.

Il sourit, cherchant les points positifs.

— Mais imagine aussi un agent qui repère tes achats compulsifs liés au stress, t’incite à faire une pause ou négocie tes abonnements périodiquement pour éviter les oublis coûteux… En tous cas, l’aspect éthique et humain, c’est le cœur de nos problématiques.

Il conclut, pensif.

— On fait plus d’ingénierie comportementale que jamais… On ne pense plus seulement des parcours, on anticipe et programme des comportements “intelligents”, tout en anticipant leurs dérives.

Vers une hybridation des modèles
Un homme et une femme se serrent la main, ils ont l'air apaisé. Au dessus d'eux flottent différents éléments : des ordinateurs, des téléphones, un petit robot.

L’animateur prend une mine plus solennelle :

— Alors ? GenUI ou Agentic Interface, qui semble avoir la faveur des utilisateurs?

Clara répond, diplomate :

— On va forcément vers une hybridation. GenUI pour la créativité, l’analyse, là où la richesse visuelle compte. Les agents, pour l’automatisation, la logistique, le transactionnel…

Elle imagine à voix haute.

— Tu dis « je veux refaire ma cuisine », ton agent récolte tes besoins, lance une GenUI pour visualiser, comparer les solutions, puis reprend la main pour commander, planifier les livraisons, coordonner les travaux…

Andy acquiesce avec enthousiasme :

— Exactement, de temps en temps l’agent matérialisera une interface temporaire pour une décision complexe, avant de redevenir invisible. L’enjeu, c’est que l’utilisateur garde la main – que l’IA soit vraiment au service de l’humain, pas l’inverse.

L’animateur sourit, satisfait :

— Un dernier conseil pour les designers qui nous écoutent ?

Clara articule, confiante :

— Il faut apprendre à penser « en systèmes », à croiser l’UX et l’IA, et à monter en compétences sur l’éthique et la data.

Andy rajoute, complice :

— Et surtout, testez, expérimentez, restez curieux. C’est en bougeant qu’on reste pertinent. Le design se réinvente, il faut courir devant !

Evan conclut, regardant la caméra :

— Merci Clara, merci Andy. Ce qui est certain c’est que GenUI ou Agentic Interfaces, dans cette nouvelle ère de l'expérience utilisateur, les interfaces, aussi invisibles qu'elles soient, doivent rester fondamentalement humaines.

Pour aller plus loin

  1. Generative UI and Outcome-Oriented Design l NNGroup
  2. What is Generative UI? l TheSys
  3. From Generative AI to Generative UI | Elsewhen
  4. Comet Browser: The Revolutionary AI-Powered Browser That Actually Does Your Work l DEV Community
  5. Unpacking Agent AI: Your New Digital Super-Assistant | Stackademic
  6. Le designer numérique de 2035 - OCTO Talks !