TouchCamp

touchcamp
Octo a participé au premier TouchCamp qui a permis aux acteurs européens de Multi-touch de se rencontrer et présenter leurs travaux. C’est l’occasion de faire le point sur cette nouvelle forme d’interaction IHM : le multi-touch.


touchcamp1 touchcamp2 touchcamp3

handAujourd’hui l’essentiel de l’interaction homme machine passe par un clavier et une souris. Si le clavier exploite astucieusement les possibilités de nos mains ce n’est pas le cas de la souris qui se limite à une position sur une surface plane et à l’état d’un ou deux boutons. On est bien loin d’utiliser les formidables capacités de notre main : 5 doigts, 27 os, 24 muscles, 21 degrés de liberté et un sens très développé du toucher. Avouez que résumer cette anatomie complexe à quelques codes touches et une coordonnée XY est très réducteur. Cependant le succès de la souris à été immédiat pour une raison très simple : pour une fois l’interaction avec un ordinateur s’inspirait du monde réel. Il suffit de voir avec quelle rapidité un enfant de 5 ans apprend à maitriser sa souris, alors qu’il peinera pendant des années à utiliser le clavier. Sommes-nous condamnés à rester au stade de la souris? Mettez un iPhone dans les mains du même enfant et vous saurez que non.

L’enjeu de cette nouvelle forme d’interaction va au delà de la problématique du « toucher multiple ». En fait il s’agit de proposer aux utilisateurs des interactions bien plus tangibles qu’à l’heure actuelle. Cela passe par une exploitation plus ambitieuse de nos mains par les périphériques de saisie, mais aussi par une représentation plus naturelle des informations sur l’écran. Ainsi les scroll-bar disparaissent au profit d’un déplacement naturel du plan de travail. Les tableaux de données laissent place à de simples tas, ou à des ensembles dynamiques d’éléments. Le tri devient visuel et les éléments peuvent changer de forme selon leur contexte d’utilisation. C’est une véritable révolution de la représentation graphique des informations qu’est en train de provoquer le multi-touch. Et cette révolution touchera à terme également les interfaces que l’on utilise à la souris !

handboutonSur le plan technique le challenge est double. Tout d’abord il faut mettre au point une technologie qui allie productivité du développement et capacité à répondre aux défis graphiques qu’impose l’interaction gestuelle (mouvements, rotations, zooms, collisions, morphing…). Adobe et Microsoft sont sur les rails avec Flash/Flex/Air et Silverlight/WPF, mais il faudra encore du temps avant que les outils n’atteignent leur maturité. Le second challenge est la difficulté face à la page blanche. En effet, on se rend rapidement compte que les contrôles graphiques que nous avons l’habitude d’utiliser depuis des lustres sont presque tous inadaptés à ce nouveau contexte. Heureusement certains chercheurs (tels de Gilles Bailly) explorent les solutions, mais il restera aux ingénieurs à construire les frameworks techniques permettant d’exploiter toutes ces innovations.

Alors dans combien de temps pourrons-nous rejouer ces scènes, maintenant devenues célèbres, de Minority Report dans notre salon ou au bureau ? Apple (iPhone & MacBook) et Microsoft (Surface & Vista) avancent à grand pas et servent d’inspirateurs à l’ensemble de l’industrie. Mais quand on voit à quelle vitesse l’iPhone et le Wii ont profondément modifié le marché qu’ils visaient on peut s’attendre à une prise en conscience rapide. Et puis c’est également à nous : ergonomes, architectes et développeurs de participer au succès de cette mutation.

Les cadres d’utilisations du multitouch sont très larges. Vous connaissez probablement les démos de manipulations de photos. Mais voici quelques approches qui sortent de l’ordinaire :

L’approche sensorielle et artistique
Jimmy Hertz présentait la dalle tactile HOO sur laquelle coule littéralement de l’eau. Pour ma part j’ai trouvé que cette sensation de « mouillé » fait oublier que l’on est face à une dalle purement technologique. On se prend au jeu et cela renforce l’aspect ludique du dispositif.
h2o1 h2o2
L’approche manipulation direct d’objets
Certaines tables savent reconnaitre les objets que l’on pose sur elles (via un capteur infra rouge, une puce RFID ou tout simplement un code barre). Cette manipulation directe des objets renforce la tangibilité de l’interaction. Ils n’étaient pas au Touchcamp, mais vous pouvez jetez un coup d’oeil aux impressionnantes démonstations de la reactable
objects react

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *


Ce formulaire est protégé par Google Recaptcha