Eric Biernat.
Eric Biernat est directeur chez Octo Technology et y dirige l’activité Intelligence Artificielle. Depuis 2011, il est l’un des guides du mouvement Big Data Analytics et accompagne ses clients voulant tirer parti de l’intelligence artificielle. Il est le co-auteur du livre primé Data Science: fondamentaux et étude de cas. Eric Biernat participe à de nombreuses conférences et comités dont l’Académie des technologies.
Eric Biernat ouvre la journée de la Grosse Conf. avec sa vision des évolutions à venir et nécessaires de l’Intelligence Artificielle. Il démarre son exposé avec une scène du film “Rencontres du troisième type” de Steven Spielberg où on entend les 5 fameuses notes écrites par John Williams. La musique est, dans le film, interprétable comme une passerelle entre des civilisations qui n’ont aucune base commune de communication. La référence au film jalonne le talk qui, sur un ton futuriste, développe les points communs et de divergence entre la rencontre de l’artificiel et du naturel. L’intelligence artificielle est une nouvelle espèce dont l’arrivée sur terre suscite bien des débats techniques, scientifiques, éthiques, philosophiques et même spirituels. Ces débats sont parfois très polarisés, et se cristallisent souvent autour de la consommation énergétique. Eric Biernat va plus loin : il existe entre le naturel et l’artificiel deux points de rencontre. Nous devons maintenant nous atteler au développement du troisième point de rencontre pour réellement déverrouiller la puissance de cette technologie! A nous d’y travailler!
Affiche du film “Rencontres du troisième type” de Steven Spielberg
Le comportement des bancs de poissons inspire les dispositifs de conduite autonome
Eric Biernat termine avec deux images fortes : Kasparov qui est battu aux jeux d’échecs par un super ordinateur IBM (Deep Blue) en 1996 et Lee Sedol battu au jeu de go par AlphaGo de GoogleDeepmind en 2016, avec ce même sentiment d’émotions partagés : on est ébahi et résigné. Excité et stressé face aux avancées fulgurantes de l’IA.
Malgré l’engouement et parfois la peur que peut susciter cette nouvelle technologie, il s’agit de se poser les bonnes questions. “Le résultat est là, mais à quel coût ?”. Eric Biernat l’affirme : il n’y a pas de point de rencontre sur les moyens mis en œuvre :
La backpropagation est aussi évoquée, symbole du gouffre abyssal entre l’apprentissage naturel et artificiel. la backpropagation - méthode d'entraînement des réseaux de neurones - qui motive de nombreux sujets de recherche.
Récemment, Yoshua Bengio et Geoffrey Hinton ont développé une thèse critique sur la backpropagation et montré en quoi elle participe à creuser l’écart entre le naturel et l’intelligence artificielle. Parmi les problèmes remontés, on citera “the target problem”. Le mécanisme d’apprentissage chez l’humain est encore peu connu, mais il n’est pas fondé sur un entraînement supervisé comme pour l’intelligence artificielle. On n’apprend pas à reconnaître un chat en observant 50 photos de chats sous toutes ses formes. On peut également rappeler qu’alors que la backpropagation implique une connexion symétrique entre les neurones pour passer le signal dans des directions réversibles, les connexions entre les neurones du cerveau ne fonctionnent pas ainsi. Pour plus d’informations à ce sujet, la lecture de ce papier de recherche “Backpropagation and the brain” de T. Lillicrap, A. Santoro, L. Marris, C. Akerlman et G. Hinton ainsi que cette vidéo de Yannick Kilcher qui l’explique, sont instructives.
Eric Biernat conclut : ”Plus on cherche à avoir des résultats proches de la nature, plus on creuse l’écart”. Pour tenter d’expliquer cette situation, il évoque quelques “coupables” : Turing et son jeu de l’imitation qui se focalise uniquement sur le résultat, sur l’interaction et jamais sur les moyens mis en oeuvre, ou encore la recherche en IA, où l’écrasante majorité des publications fait la part belle à la performance , sans jamais prendre en compte des contraintes de moyen.
Enfin, Eric Biernat évoque l’obsession de l’ingénieur à rendre la nature “programmable” : “Dans tous les processus informatiques (un mail, une communication zoom, le fait de jouer en réseau, etc.), si on va suffisamment profond, il y a bien un déplacement d’électrons, d’ondes électromagnétiques, des équilibres qui se font dans un circuit électronique. Ces déplacements, ces équilibres se font de façon optimale mais cette couche fondamentale n’est pas facile à canaliser, à utiliser, à programmer pour ne pas dire exploiter.”
L'informatique est finalement une couche au-dessus de ces phénomènes physiques. L’informatique - à l’opposé de la physique - est relativement facile à manipuler et, ajoute le côté déterministe bien commode pour un système d’informations. Il est évidemment plus aisé de réaliser un code python que de faire l’usinage et la programmation de circuits électroniques en minimisant les incertitudes du monde analogique. Mais cette couche de programmation bien commode nous a une nouvelle fois éloignés de la nature et de son efficacité.
La question est alors l’architecture de l’IA : “Est-ce qu’on a forcément besoin de repartir de cette couche informatique pour bâtir l’IA au-dessus de ça ? Est-ce que, quand on fait de l’IA, on ne manipule pas déjà des incertitudes ?” Les pistes de réflexion proposées par Eric Biernat sont les suivantes :
L’analogique pourrait être le nouveau graal de l’IA efficiente en visant un lien direct entre la physique et les données d’entrées - par exemple des données d’entreprise.
Pour conclure, Eric Biernat rappelle que les deux premières rencontres entre l’artificiel et le naturel ont tout de même donné des LLMs épatants par leurs résultats, mais parfois angoissants, car peu explicables et très énergivores. Afin de répondre à ces deux problématiques, la vision proposée n’est pas celle de la frugalité, mais plutôt celle de la rencontre entre les écolos et les technophiles. L’IA de demain devra être à la fois plus performante et plus efficace.
Et qu’en est-il de chacun d’entre nous? Nous avons un rôle à jouer vis-à-vis de cette technologie. “Soyons exigeants” : en tant qu’utilisateurs, c’est à nous de guider l’IA vers un développement éthique et durable. Cette révolution est suffisamment bouleversante pour être l’occasion de questionner son usage, de pousser son progrès dans une direction responsable pour la société, et pourquoi pas même de faire le nettoyage dans nos propres processus et organisation pour les rendre plus vertueux. C’est l’occasion de montrer que les fameuses raison d’être, qui ont fleuri un peu partout dans l’entreprise, sont réellement sincères.