La School of Product 2025 - Talk d'Olivier Girardot - Construire un compagnon IA pour les hôpitaux
En ce moment, on parle d’IA partout et tout le temps, et on entend trop souvent que c’est la solution miracle à tous les problèmes. Pourtant, je reste persuadé que dans beaucoup de contextes, l’IA n’est pas LA bonne solution, du moins pas encore.
C’est ce que la conférence d’Olivier Girardot, CTO d’Arkhn, m’a rappelé avec force, en présentant le projet Arkhn Assistant : un compagnon IA dédié aux hôpitaux. Ce talk a résonné en moi car il incarne une démarche responsable, à la fois dans la protection des données sensibles et dans la vraie valeur métier rendue aux médecins et patients. Chez OCTO Technology, nous avons récemment lancé une tribu Produit & IA pour explorer et expérimenter ces sujets afin de nous forger des convictions solides dans ce domaine.
Vous pouvez regarder cette conférence ici :
Construire un compagnon IA pour les hôpitaux - Olivier Girardot
Résumé de la conférence et du projet
Arkhn, spécialisé dans l’entrepôt souverain de données de santé, a construit Arkhn Assistant, un compagnon IA générative directement intégré aux systèmes hospitaliers. Ce produit vise à alléger la lourde charge administrative des médecins en générant automatiquement des comptes rendus et en offrant un chat intelligent pour naviguer dans le dossier patient, tout en garantissant la souveraineté et la sécurité des données.
Comme le souligne Olivier Girardot :
“ L’IA générative est une opportunité, mais on ne peut pas transiger avec la souveraineté de la solution, avec la protection des données patientes “.
Dans un contexte réglementaire très strict pour le secteur Santé (IA Act, expliqué plus loin), la solution d’Arkhn mise sur une architecture respectueuse des données et une traçabilité systématique.
Quelques chiffres : ce projet a déjà permis d’analyser plus de 20 000 dossiers et améliorer la prise en charge, en ciblant un gain de 1 à 2 heures par jour sur les tâches administratives. C’est un cas d’usage pragmatique qui illustre bien la puissance — mais aussi les limites — actuelles de l’IA générative dans des contextes sensibles.
Et si nous pensions nos IAs responsables ?
Ce projet souligne l’importance d’une IA vraiment utile, dans un contexte actuel où la tentation
d’appliquer l’IA à tout prix et tous usages est forte, mais souvent peu pertinente.
Dans ce cas, je pense que c’est utile :
- pour augmenter le niveau de soin global dans les hopitaux
- pour soutenir les médecins en sous-effectif et qui enchaînent les patients à un rythme fou
- pour aider la recherche en facilitant l’analyse de diverses études ou prélèvements
Ainsi Olivier Girardot rappelle que dans le secteur hospitalier, l’IA doit avant tout répondre à un besoin très concret, qui est l’objectif principal du projet :
“Faire gagner 1 à 2 heures par jour aux médecins sur les tâches administratives, pour qu’ils puissent se concentrer sur le soin “.
L’intelligence artificielle responsable, ici, est un levier d’amélioration réelle de la qualité des soins et de la qualité de vie au travail des praticiens. Elle doit s’inscrire dans un cadre éthique rigoureux, avec une supervision humaine et une évaluation constante de son utilité et de ses impacts.
Cette approche rejoint les recommandations actuelles de la HAS (Haute Autorité de Santé) pour un usage responsable de l’IA générative, fondé sur la formation, la transparence, la vérification des résultats et la protection des données sensibles.
En termes de réglementation, le projet peut aussi s’appuyer sur les premières directives de l’AI Act, réglementation européenne récente visant à encadrer l’usage des intelligences artificielles, notamment en santé et dans le cas ou l’IA délivre un avis médical. L’AI Act, même si il apporte des contraintes fortes, protège les patients et apporte un socle pour garantir le déploiement responsable d’IA médicales.
L’IA, une question de confiance
Manipuler des données de santé sensibles impose une exigence majeure : la confiance. Et je pense que plus globalement c’est un sujet de fond quand on parle d’IA Générative : dans quelle mesure peut-on avoir confiance dans les résultats générés ?
Olivier Girardot insiste :
“Il faut garantir un sourcing systématique des informations, un contrôle très fin des droits d’accès et des scopes de données transmis à l’IA pour éviter toute fuite “.
Au-delà des aspects techniques, la confiance se construit aussi par une démarche d’auditabilité, de traçabilité, de certification, ainsi que par une communication transparente envers les utilisateurs et les patients. C’est une condition sine qua non pour que l’IA soit acceptée et adoptée durablement.
Cette dimension est au cœur des enjeux actuels, car les systèmes IA restent encore des boîtes noires avec des risques de biais et d’erreurs. La confiance dans l’IA est donc un sujet transversal, qui fait appel autant à la conception produit qu’à la gouvernance organisationnelle et réglementaire.
Des IA encore immatures, un marché en pleine effervescence
Enfin, ce talk illustre à quel point l’IA générative est à un stade où elle permet de prototyper et d’expérimenter beaucoup plus vite, mais reste très loin d’être un produit mûr ou stabilisé. Olivier Girardot analyse la situation en parlant du syndrome du “Plug and Pray”, où on branche ses données et on prie que ça fonctionne.
Les interfaces utilisateurs, la recherche de cas d’usages utiles, un usage raisonné entre performance / qualité et les modes d’interaction sont en perpétuel mouvement. Il s’agit encore de beaucoup tâtonner, d’intégrer les retours terrains, et parfois de « bricoler » pour ajuster et ajuster encore. Cette discipline est indéniablement en pleine explosion et tout le monde apprend en même temps qu’il cherche son modèle, propose des offres et expérimente sur ses produits.
C’est tout l’intérêt d’observer, expérimenter et apprendre collectivement, ce que notre tribu Produit & IA chez OCTO ambitionne également.
Pour aller plus loin, je vous propose 2 autres talks de cette année qui m’ont parlé particulièrement
=> Olivier Hamant, qui nous parle de Robustesse au lieu de performance : Lien vers la conférence YouTube d’Olivier Hamant
=> Tristan Nitot, qui évoque les impacts de l’IA et se demande si l’humanité a les moyens de s’offrir l’IA : Lien vers la conférence YouTube de Tristan Nitot
