Deep Learning

Posté le 02/03/2026 par Théo Moreau

Comment bien choisir son modèle de détection d'anomalie visuelles ? La réponse dépend du coût de vos erreurs. Cet article compare deux approches sur un cas industriel, et guide votre choix selon vos contraintes opérationnelles.

Lire la suite >

Posté le 23/02/2026 par Karim Sayadi, Gireg Roussel

Ce papier évalue l'inférence d'un LLM (14B) et d'un VLM (7B) sur une NVIDIA T4. Avec 91% de succès sur 7310 requêtes, l'architecture prouve sa résilience malgré un matériel d'entrée de gamme. Une exploration entre coût, SLO et expérience utilisateur pour optimiser le déploiement de modèles auto-hébergés.

Lire la suite >

Posté le 03/02/2026 par Vinorth Varatharasan

De 6 mois à 2 jours. De 100 000€ à 500€. Les LLM multimodaux (GPT-4 Vision, Gemini, Claude) révolutionnent l'OCR et l'extraction automatique de documents. Fini l'entraînement de modèles, les datasets annotés et les pipelines complexes. Un prompt et une image suffisent. Retour d'expérience sur projet IA RAD/LAD : CNI, RIB. Code et benchmarks inclus.

Lire la suite >

Posté le 29/01/2026 par Aurélien Massiot, Teilo Millet

Et si l'article de blog devenait un dialogue ? Avec les LLM, un texte n'est plus un chemin imposé : c'est une cartouche de connaissances à interroger, synthétiser, transformer en podcast. Le même contenu s'adapte à chaque lecteur. Découvrez ce nouveau paradigme de lecture et d'écriture.

Lire la suite >

Posté le 27/11/2025 par Vinorth Varatharasan, Simon Calarn

Comment entraîner une IA à détecter des défauts qu'elle ne voit presque jamais ? En industrie, les anomalies graves sont si rares qu'elles privent les modèles de matière d'apprentissage. La donnée synthétique offre une réponse inattendue : générer de faux défauts pour mieux reconnaître les vrais. REX sur la détection de soudures défectueuses.

Lire la suite >

Posté le 24/10/2025 par Teilo Millet

Le Reinforcement Learning from Verifiable Rewards entraîne les LLMs à optimiser plutôt qu'imiter. Sur des tâches vérifiables (maths, code), les modèles explorent et découvrent des stratégies émergentes. Guide complet: algorithmes GRPO/PPO, applications, environnements, limites et bonnes pratiques.

Lire la suite >

Posté le 15/09/2025 par Jean-louis Debezia

La méthode de Parameter Efficient Fine-Tuning (PEFT) révolutionne la personnalisation des modèles LLM. En ajustant uniquement une fraction de leurs paramètres, PEFT permet d'optimiser la performance des modèles existants de manière plus rapide et économique, sans avoir besoin d'un entraînement complet.

Lire la suite >

Posté le 16/04/2025 par Wassim Labdi, Anas El Houdri

Mistral AI dévoile son modèle de chat : rapide, open-source et performant. Découvrez les raisons techniques et stratégiques derrière son succès.

Lire la suite >

Posté le 14/04/2025 par Michel Kaddouh

Avec l'explosion de l'IA et des LLMs, notre manière de gérer la connaissance, qu'elle soit personnelle ou collective, est en pleine transformation. Lors d'une récente présentation, Matthieu Lagacherie a exploré les enjeux et les solutions possibles pour mieux capter, organiser et exploiter l'information à l'ère de l'IA générative

Lire la suite >

Posté le 31/03/2025 par Axel De Labriffe, Philippe Prados

Dans cet article nous partageons le talk donné par Philippe Prados à la Grosse Conf 2025, ayant pour sujet LangChain, son histoire et évolution, des bonnes pratiques pour travailler avec le framework, ainsi qu'un exemple de pourquoi il faut en explorer le code source.

Lire la suite >