Deep Learning
Détection d'anomalies visuelles automatique : faut-il apprendre du défaut ou de la normalité ?
Data & AI
Comment bien choisir son modèle de détection d'anomalie visuelles ? La réponse dépend du coût de vos erreurs. Cet article compare deux approches sur un cas industriel, et guide votre choix selon vos contraintes opérationnelles.
Vers un auto-hébergement des modèles VLM/LLM : étude empirique sur une infrastructure entrée de gamme, défis et recommandations
Data & AI
Ce papier évalue l'inférence d'un LLM (14B) et d'un VLM (7B) sur une NVIDIA T4. Avec 91% de succès sur 7310 requêtes, l'architecture prouve sa résilience malgré un matériel d'entrée de gamme. Une exploration entre coût, SLO et expérience utilisateur pour optimiser le déploiement de modèles auto-hébergés.

De 6 mois à 2 jours. De 100 000€ à 500€. Les LLM multimodaux (GPT-4 Vision, Gemini, Claude) révolutionnent l'OCR et l'extraction automatique de documents. Fini l'entraînement de modèles, les datasets annotés et les pipelines complexes. Un prompt et une image suffisent. Retour d'expérience sur projet IA RAD/LAD : CNI, RIB. Code et benchmarks inclus.

Et si l'article de blog devenait un dialogue ? Avec les LLM, un texte n'est plus un chemin imposé : c'est une cartouche de connaissances à interroger, synthétiser, transformer en podcast. Le même contenu s'adapte à chaque lecteur. Découvrez ce nouveau paradigme de lecture et d'écriture.

Comment entraîner une IA à détecter des défauts qu'elle ne voit presque jamais ? En industrie, les anomalies graves sont si rares qu'elles privent les modèles de matière d'apprentissage. La donnée synthétique offre une réponse inattendue : générer de faux défauts pour mieux reconnaître les vrais. REX sur la détection de soudures défectueuses.

Le Reinforcement Learning from Verifiable Rewards entraîne les LLMs à optimiser plutôt qu'imiter. Sur des tâches vérifiables (maths, code), les modèles explorent et découvrent des stratégies émergentes. Guide complet: algorithmes GRPO/PPO, applications, environnements, limites et bonnes pratiques.

La méthode de Parameter Efficient Fine-Tuning (PEFT) révolutionne la personnalisation des modèles LLM. En ajustant uniquement une fraction de leurs paramètres, PEFT permet d'optimiser la performance des modèles existants de manière plus rapide et économique, sans avoir besoin d'un entraînement complet.

Mistral AI dévoile son modèle de chat : rapide, open-source et performant. Découvrez les raisons techniques et stratégiques derrière son succès.
La Grosse Conf' 2025 - Transformer la gestion du savoir personnel et d’équipe à l’ère des LLMs
Data & AI
Avec l'explosion de l'IA et des LLMs, notre manière de gérer la connaissance, qu'elle soit personnelle ou collective, est en pleine transformation. Lors d'une récente présentation, Matthieu Lagacherie a exploré les enjeux et les solutions possibles pour mieux capter, organiser et exploiter l'information à l'ère de l'IA générative

Dans cet article nous partageons le talk donné par Philippe Prados à la Grosse Conf 2025, ayant pour sujet LangChain, son histoire et évolution, des bonnes pratiques pour travailler avec le framework, ainsi qu'un exemple de pourquoi il faut en explorer le code source.