Deep Learning

Comment entraîner une IA à détecter des défauts qu'elle ne voit presque jamais ? En industrie, les anomalies graves sont si rares qu'elles privent les modèles de matière d'apprentissage. La donnée synthétique offre une réponse inattendue : générer de faux défauts pour mieux reconnaître les vrais. REX sur la détection de soudures défectueuses.

Le Reinforcement Learning from Verifiable Rewards entraîne les LLMs à optimiser plutôt qu'imiter. Sur des tâches vérifiables (maths, code), les modèles explorent et découvrent des stratégies émergentes. Guide complet: algorithmes GRPO/PPO, applications, environnements, limites et bonnes pratiques.

La méthode de Parameter Efficient Fine-Tuning (PEFT) révolutionne la personnalisation des modèles LLM. En ajustant uniquement une fraction de leurs paramètres, PEFT permet d'optimiser la performance des modèles existants de manière plus rapide et économique, sans avoir besoin d'un entraînement complet.

Dans cet article, nous explorons Le Chat de Mistral, en abordant son lancement, ses fonctionnalités, l’architecture des modèles Pixtral/Mistral Large, l’impact de Cerebras, le rôle de Flux Pro dans la génération d’images et des exemples d’hallucinations. Un contenu accessible aux passionnés et curieux d’IA !
La Grosse Conf' 2025 - Transformer la gestion du savoir personnel et d’équipe à l’ère des LLMs
Data & AI
Avec l'explosion de l'IA et des LLMs, notre manière de gérer la connaissance, qu'elle soit personnelle ou collective, est en pleine transformation. Lors d'une récente présentation, Matthieu Lagacherie a exploré les enjeux et les solutions possibles pour mieux capter, organiser et exploiter l'information à l'ère de l'IA générative

Dans cet article nous partageons le talk donné par Philippe Prados à la Grosse Conf 2025, ayant pour sujet LangChain, son histoire et évolution, des bonnes pratiques pour travailler avec le framework, ainsi qu'un exemple de pourquoi il faut en explorer le code source.

Voici la deuxième et dernière partie d'un article s'attardant sur la vulgarisation des mécanismes et techniques qui sont derrière le modèle DeepSeek-R1.
Compte-rendu – Le Comptoir OCTO Données synthétiques : le nouveau carburant caché des modèles d'IA
Data & AI
Ce compte-rendu fait écho au replay vidéo du comptoir sur les données synthétiques, disponible ici, animé par Louison Roger (Senior ML Engineer @ OCTO), ainsi que André Amalor (Expert Données Synthétiques @ OCTO) qui sont intervenus sur plusieurs projets nécessitant l’usage de ces données synthétiques pour entraîner des modèles d’IA.

Voici la première des deux parties d'un article s'attardant sur la vulgarisation des mécanismes et techniques qui sont derrière le modèle DeepSeek-R1.

Dans cet article, nous allons découvrir comment l’alliance de modèles de machine learning, couplés à des méthodes d’optimisation, peut répondre à des problématiques complexes issues de processus réels, qu’ils soient physiques, chimiques ou industriels.