Deep Learning

Le Reinforcement Learning from Verifiable Rewards entraîne les LLMs à optimiser plutôt qu'imiter. Sur des tâches vérifiables (maths, code), les modèles explorent et découvrent des stratégies émergentes. Guide complet: algorithmes GRPO/PPO, applications, environnements, limites et bonnes pratiques.

La méthode de Parameter Efficient Fine-Tuning (PEFT) révolutionne la personnalisation des modèles LLM. En ajustant uniquement une fraction de leurs paramètres, PEFT permet d'optimiser la performance des modèles existants de manière plus rapide et économique, sans avoir besoin d'un entraînement complet.

Dans cet article, nous explorons Le Chat de Mistral, en abordant son lancement, ses fonctionnalités, l’architecture des modèles Pixtral/Mistral Large, l’impact de Cerebras, le rôle de Flux Pro dans la génération d’images et des exemples d’hallucinations. Un contenu accessible aux passionnés et curieux d’IA !
La Grosse Conf' 2025 - Transformer la gestion du savoir personnel et d’équipe à l’ère des LLMs
Data & AI
Avec l'explosion de l'IA et des LLMs, notre manière de gérer la connaissance, qu'elle soit personnelle ou collective, est en pleine transformation. Lors d'une récente présentation, Matthieu Lagacherie a exploré les enjeux et les solutions possibles pour mieux capter, organiser et exploiter l'information à l'ère de l'IA générative

Dans cet article nous partageons le talk donné par Philippe Prados à la Grosse Conf 2025, ayant pour sujet LangChain, son histoire et évolution, des bonnes pratiques pour travailler avec le framework, ainsi qu'un exemple de pourquoi il faut en explorer le code source.

Voici la deuxième et dernière partie d'un article s'attardant sur la vulgarisation des mécanismes et techniques qui sont derrière le modèle DeepSeek-R1.
Compte-rendu – Le Comptoir OCTO Données synthétiques : le nouveau carburant caché des modèles d'IA
Data & AI
Ce compte-rendu fait écho au replay vidéo du comptoir sur les données synthétiques, disponible ici, animé par Louison Roger (Senior ML Engineer @ OCTO), ainsi que André Amalor (Expert Données Synthétiques @ OCTO) qui sont intervenus sur plusieurs projets nécessitant l’usage de ces données synthétiques pour entraîner des modèles d’IA.

Voici la première des deux parties d'un article s'attardant sur la vulgarisation des mécanismes et techniques qui sont derrière le modèle DeepSeek-R1.

Dans cet article, nous allons découvrir comment l’alliance de modèles de machine learning, couplés à des méthodes d’optimisation, peut répondre à des problématiques complexes issues de processus réels, qu’ils soient physiques, chimiques ou industriels.

Dans ce talk de clôture de cette première édition de La Grosse Conf, Matthieu Lagacherie, lead architecte Data et violoniste, nous présente les différentes approches et algorithmes qui permettent à un·e musicien·ne d'utiliser l'IA comme outil d'aide à la création musicale, avec ses qualités et ses limites.