Intelligence Artificielle

Le Reinforcement Learning from Verifiable Rewards entraîne les LLMs à optimiser plutôt qu'imiter. Sur des tâches vérifiables (maths, code), les modèles explorent et découvrent des stratégies émergentes. Guide complet: algorithmes GRPO/PPO, applications, environnements, limites et bonnes pratiques.

L’IA générative révolutionne la gouvernance de données : en automatisant la documentation des catalogues (glossaire, définitions, règles), elle libère les data stewards des tâches fastidieuses et accélère la mise à disposition de données fiables et gouvernées.

Considérés comme la nouvelle phase de la révolution de l’IA, les agents IA se déploient dans nos entreprises et s'immiscent dans notre quotidien. Mais que recouvre vraiment cette “agentivité” dont tout le monde parle ?

La méthode de Parameter Efficient Fine-Tuning (PEFT) révolutionne la personnalisation des modèles LLM. En ajustant uniquement une fraction de leurs paramètres, PEFT permet d'optimiser la performance des modèles existants de manière plus rapide et économique, sans avoir besoin d'un entraînement complet.

Découvrez comment déployer des modèles d’intelligence artificielle en local (Edge) dans l’industrie : autonomie, latence, sécurité et cas concrets.

L'intelligence Artificielle regroupe un ensemble de techniques sur lesquelles l'industrie peut s'appuyer pour se rapprocher de son optimum d'excellence opérationnelle. De l'IA oui, mais où ? A l'Edge ? Dans le Cloud ?

Depuis ChatGPT, les modèles de langage (LLMs) peinent à se connecter efficacement aux données et aux services. Le Model Context Protocol (MCP), inspiré du LSP, propose un standard ouvert et modulaire pour intégrer simplement APIs et ressources externes, ouvrant ainsi une nouvelle ère d’interopérabilité.
La Grosse Conf 2025 - Model Platform : Industrialiser et gouverner vos modèles à grande échelle
Data & AI
CR d'un des sujets de la Grosse Conf: La Model Platform. C'est une solution centralisée pour versionner, déployer, héberger et monitorer tous types de modèles.

Les applications basées sur les LLM deviennent de plus en plus nombreuses, complexes et critiques, il devient indispensable d’adopter une approche rigoureuse pour garantir leur bon fonctionnement et leur amélioration continue. L’observabilité et l’évaluation doivent être repensés pour s'adapter.