MLOps

Archi & techno

Quelle stratégie de découpage adopter pour un produit de ML maintenable dans le temps ? – Compte-rendu du talk de Pierre Baonla Bassom à La Duck Conf 2022

Avez vous déjà entendu l’histoire de Netflix, qui a dépensé énormément d’argent dans un super système de recommandation, mais qui n’a jamais été déployé car trop complexe ? Cette histoire n’est pas un cas isolé et se retrouve beaucoup plus souvent que vous ne le pensez. Entre les produits de ML qui ne sont jamais envoyés en production et ceux qui mettent 6 mois à être déployés, il y a une vraie perte de temps et d’argent lorsque les produits de ML ne sont pas…

Lire la suite
Archi & techno

Kubeflow: le ML industrialisé et à l’échelle dans Kubernetes

Pour les entreprises exploitant l’Intelligence Artificielle, bien maîtriser son intégration dans les écosystèmes de données reste un enjeu majeur. Parmi les défis à relever pour mettre en place l’IA de manière pérenne, l’industrialisation a su tirer son épingle du jeu pour devenir un élément indispensable d’une bonne intégration de l’IA en production. Dans cet article, nous vous proposons de vous tourner vers l’après industrialisation : le passage à l’échelle ! Cet article fait suite à plusieurs mois d’expérimentation de la solution Kubeflow permettant de déployer…

Lire la suite
Archi & techno

Le Feature Store, nouvel outil pour les projets data science

I) Quelles sont leurs origines, à quoi servent-ils et à qui sont-ils destinés ?  Une feature est une mesure d’une propriété d’une observation, plus prosaïquement, elle peut être l’âge d’un individu ou un mot extrait d’un texte. Les features, c’est l’or raffiné par les data scientists pour produire les modèles de machine learning. Fréquemment, les problèmes qui surviennent dans un projet data science sont liés à ces features : à leur qualité ou à leur disponibilité notamment. Un feature store est un point centralisé où…

Lire la suite
Bonne pratique

Amener son projet de machine learning jusqu’en production avec Wheel et Docker

Cet article propose d'explorer setuptools, Wheel et Docker afin de packager une application de Machine Learning pour détecter des muffins 🍪 ou des chihuhuas 🐶 dans une image, avec code a l'appui. Si packager du code de Machine Learning en Python est pour vous synonyme de demander à vos utilisateurs de cloner votre repository git sur leur machine, cet article devrait vous intéresser.

Lire la suite