scale

Archi & techno

Kubeflow: le ML industrialisé et à l’échelle dans Kubernetes

Pour les entreprises exploitant l’Intelligence Artificielle, bien maîtriser son intégration dans les écosystèmes de données reste un enjeu majeur. Parmi les défis à relever pour mettre en place l’IA de manière pérenne, l’industrialisation a su tirer son épingle du jeu pour devenir un élément indispensable d’une bonne intégration de l’IA en production. Dans cet article, nous vous proposons de vous tourner vers l’après industrialisation : le passage à l’échelle ! Cet article fait suite à plusieurs mois d’expérimentation de la solution Kubeflow permettant de déployer…

Lire la suite
Agile

Le portefeuille un organe de stratégie et de projection

Après des années de transformations agiles que ce soit au niveau des équipes ou des organisations, de plus en plus d’entreprises se tournent vers la gestion de portefeuille (sous plusieurs noms et formes). Les mises en place que nous observons sont souvent la réponse choisie pour faire de la priorisation opérationnelle de “projets” pour éviter la surcharge d’équipes et de budget. Trop souvent cette priorisation porte sur la maîtrise des coûts sans prise en compte de la stratégie globale et la valeur produite. Effectivement, les…

Lire la suite
Agile

Co-construction et évolution d’organisation – Comptoirs OCTO x pass Culture

La série de Comptoirs OCTO x pass Culture touche à sa fin ! Cet article vous fait faire un tour d’horizon de ce qui s’est passé, avec tous les liens pour visionner les replays et accéder au contenu. Afin d’introduire le sujet, le pass Culture est une mission de service public qui a pour but de renforcer et diversifier les pratiques culturelles des jeunes de 18 ans en leur donnant 500€ à dépenser dans la culture.  Comptoir #1 : Comment co-construire un produit à impact…

Lire la suite
Data

Machine Learning – 7 astuces pour scaler Python sur de grands datasets

Python est le langage privilégié chez les Data Scientists, notamment grâce à toutes ses librairies open-source et sa facilité de mise en production du code. Pourtant, à mesure que la volumétrie des données augmente, le passage à des paradigmes différents comme ceux de Spark et Hadoop est recommandé car plus scalable. Cependant, cela nécessite souvent de mettre en place une infrastructure et d’adapter son code. Voici quelques astuces qui permettent d’étendre l’utilité de Python pour des datasets de plusieurs gigaoctets dans un contexte mono-machine. 1…

Lire la suite