Emmanuel Lin Toulemonde

Posté le 25/01/2022 par Guillaume PIVETTE, Emmanuel Lin Toulemonde

“Make the flow of work visible through the value stream. Teams should have a good understanding of and visibility into the flow of work from the business all the way through to customers, including the status of products and features. Our research has found this has a positive impact on IT performance." Extrait de: Forsgren PhD. « Accelerate. »Cet ...

Lire la suite >

Posté le 06/07/2021 par Emmanuel Lin Toulemonde

« […] successful teams had adequate test data to run their fully automated test suites and could acquire test data for running automated tests on demand.In addition, test data was not a limit on the automated tests they could run. »Extrait de: Forsgren PhD. « Accelerate. »Cet article fait partie de la série “Accélérer le Delivery de projets de Mach...

Lire la suite >

Posté le 02/03/2021 par Emmanuel Lin Toulemonde, Maria MOKBEL

IntroductionEn développement logiciel et en Machine Learning, le travail en cours n’est pas aussi visible que dans une usine où l'on voit les pièces s'assembler et progresser d'une étape à l'autre. Ne pas voir le travail en cours peut nous empêcher de voir certains des points bloquants, de se projeter sur la quantité de travail bientôt terminé, d’a...

Lire la suite >

Posté le 13/01/2021 par Emmanuel Lin Toulemonde, Eric Biernat

Les 10 convictions qui, selon nous, permettent de réussir ses projets de data science en 2021. On vous donne nos astuces.

Lire la suite >

Posté le 09/09/2020 par Emmanuel Lin Toulemonde

Avant de déployer un nouveau modèle en production il est difficile de savoir précisément comment il va se comporter. La shadow production est une technique qui permet de se rassurer sur les performances du modèle avant de le déployer.Dans notre précédent article sur les alternatives aux monitoring de distributions, nous évoquions brièvement le conc...

Lire la suite >

Posté le 13/05/2020 par Emmanuel Lin Toulemonde

IntroductionEn phase de construction d’un modèle de machine learning supervisé, les data scientists évaluent la performance de leur modèle par rapport aux labels en utilisant une métrique (par exemple l’AUC). Cela leur permet d’avoir un a priori sur les performances du système qu’ils sont en train de construire.Cette évaluation n’est qu’un a priori...

Lire la suite >

Posté le 17/12/2019 par Emmanuel Lin Toulemonde, Mehdi Houacine

Lorsque l’on s'apprête à mettre (ou lorsque l’on a mis) un système de data science en production, on souhaite s’assurer qu’il fonctionne comme prévu. Pour cela, il convient de monitorer ce système intelligent.

Lire la suite >

Posté le 20/11/2019 par Emmanuel Lin Toulemonde

En mission, nous rencontrons de plus en plus des besoins d'interprétabilité. Ce changement est dû à une évolution de la maturité des organisations sur la data science.En caractérisant un peu le trait, hier les projets de data science étaient surtout marketing (Ex : prédiction d'appétence ou d’attrition à des fins de ciblage). Ils étaient faits à pa...

Lire la suite >

2