Call For Paper USI 2014 : envie de relever le défi ?

Comme la tradition le veut, chaque année nous offrons à notre communauté la possibilité de faire partie du programme officiel USI.

D’année en année, ce Call For Paper est un succès. L’an dernier nous avons, entres autres, reçu Gérard Le Lann (INRIA), Gil Tene (Azul Systems), David Gageot (Retour1024) ou encore David Mansy (Keytrade).

Nous avons décidé de perpétuer la tradition en ouvrant à nouveau notre programme.

LOGO-USI-horizontal
(Lire la suite…)

Les Géants du Web chez SFR : édition spéciale de notre ouvrage !

Il y a des jours comme celui-ci où nous sommes fiers d’être consultants. Fiers, et sincèrement contents, de constater que nos idées et nos intuitions sur l’avenir de notre métier trouvent résonance auprès de clients qui partagent notre vision de l’informatique !

Il y a un an, nous écrivions l’ouvrage “Les Géants du Web. Culture – Pratiques – Architecture” avec la conviction que leurs façons de faire – et leur culture – qui nous ont tant inspirées devraient être connues et adaptées dans les projets de nos clients.

(Lire la suite…)

Les méthodes ensemblistes pour algorithmes de machine learning

Lorsqu’il faut prendre une décision importante, il vaut souvent mieux recueillir plusieurs avis que de se fier à un seul. Utiliser un modèle de machine learning pour prédire un comportement ou un prix, c’est un premier pas. Mais agréger des milliers de modèles ayant des avis divergents mais pouvant être chacun spécialisés sur des parties de la data donne le plus souvent de meilleurs résultats. Nous parlons alors de méthodes ensemblistes, dont les plus connues sont le bagging et le boosting.
Afin d’expliquer ce type de méthode, considérons un problème simple, comme celui posé par le challenge Kaggle du Titanic « Who has survived ? »

(Lire la suite…)

Questions&Réponses Docker

Après la tenue de deux meetups Docker sur Paris, voici une série d’articles pour rentrer progressivement dans le sujet, en termes de technologies mais aussi d’usage. Car, s’il est bien des questions qui surgissent avec l’avènement de Docker, elles concernent avant tout les usages et les changements de perspectives dans la relation Dev / Ops, sujet qui nous est particulièrement cher…

Mais commençons par répondre à une première série de questions assez générales sur Docker, pour mieux comprendre son positionnement. La suite est à lire ici, en anglais.

PFM : de la catégorisation aux BigData

Introduction

Depuis 3 ans on parle du PFM (Personal Finance Management; OCTO Assiste à Finovate) l’adoption est en progression constante mais reste au final timide. Alors que l’on espérait beaucoup de cette approche innovante de gestion de nos comptes bancaires, pourquoi n’y a-t-il pas un raz de marée sur cet usage. Aucune solution idéale ne semble se dégager des différentes approches. Eh bien, c’est qu’en fait il n’y en a pas.

En fonction des usages (ça y est le mot est lâché) plusieurs types d’interfaces du PFM sont utiles et nécessaires. Aux réunions design chez Linxo, où l’on décide des prochaines fonctionnalités à mettre en production, Bruno Van Haetsdaele (CEO de Linxo) est lui-même très étonné à quel point chaque personne conceptualise ses finances différemment. Les critères sont multiples : CSP, situation familiale, âge, relation à l’argent… Certains cherchent plus l’épargne et la vision de leur patrimoine et comment il évolue, d’autres sont plus tournés sur le budget et la gestion quotidienne avec des objectifs ou de la « gamification », ou encore les acheteurs compulsifs friands des offres promotionnelles ont parfois cruellement besoin qu’on les aide à piloter leur trésorerie ou à épargner, etc… Bref, il y a encore de la place pour de l’innovation.

(Lire la suite…)

Petit-déjeuner : Nouvelles Architectures Web Front-End et APIs le 04 février

Dej Nouvelles Archis Web

Depuis deux ans, une nouvelle vague technologique submerge le paysage des applications Web : les architectures MV* côté client.

L’écosystème Web, enfin mature, offre l’opportunité d’avoir des interfaces riches et une meilleure expérience utilisateur grâce à la génération des écrans et la gestion des interactions côté client. En ne gérant plus l’affichage mais uniquement l’envoi des données brutes, le serveur se concentre sur des APIs métier mutualisables avec des applications mobiles notamment.

Venez découvrir au travers d’un retour d’expérience commun entre OCTO et ING Direct,  acteur majeur de la banque en ligne en France, la réalisation d’une des toutes premières WebApp mobile multi-plateformes dans le milieu bancaire reposant sur ces nouvelles architectures Web. (Lire la suite…)

BBL Getting Things Done – NOUVELLE FORMULE

Il y a plus d’un an, nous avions ouvert une de nos sessions de formation au format BBL sur GTD (Getting Things Done) à 5 participants externes.

Bilan : vous étiez 10 à venir nous rendre visite. Merci à vous !

Re-re-belote, nous la rejouons le mardi 21 janvier 2013 de 12h30 à 13h30. Même présentateur, même ambiance de folie, mais nouvelle formule !

Parce que le présentateur a basculé d’un iphone tout minuscule vers un magnifique Samsung Galaxy Note 3, il a dû adapter la partie outillage et la rendre bien plus croustillante.

Toujours ouvert à 5 personnes externes, les premiers seront les premiers ! Envoyez votre mail de motivation sans langage SMS à dalia@octo.com.

Tout le reste n’est que folklore et a déjà été décrit sur cet article de blog.

Pour les plus fainéants, les plus récalcitrants ou les plus numériques d’entre vous, vous pourrez suivre cette présentation en direct live sur tv.octo.com.

A bientôt !

 

Statistiques@OCTO, chapitre 1 : comparaison de populations.

Introduction

Cet article est le premier d’une série de communications, visant à partager les pratiques usuelles en statistiques et analyse de données au sein de la communauté OCTO. Chez OCTO, notre vocation est de faire de l’IT et des Big Data, mais il est important de savoir que beaucoup de concepts utilisés dans les algorithmes analytics avancés s’appuient sur des fondements statistiques classiques. Connaître ces fondements permet de mieux comprendre les implications (théories sous-jacentes, limites, etc.) des solutions analytics/Big Data. Par ailleurs, l’application directe de certaines méthodes statistiques permet de répondre aux besoins de certains de nos clients, alors pourquoi nous en priver ? Et oui, parfois nous avons affaire à des volumes de données limités, à des données bien structurées dans des fichiers propres… et dans ce cas, la statistique peut nous aider, alors profitons-en !

Dans cet article, nous proposons une introduction à la comparaison statistique de populations. L’objectif général est de tester si deux ou plusieurs échantillons proviennent d’une même population mère, pour une ou plusieurs variable(s) observée(s). Des ouvrages entiers sont dédiés à ce sujet. En conséquence, cet article ne vise pas à l’exhaustivité. Le but est plutôt de faire prendre conscience au lecteur des enjeux de la problématique de comparaison de populations et des réflexes à acquérir pour mener correctement ce type d’étude.

Pour cela, cet article s’articule de la façon suivante : tout d’abord, nous rappelons brièvement pourquoi la comparaison de populations reste un sujet pertinent dans un contexte Big Data. Ensuite, nous introduisons les grands principes de la comparaison de populations, basée sur la théorie des tests statistiques : cette théorie consiste à définir une hypothèse qui sera validée ou infirmée par le calcul d’une statistique de test. Nous montrons alors comment ces tests peuvent être mis en oeuvre dans un cadre paramétrique. Dans un premier temps, il faut être capable de bien comprendre le contexte du test (cas d’application et contraintes de mise en oeuvre), qui va nous amener à la sélection d’une statistique de test adaptée. L’enjeu pour le praticien se situe essentiellement à cette étape. A titre d’exemple, nous fournissons un aperçu de la diversité de statistiques de tests pouvant exister dans divers cas d’application. Cependant, une fois la statistique choisie, le calcul de la statistique et l’acceptation ou le rejet de l’hypothèse du test se fait aisément grâce aux suites logicielles disponibles, comme nous le montrons dans la dernière partie de cette article.
(Lire la suite…)

PerfUG: Trouvez les problématiques de performances avec JProfiler

Le PerfUG vous présente ses meilleurs voeux pour 2014 et vous donne rendez-vous dès le 23 janvier. A cette occasion nous recevrons Brice Leporini et Florent Ramière qui viendront nous parler de JProfiler.

Pour cela, nous avons une belle application qui rame à souhait: elle présente un florilège de pas mal de galères rencontrées sur les projets sur lesquels nous errons.
Tu es déjà en train de te dire que ça te fait penser à un projet qui a croisé ton parcours il n’y a pas si longtemps que ça!
Ta mission, si tu l’acceptes, est de chasser les coupables et de soumettre tes recommandations.

Ton arme: JProfiler.
Sans maîtrise, la puissance n’est rien”: notre rôle est de t’accompagner dans la découverte de l’outil et de valider tes hypothèses au fil de l’eau.
Rejoins nous avec ton laptop pendant cet atelier et tu seras surpris de la vitesse à laquelle JProfiler te – car c’est toi qui va bosser – permet d’identifier les zones de contentions quelles que puissent être leur nature.

Pour le descriptif complet de la séance, suivez le lien.

L’événement aura lieu le Jeudi 23 Janvier. Pour s’inscrire, c’est sur Eventbrite.

L’art du benchmark

Un benchmark comparant JavaEE et NodeJS a récemment causé un certain émoi sur la toile. J’ai été surpris des résultats et me suis mis en tête de le reproduire pour vérifier une intuition. L’article est, de plus, enrichi de plusieurs commentaires intéressants qui méritent eux-mêmes d’être commentés. Tout ceci m’amène au présent billet.

Qu’est-ce qu’un benchmark? Le benchmark est la mesure des performances d’une application. Nous tentons de reproduire en laboratoire une utilisation normale de l’application. Si vous demandez aux experts, ils vous diront qu’un benchmark est un outil extrêmement dangereux dont les résultats sont presque toujours faux. C’est, à mon point de vue, légèrement exagéré, mais pas complètement faux non plus comme nous verrons plus bas.

Une chose est sûre, quelques précautions sont toutefois nécessaires pour ne pas avoir de surprise plus tard. Par exemple:

  • Avoir une volumétrie de base de données similaire à la cible
  • Avoir une hétérogénéité des données représentatives. En particulier pour des problématiques de cache
  • Une infrastructure proportionnelle à la cible

À noter, contrairement à la croyance populaire, les benchmarks sont généralement optimistes. Si vous avez de mauvais temps de réponse lors du benchmark, il y a fort à parier que ça ne s’améliorera pas en production. C’est donc de l’inverse qu’il faut se méfier. De bons temps de réponse lors du benchmark ne sont pas une garantie de bons temps de réponse en production si le benchmark n’a pas été bien fait.

Un autre point intéressant est (Lire la suite…)