
What the f*** is a Groovy Minute?I am thinking about starting a new kind of post about Groovy. Publishing short articles on a regular basis where I will give some Groovy hints and try to exchange on Groovy code with others.That's what a "Groovy Minute" stands for, some Groovy minutes in your day-to-day work -and mine. Not sure at what pace I will d...

Ca y est, je suis revenu d’Inde ! J’y ai fait ma keynote d’ouverture d’Agile Tour Pune samedi 23 octobre – eh oui, en Inde, le samedi est un jour travaillé. Il y a d’autres différences énormes dans leur culture, qui changent tout pour la mise en place de l’Agilité. Lecteur, je voulais te parler des trois principales que j’ai observées.Le contexte… ...

Merci à Julien et Olivier qui ont présenté Spring Batch hier au JUG de Lausanne devant un public restreint mais avec beaucoup de discussions et de questions à la clef.Les slides de la présentation sont disponibles sur le site du JUGL : Rendez-vous le mois prochain pour parler de performance en Java avec Ludovic Poitou qui nous fera un retour d'expé...

Suite à un article paru dans La Tribune sur l’avenir des agences bancaires en France, nous avons souhaité rebondir sur cette problématique du monde de la banque de détail.En 2010, plusieurs signes permettent de dire que le modèle classique de l’agence bancaire du coin de la rue est en train de se faire bousculer. Il est désormais communément admis ...

Dans le premier article de cette série, j'ai introduit pourquoi le framework Hadoop peut être utile pour calculer la VAR et analyser les données intermédiaires. Dans le second, troisième et quatrième article j'ai détaillé deux implémentations concrètes du calcul de la VAR avec Hadoop. Ensuite dans le cinquième article, j'ai étudié comment analyser ...

In the first part, I described the potential interest of using Hadoop for Value At Risk calculation in order to analyze intermediate results. In the three (2,3, 4) next parts I have detailled how to implement the VAR calculation with Hadoop. Then in the fifth part, I have studied how to analyse the intermediate results with Hive. I will finally giv...

In the first part of this series, I have introduced why Hadoop framework could be useful to compute the VAR and analyze intermediate values. In the second part and third part and fourth part I have given two concrete implementations of VAR calculation with Hadoop with optimizations. Another interest of using Hadoop for Value At Risk calculation is ...

Dans le premier article de cette série, j'ai introduit pourquoi le framework Hadoop peut être utile pour calculer la VAR et analyser les données intermédiaires. Dans les second, troisième et quatrième articles j'ai donné deux implémentations concrètes du calcul de la VAR avec Hadoop ainsi que des détails d'optimisation. Un autre intérêt d'utiliser ...

In the first part of this series, I have introduced why Hadoop framework could be useful to compute the VAR and analyze intermediate values. In the second part and in the third part I have given two concrete implementations of VAR calculation with Hadoop. I will now give you some details about the optimizations used in those implementations.Writabl...

We were in London last week for the Droidcon 2010, a conference around Android and mobile development. It was a two-day event with a barcamp the first day and a more traditional conference the second day. Main topics were User Experience, Android development in general and a little about marketing. There were many topics during these two days but w...