
Ca y est, je suis revenu d’Inde ! J’y ai fait ma keynote d’ouverture d’Agile Tour Pune samedi 23 octobre – eh oui, en Inde, le samedi est un jour travaillé. Il y a d’autres différences énormes dans leur culture, qui changent tout pour la mise en place de l’Agilité. Lecteur, je voulais te parler des trois principales que j’ai observées.Le contexte… ...

Merci à Julien et Olivier qui ont présenté Spring Batch hier au JUG de Lausanne devant un public restreint mais avec beaucoup de discussions et de questions à la clef.Les slides de la présentation sont disponibles sur le site du JUGL : Rendez-vous le mois prochain pour parler de performance en Java avec Ludovic Poitou qui nous fera un retour d'expé...

Suite à un article paru dans La Tribune sur l’avenir des agences bancaires en France, nous avons souhaité rebondir sur cette problématique du monde de la banque de détail.En 2010, plusieurs signes permettent de dire que le modèle classique de l’agence bancaire du coin de la rue est en train de se faire bousculer. Il est désormais communément admis ...

Dans le premier article de cette série, j'ai introduit pourquoi le framework Hadoop peut être utile pour calculer la VAR et analyser les données intermédiaires. Dans le second, troisième et quatrième article j'ai détaillé deux implémentations concrètes du calcul de la VAR avec Hadoop. Ensuite dans le cinquième article, j'ai étudié comment analyser ...

In the first part, I described the potential interest of using Hadoop for Value At Risk calculation in order to analyze intermediate results. In the three (2,3, 4) next parts I have detailled how to implement the VAR calculation with Hadoop. Then in the fifth part, I have studied how to analyse the intermediate results with Hive. I will finally giv...

In the first part of this series, I have introduced why Hadoop framework could be useful to compute the VAR and analyze intermediate values. In the second part and third part and fourth part I have given two concrete implementations of VAR calculation with Hadoop with optimizations. Another interest of using Hadoop for Value At Risk calculation is ...

Dans le premier article de cette série, j'ai introduit pourquoi le framework Hadoop peut être utile pour calculer la VAR et analyser les données intermédiaires. Dans les second, troisième et quatrième articles j'ai donné deux implémentations concrètes du calcul de la VAR avec Hadoop ainsi que des détails d'optimisation. Un autre intérêt d'utiliser ...

In the first part of this series, I have introduced why Hadoop framework could be useful to compute the VAR and analyze intermediate values. In the second part and in the third part I have given two concrete implementations of VAR calculation with Hadoop. I will now give you some details about the optimizations used in those implementations.Writabl...

We were in London last week for the Droidcon 2010, a conference around Android and mobile development. It was a two-day event with a barcamp the first day and a more traditional conference the second day. Main topics were User Experience, Android development in general and a little about marketing. There were many topics during these two days but w...

Nous étions à Londres la semaine dernière pour la Droidcon 2010, une conférence sur Android et le développement mobile. C'était un événement de deux jours avec un barcamp le premier jour et une conférence plus traditionnelle le second jour. Les sujets principaux étaient l'expérience utilisateur, le développement Android de manière générale et un pe...