Marc Bojoly

Posté le 23/07/2012 par Marc Bojoly

Dans les SI traditionnels, les architectures de traitement de données structurées se sont généralement organisées en deux pôles distincts. Toutes les deux s’appuient certes sur une base de données relationnelle, mais avec des modèles et des contraintes propresD’un côté, le Transactional Processing (TP), à base de transactions ACIDDe l’autre la Busi...

Lire la suite >

Posté le 12/06/2012 par Marc Bojoly

DescriptionBien qu’invisibles depuis nos navigateurs des millions de serveurs fonctionnent continuellement pour que le web reste disponible 24h/24. Même si les chiffres restent confidentiels, un seul grand acteur du web peut nécessiter des dizaines, des centaines de milliers de machines comme EC2[1] voire aux alentours de 1 million chez Google[2]. ...

Lire la suite >

Posté le 09/05/2012 par Marc Bojoly

Dans tout système d’information, les données sont un actif important qu’il faut capturer, conserver et traiter de façon fiable et efficace. Là où un serveur central joue très souvent le rôle de gardien des données, la majorité des grands du web ont opté pour une autre stratégie : le « sharding » ou distribution des données [1].Le sharding décrit ai...

Lire la suite >

Posté le 26/04/2011 par Marc Bojoly

When writing a business application with persistent data, some auditing capabilities are often required. Today, state of the art for persisting data involves using an ORM tool through the JPA interface. Being able to add two columns containing the creation date and the update date is a common auditing requirement. My colleague Borémi and I have had...

Lire la suite >

Posté le 26/04/2011 par Marc Bojoly

Lorsqu'on écrit une application avec des données persistantes, il est souvent nécessaire de pouvoir réaliser de l'audit sur les modifications. Aujourd'hui, l'état de l'art pour la persistance des données se base sur des outils de type ORM à travers l'interface JPA en Java. Etre capable d'ajouter à chaque table la date de création et de dernière mis...

Lire la suite >

Posté le 23/03/2011 par Marc Bojoly, Olivier Mallassi, Rudy Krol, David Rousselie

Il y a une semaine, avait lieu la 5° édition de QCon, un événement incontournable pour l'architecture de SI, pour sentir les tendances de l'industrie, pour détecter quelques nouveautés. 6 tracks parallèles, un total de 90 sessions. Impossible de participer à tout mais voici ce que nous en avons envie de retenir :Des sujets d’actualité...voire innov...

Lire la suite >

Posté le 01/03/2011 par Marc Bojoly

Fin janvier j'ai assisté à la 9ème session du Paris Scala User Group dont l'invité était Martin Odersky, le père du langage Scala. Celui-ci nous a présenté le framework de collections de Scala et en particulier les nouveautés de la version 2.8. Le sujet était riche et instructif, et, en approfondissant mes notes, ce qui ne devait être qu'un compte ...

Lire la suite >

Posté le 15/11/2010 par Marc Bojoly

In April 2010, Google updated its indexing system. Caffeine - the name of this project - was pretty transparent for the large public but represents an in depth change for Google. It does not directly improve the search page, like instant search, but the indexing mechanism, the way to provide pertinent search results. For the end user, this change a...

Lire la suite >

Posté le 15/11/2010 par Marc Bojoly

En avril 2010, Google a mis à jour son système d'indexation. Caffeine - le nom de ce projet - est sans doute passé inaperçu pour le grand public mais il représente un changement profond pour Google. Il n'améliore pas directement la page de recherche, comme a pu le faire instant search, mais il améliore le mécanisme d'indexation, ce qui permet de fo...

Lire la suite >

Posté le 09/11/2010 par Marc Bojoly

Dans le premier article de cette série, j'ai introduit pourquoi le framework Hadoop peut être utile pour calculer la VAR et analyser les données intermédiaires. Dans le second, troisième et quatrième article j'ai détaillé deux implémentations concrètes du calcul de la VAR avec Hadoop. Ensuite dans le cinquième article, j'ai étudié comment analyser ...

Lire la suite >