Les nouvelles architectures front Web et leur impact sur la DSI – partie 2

Dans la partie 1 de cet article, nous avons traité des nouvelles architectures front-end basées sur des applications Web massivement Javascript appelant des API offertes par un serveur back-end : les nouvelles architectures front Web et leur impact sur les DSI – Partie 1.

Nous avons vu qu’elles sont apparues ces dernières années grâce à l’augmentation des performances des navigateurs et à l’amélioration des outils d’industrialisation des développements Javascript.

Dans cette seconde partie, nous nous intéresserons aux raisons pour lesquelles on devrait choisir ces nouvelles architectures, aux opportunités qu’elles offrent, et aux conséquences sur les organisations des directions informatiques.

(Lire la suite…)

Les nouvelles architectures front Web et leur impact sur les DSI – Partie 1

Les applications Web évoluent. Depuis les premiers sites en HTML statique jusqu’aux applications AJAX de ces dernières années, en passant par les multiples technologies de sites Web dynamiques (PHP, ASP, Java, Rails…), les architectures applicatives et les outils pour les mettre en place connaissent régulièrement des avancées majeures et des points de ruptures.

Depuis deux ans, nous voyons venir une nouvelle vague technologique qui submerge le paysage des applications Web. Celle-ci n’a pas encore de nom bien défini comme ont pu l’avoir les RIA ou AJAX. Nous les appellerons les « architectures MV* côté client ».

Elles se constituent principalement de ce principe d’architecture : le serveur ne doit plus gérer l’affichage mais seulement envoyer des données brutes à afficher, et toute la génération des écrans et la gestion des interactions avec l’utilisateur doivent être géré côté client, c’est-à-dire dans le navigateur.

Dans ce billet, nous préciserons cette architecture et expliquer les raisons de son émergence. Dans un second billet, nous verrons pourquoi il est pertinent de les mettre en place dès aujourd’hui, les opportunités qu’elles offrent, et quels sont les impacts à prévoir pour les DSI.

(Lire la suite…)

Hadoop 2 en version stable : quel intérêt pour vous ?

Ca y est, Hadoop 2, ou plus précisément la 2.1.0 est passée en version « bêta ».

Et, plus intéressant, la sortie du four de la première version estampillée « stable », la 2.2.0, est maintenant officiellement prévue aux alentours de la mi-Septembre 2013.

Nous ne sommes plus qu’à quelques bugs d’Hadoop 2 !

Tout ça c’est très bien mais quel est vraiment l’intérêt de cette nouvelle version majeure pour un datalab, un cluster de production, un poc ?

Dans cet article, nous allons tâcher de balayer les différences majeures à connaître de cette version par rapport à Hadoop 1 dont nous avions jusque là pris l’habitude.

(Lire la suite…)

Introduction à Flume NG

Flume est une solution de collecte, aggrégation et transfert de gros volumes de logs. Il a été pensé pour gérer des débits importants avec une fonctionnalité native d’écriture dans HDFS au fil de l’eau. Pour gérer ces gros volumes/débits, il se doit d’être très scalable, et donc distribué. L’outil fait partie de l’écosystème Big Data open source Hadoop. Pour vous aider à le situer, ses alternatives sont Scribe et Chukwa pour les plus connus, et également Kafka même si ce dernier répond à d’autres problématiques de par sa nature (messagerie publish/subscribe).

Flume a récemment subit un lifting profond. Il aura fallu 1 an pour refondre son architecture depuis Août 2011 et réécrire certains de ses composants coeurs. Aujourd’hui, 6 mois après la première release stable, Flume NG (version 1.x) est fiable, performant, définitivement prêt pour la production. Bref il est temps de s’y pencher sérieusement. Je vous propose donc de brosser un tableau de la solution à travers ce billet, en regardant de près ses forces, mais aussi ses faiblesses…

(Lire la suite…)

Quelles interfaces pour les voitures de demain ? (3/3)

Après avoir étudié les différentes solutions techniques proposées par les constructeurs, les impacts sur l’ergonomie des applications, nous allons nous intéresser aux difficultés que doivent traiter les développeurs d’applications. (Lire la suite…)

Hadoop dans ma DSI : comment dimensionner un cluster ?

Ca y est, vous avez décidé de mettre en place un cluster Hadoop.

Prochaine étape, le dimensionnement… Hadoop étant une solution complexe, plusieurs questions se posent :

  • HDFS gère des réplicas, Map Reduce génère des fichiers, comment faire pour prévoir mon stockage ?
  • Comment prévoir mes besoins en CPU ?
  • Comment prévoir mes besoins en mémoire ? Faut il faire une distinction sur certaines parties du cluster ?
  • On m’a dit que Map Reduce déplace le code proche des fichiers… Concrètement, qu’est ce que cela implique pour prévoir mes besoins réseau ?
  • Dans quelle mesure les cas d’usages métier entre en compte dans le dimensionnement ?

C’est ce que nous allons tenter d’éclaircir dans cet article en fournissant des explications sur ces différents points ainsi que des moyens pour calculer vos besoins.

(Lire la suite…)

Quelles interfaces pour les voitures de demain ? (1/3)

Le nombre de voitures connectées devrait passer de 45 millions en 2011, soit 5 % du parc automobile mondial, à 210 millions en 2016 (18 % du parc). Sur cette période, ce marché passerait de 15 milliards de dollars à 40 milliards.

C’est un marché émergent à prendre en compte dès à présent, en anticipant sur les contraintes spécifiques à ces environnements.

Dans cette série d’articles, nous allons parcourir les différentes facettes des applications embarquées dans les véhicules. (Lire la suite…)

Banque de détail du futur : scénarios 2020

OCTO organise le mardi 27 mars 2012 à partir de 8h45 un petit-déjeuner gratuit, à Eurosites George V  « Banque de détail du futur : scénarios 2020 ».

Avec la participation de BNP Paribas Fortis, Friendsclear, ainsi que d’autres acteurs du monde bancaire.

Nous traversons une période paradoxale : confrontés à des innovations technologiques qui bouleversent nos organisations y compris dans le secteur bancaire traditionnellement prudent sur les effets d’annonces, et contraints par un rationnement budgétaire due à une crise financière sans précédent. Crise qui impose en plus de grands travaux en terme de gestion des risques et de reportings réglementaires réduisant d’autant la marge de manœuvre des DSI.

Dans ces conditions, l’espace alloué à l’innovation est limité. Il est donc nécessaire de choisir et c’est peut-être le grand avantage de cette crise : obliger nos entreprises à repenser leur orientation stratégique.

(Lire la suite…)

L’architecture d’entreprise : vision métier ou technologique?

J’entends souvent la question suivante : L’architecture d’entreprise (EA) doit-elle être centrée sur la vision Métier ou Technologique ?

On parle aujourd’hui de plus en plus régulièrement d’architecture Business et on réalise facilement l’amalgame avec l’EA.

L’architecture Business n’est qu’un domaine de l’architecture d’entreprise qui, pour reprendre la définition donnée par TOGAF, en comporte quatre (Business, data, application, technology). Elle adresse la stratégie Business, l’organisation, les Business process clés et les interactions entre ces éléments. L’architecture d’entreprise adresse également la couche technologique permettant de supporter l’architecture Business.

La notion de capacité (capability) que l’on retrouve dans TOGAF est ici intéressante :
(Lire la suite…)

Introduction à la Programmation Orientée Acteurs

Depuis le milieu des années 2000, l’augmentation de la puissance de calcul de nos ordinateurs ne passe plus par l’élévation de la fréquence des processeurs mais par la multiplication des cœurs de processeur au sein de nos machines.

Pour tirer parti de cette multiplication, un algorithme doit être parallèlisé, c’est à dire qu’il doit pouvoir diviser ses instructions et les répartir sur différents cœurs pour une exécution simultanée.
De nombreux outils permettent d’implémenter un algorithme parallèle sur une machine, par exemple la librairie Task Parallelism Library (TPL) en .Net, abordé par Olivier Roux et Alexis Flaurimont ou encore le fork/join en Java étudié par Marc Bojoly et David Rousselie.

D’autres outils, implémentant par exemple le pattern Map/Reduce, permettent de distribuer le calcul vers des cœurs situés sur différentes machines.

Cet article présentera une introduction à la programmation orientée acteurs et les réponses qu’elle apporte à ces différents problèmes. (Lire la suite…)