Auteur: Joseph Glorieux

Évènement

Afterwork à Genève le 2 juillet : Agilité & top management, une thérapie pour leurs principaux challenges ?

Entr_agilemailing

Le CEO conference board a publié, comme chaque année, le podium des challenges que les exécutifs européens pensent devoir adresser en 2014.
Passée la surprise de ne pas trouver en tête les grands classiques tels que l’optimisation de la relation client ou la gestion des risques économiques & politiques, on se surprend à découvrir un podium ressemblant à s’y méprendre au portrait chinois d’une entreprise agile : la qualité d’exécution, le management de l’innovation et le développement du capital humain. Lire la suite

Méthode

Déployer l’agile à large échelle, c’est jouer sur les frontières de l’entreprise

Passées les premières expérimentations des méthodes agiles au sein de l’entreprise avec un succès que l’on va qualifier de variable, d’aucuns se posent la question de comment aller plus loin, voire comment envisager une entreprise agile.
Tous les architectes techniques vous le diront, il existe deux types de scalabilité quand on parle de serveur : la scalabilité verticale (augmenter les capacités du serveur) et horizontale (distribuer sur plusieurs serveurs). Il peut être intéressant d’utiliser cette métaphore lorsque l’on parle de diffuser l’agile plus largement.

Lire la suite

Archi & techno

Retour aux bases avec l’UDD : pour construire une Business Intelligence de qualité, agile et industrielle

A l’heure de la Business Intelligence 2.0 et 3.0, je suis d’accord que le titre de ce billet n’est pas très vendeur. Cependant, il est encore difficile d’attribuer ces 3 qualités à nos systèmes décisionnels, c’est pourquoi j’aime à croire que le sujet reste d’actualité.

L’objectif de ce post n’est pas de résoudre tous les problèmes des systèmes décisionnels  mais de formuler une proposition qui a le mérite de fournir un premier pas pour tendre vers ces 3 qualités simultanément.

Tout d’abord, pour éviter les incompréhensions, j’aimerais définir un peu les 3 qualités susnommées. Lire la suite

Archi & techno

BI Self-service, c’est le moment d’y aller, reste à savoir comment…

De toutes les thématiques associées à la business intelligence, on peut dire que la BI self-service a le vent en poupe. Poussée initialement par des éditeurs recherchant une rupture (QlikTech, Tableau software…), ce terme est aujourd’hui largement repris par les analystes jusqu’à devenir un des sujets de préoccupation majeurs des responsables du décisionnel (peut-être que la pression des  utilisateurs a joué aussi).

Lire la suite

Archi & techno

Construisez votre offre de service décisionnelle

En 2001, en travaillant dans un BICC (BI Competence Center), j’entamais une réflexion avec mon client sur la définition de l’offre de service que devait porter le BICC vis-à-vis des différents métiers demandeurs de solution décisionnelle. Ce travail nous avait alors permis, sur la base de l’identification et la classification des grands besoins de nos utilisateurs, de proposer une matrice de décision aiguillant les projets vers la solution la plus adéquate (2 architectures et 3 solutions logicielles différentes à l’époque). C’était intéressant et innovant à l’époque même si le champ des possibles était encore assez restreint. Lire la suite

Archi & techno

Etat de l’art : Business Intelligence en 2013

Big data, dataviz, NoSQL, virtualisation de données, agile, appliance, selfservice BI… Finalement, cela en fait des buzzword associés à la Business Intelligence et à nos architectures décisionnelles !

Il est facile de comprendre la difficulté à se positionner dans ces environnements en tant que responsable du décisionnel dans une entreprise. Lire la suite

Archi & techno

L’évolution des architectures décisionnelles avec Big Data

Big data, l’envers du décor

Nous vivons une époque formidable. En revenant un peu sur l’histoire de l’informatique, on apprend que les capacités que cela soit de RAM, disque ou CPU sont de grands sponsors de la loi de Moore au sens commun du terme (« quelque chose » qui double tous les dix-huit mois). Ces efforts seraient vains si les prix ne suivaient pas le phénomène inverse (divisés par 200 000 en 30 ans pour le disque par exemple).

Exposé comme cela, on se dit que nos envies ne peuvent connaitre de limite et qu’il suffit de changer la RAM, le disque ou le CPU pour prendre en charge l’explosion du volume de données à traiter qui globalement suit bien la loi de Moore aussi.

Figure 1 Evolutions hardware, 2011, http://radar.oreilly.com/2011/08/building-data-startups.html

Lire la suite

Archi & techno

OLAP est mort, vive …

Derrière cette accroche un peu provocatrice se cache un constat doux-amer pour une technologie que certaines personnes n’hésitent plus à qualifier aujourd’hui de « legacy »

 

Mais commençons par le début : le pourquoi de l’OLAP (Online Analytical Processing)

Issu des années 90, OLAP et pour être plus précis son implémentation sous forme de cube, est une réponse du système d’information décisionnel proposant d’adresser, entre autres, 2 enjeux des systèmes décisionnels coté  restitution :

– les performances : c’est bien beau d’avoir des centaines de millions d’enregistrements dans mon datawarehouse, encore faut-il pouvoir les interroger…

– l’accessibilité des informations à des non-informaticiens : si je suis allergique aux SQL et aux L4G, je fais comment pour accéder à mes données…

Sur l’enjeu de la performance, les cubes de type M-OLAP ou H-OLAP (pour les acronymes : c’est ici) permettent de répondre à cette problématique car ces solutions stockent une partie ou la totalité des résultats susceptibles d’être demandés par les utilisateurs.

Concernant l’accessibilité, qui n’est pas tombé amoureux des fonctionnalités de drill-down/drill-up avec un simple clic quand il a été confronté  à son premier cube (je me souviens encore avec nostalgie de mon premier cube SAS…)

 

Mais qu’en est-il de ces enjeux aujourd’hui?

Lire la suite