Réinventez la formation interentreprises avec OCTO Academy

Chez OCTO Academy, vous ne trouverez pas de formations sur étagères sans saveur.

Notre crédo : garantir l’excellence, la variété et l’adaptabilité de nos prestations.

 


NOS FORMATIONS PREMIUM : MARS – AVRIL


OFFICIELLES EN BIG DATA

- Formation officielle administrateur « Déployer & gérer un cluster Couchbase » : 9 – 12 mars
- Administrer la plateforme Hadoop 2.X Hortonworks9 – 12 mars

- Analyse de données pour Hadoop 2.X Hortonworks avec Pig & Hive16 – 19 mars 

- Développer des applications pour Hadoop 2.X Hortonworks avec Java23 – 26 mars 

- Développer des applications pour Hadoop 2.X Hortonworks sous Windows7 – 10 avril 

www.octo.academyacademy@octo.com – @OCTOAcademy
Lire la suite

Quel avenir pour la Data Science? Réalités et stratégie des entreprises

Les géants du web sont à l’origine de Big Data et demeurent une source d’inspiration inépuisable faisant rêver le Data Scientist au fond de chacun de nous.

Dernier exploit en date, l’algo de Google et Stanford capable de générer une légende à partir d’une image quelconque :

Bluffant.

Aussi passionnants qu’ils soient, ces progrès paraissent bien éloignés des préoccupations des entreprises qui nous entourent, et à raison. Les enjeux du marché Français dans les secteurs de la Banque ou de l’Industrie ne partagent que peu d’atomes crochus avec Google : battre l’ état de l’art de la vision artificielle de 2% ne bouleverse ni notre compréhension de Big Data, ni la définition de ce que sera demain une « Data Driven Company ».

Alors, quel avenir pour la Data Science? Difficile de répondre.

Quelle seront ses évolutions dans nos entreprises maintenant et pour les prochaines années? Voilà la question à laquelle nous allons nous intéresser. Lire la suite

OCTO Academy lance son offre de séminaires interentreprises

SéminaireLa digitalisation transforme l’écosystème d’une entreprise, l’amenant à repenser son modèle d’organisation, ses métiers et sa culture.
OCTO Academy propose un programme complet de séminaires inspirants permettant de préparer les entreprises aux impératifs et profonds changements du « tout digital ».

NOS SÉMINAIRES PREMIUM 2015

EN STRATÉGIE DIGITALE

 

- Les Géants du Web : culture – pratiques – architecture

- Transformation digitale : les opportunités de remodeler la chaine de valeur

- Big Data & Data Science : mythe ou réalité ?

Lire la suite

Quelles solutions pour sécuriser un Data Lake sous Hadoop ?

Après la plateforme de batch scalable, le Data Lake, cette notion selon laquelle toutes les données de l’entreprise devraient être déversées et stockées sans discernement dans un entrepôt commun — de préférence un cluster Hadoop — est devenu au cours de l’année, un nouvel élément central de la communication des éditeurs autour d’Hadoop.

Stocker de grands volumes de données dans un même cluster implique selon les industries, de faire cohabiter des données normales avec des données sensibles (données personnelles, données privées d’un client à qui on revend son service en marque blanche, …).

Par ailleurs le fait qu’un datalake ne soit pas qu’un simple stockage sur HDFS mais un ensemble de solutions de stockage co-localisées (Fichiers, SQL, NoSQL, Recherche) ne simplifie pas la problématique.

Du coup,  cette communication sur le Data Lake s’accompagne de plus en plus d’une communication axée sur la sécurisation d’Hadoop.

Mais où en est vraiment la sécurisation d’Hadoop ? Quelles options pour efficacement sécuriser un Data Lake ?

Lire la suite

Améliorer la performance des jobs Hadoop sur HDInsight

Cela fait quelque temps que j’expérimente des Tips & Tricks sur mes algos pour traiter de la data de façon performante et comme ça a été plutôt concluant dans mon cas, j’ai mis tout ça au propre pour les partager ici avec vous.

Les quatre optimisations que je présente ici vont faire passer le temps d’exécution de 45 minutes à moins de 3 minutes. La plus importante étant le passage d’un script Pig à un code MapReduce.
Lire la suite

Big Data et banque privée, quels usages ?

Article paru dans le magazine ICT Journal du mois de Mars 2014.

Les technologies Big Data sont de plus en plus utilisées au sein des banques de détail pour le profilage des clients ou les activités marketing. Au sein des banques privées, cependant, les applications sont moins évidentes et les initiatives peu nombreuses. Les opportunités existent pourtant bel et bien, et elles sont surprenantes.

Lire la suite

PFM : de la catégorisation aux BigData

Introduction

Depuis 3 ans on parle du PFM (Personal Finance Management; OCTO Assiste à Finovate) l’adoption est en progression constante mais reste au final timide. Alors que l’on espérait beaucoup de cette approche innovante de gestion de nos comptes bancaires, pourquoi n’y a-t-il pas un raz de marée sur cet usage. Aucune solution idéale ne semble se dégager des différentes approches. Eh bien, c’est qu’en fait il n’y en a pas.

En fonction des usages (ça y est le mot est lâché) plusieurs types d’interfaces du PFM sont utiles et nécessaires. Aux réunions design chez Linxo, où l’on décide des prochaines fonctionnalités à mettre en production, Bruno Van Haetsdaele (CEO de Linxo) est lui-même très étonné à quel point chaque personne conceptualise ses finances différemment. Les critères sont multiples : CSP, situation familiale, âge, relation à l’argent… Certains cherchent plus l’épargne et la vision de leur patrimoine et comment il évolue, d’autres sont plus tournés sur le budget et la gestion quotidienne avec des objectifs ou de la « gamification », ou encore les acheteurs compulsifs friands des offres promotionnelles ont parfois cruellement besoin qu’on les aide à piloter leur trésorerie ou à épargner, etc… Bref, il y a encore de la place pour de l’innovation.

Lire la suite

Analyse prédictive en temps réel : machine learning avec Storm et Scikit-Learn

Vous avez beaucoup de données, des technos de calcul distribué  à la mode et vous ne savez pas quoi en faire? Bienvenue dans l’écosystème Big Data.

 

Les technologies Big Data fleurissent et avec elles de nombreux enjeux architecturaux. L’un d’entre eux est notamment la difficulté à profiter des capacités de calcul pour réaliser des traitements statistiques sophistiqués. En effet le développement d’algorithmes de machine learning dans un contexte distribué voir incrémental est très complexe. De plus les analystes de données sont historiquement liés à des technologies telles que R, Matlab ou Python. Ces technos ne sont pas aisément parallélisables et ne font pas partie de l’univers Java, contrairement aux Hadoops, Storms, Sparks et consorts.

 

Dans cet article, nous allons étudier une piste pour réconcilier ces braves gens et nous intéresser à Storm et Scikit-Learn. Mais avant, quelques rappels.

  Lire la suite

Compte-rendu petit-déjeuner : Calculez vos indicateurs en temps réel, en partenariat avec EDF R&D

Intervenants :

Marie-Luce Picard, Chef de Projet à EDF R&D

Benoît Grossin, Ingénieur de Recherche à EDF R&D

Julien Cabot, Directeur du pôle Big Data Analytics chez OCTO Technology

Rémy Saissy, Architecte chez OCTO Technology

Les slides de la présentation sont disponibles sur notre Slideshare : cliquez ici.

Un compte-rendu du petit-déjeuner est disponible ici.

Lire la suite