Archi & techno

Archi & techno

Intégrer HashiCorp Vault aux services AWS

Après avoir jeté la PKI Vault sur le grill, nous regardons ici comment Vault peut s’intégrer dans l’environnement AWS.

Notre cas d’usage d’origine était basé sur Puppet et sur le déploiement des certificats par ses agents. J’ai choisi ici de refaire la démo de zéro en utilisant Terraform et Ansible pour des raisons pratiques. À cette différence près, il s’agit de la suite directe du premier article et je vous invite à le lire pour suivre celui-ci.

L’intégration de Vault aux services d’AWS peut se faire à trois endroits :

  • par le backend de stockage, sur S3 et/ou DynamoDB
  • par le backend d’authentification, en ségrégant l’accès aux API Vault qu’à certaines instances EC2.
  • par le secret backend, permettant à Vault de générer des credentials AWS à la demande (sous la forme de couples access_key et secret_key).

N’ayant pas eu l’usage du secret backend AWS, je n’aborde que les deux autres intégrations dans les lignes qui suivent.

Lire la suite

Archi & techno

DevoxxFR – Jour 1

Ayant eu la chance d’assister au premier jour de DevoxxFR 2017, je vous retranscris ma journée du mercredi. J’ai pu revoir les bases de la Data Science, découvrir les algorithmes génétiques et faire une petite passe sur Serverless.

Lire la suite

Archi & techno

5 services que systemd m’a déjà rendu

En un peu plus de 7 ans d’existence, systemd s’est peu à peu imposé comme le remplaçant par défaut du vieillissant init. On le trouve en effet installé et activé par défaut sur les distributions de Linux les plus couramment utilisées : Ubuntu depuis la 15.04, CentOS depuis la 7, et j’en passe…

systemd a fait couler beaucoup d’encre sur les forum de la communauté des utilisateurs de Linux, à tel point qu’un fork de Debian sans systemd a même été lancé à la fin de l’année 2014. Les raisons de ces débats sont multiples et parfois justifiées. Mais sans faire l’avocat du diable, je pense que pour beaucoup de détracteurs, systemd a surtout été une cause d’incompréhension : Lennart Poettering, l’initiateur du projet, a remis en cause l’un des fondements d’Unix.

L’objectif de cet article n’est aucunement tenter de convaincre le DevOps qui sommeille en chacun de nous que systemd est indispensable et qu’il serait une hérésie de s’en passer, mais plutôt de lister 5 cas d’utilisation de systemd qui peuvent être utiles lors d’un projet.

Lire la suite

Archi & techno

Les débuts du Quantum Computing à OCTO

Depuis le déménagement d’OCTO dans nos nouveaux locaux, au 34 avenue de l’Opéra, nous avons au sous-sol un des tout derniers prototypes d’ordinateur quantique.  Il s’agit bien d’un véritable calculateur quantique programmable, et pas juste d’un simple circuit de calcul quantique effectuant un calcul commandé par un ordinateur standard. Concrètement c’est un gros parallélépipède noir qui est essentiellement constitué d’un système de refroidissement pouvant aller jusqu’à des températures proches du zéro absolu, critique pour la production des Qbits.

Une équipe d’une vingtaine d’OCTO a été constituée pour faire un certain nombre d’expérimentations. Inutile de vous dire qu’il ne suffit pas de savoir faire du copier/coller de code php pour arriver à faire quoi que ce soit avec un ordinateur quantique !

Parmi les expériences que nous avons pu mener, nous avons appliqué des algorithmes quantiques sur les sources de Linux et y avons découvert 17 bugs, dont 3 vulnérabilités critiques. Citons également des techniques de recherche quantique dans une base de données qui renvoient les solutions de stockage et d’indexation actuelles aux oubliettes.

Mais nous avons aussi essayé d’utiliser le “monstre” pour répondre à nos propres problématiques. Par exemple, nous avons développé une application qui consiste à trouver le staffing optimal en temps sous polynomial par rapport au nombre de consultants. Du coup, depuis quelques semaines maintenant, nos clients ne se voient proposer qu’un seul consultant pour un besoin donné, pas besoin d’aller plus loin puisque le quantum computing a fait le choix optimal. D’ailleurs, les clients ne s’y trompent pas, quand on leur dit que c’est l’ordinateur quantique qui a fait la suggestion, ça coupe court à toute discussion.

Autre champ d’investigation (mais qui est toujours en cours) : nous avons bon espoir d’automatiser complètement le processus de sourcing et de recrutement des futurs Octos. Nous sommes capables d’identifier la présence d’un futur consultant Octo à partir de ses traces numériques, avant que la personne ne le sache elle-même. Ça fait un peu ambiance “ précogs” de Minority Report, mais c’est assez bluffant de s’imaginer une automatisation complète du recrutement et du staffing.

Prochaine étape, l’estimation de charge et de coût optimal pour tout projet de delivery significatif, en étendant la technique d’estimation en 3 points de PERT à une technique en n×m points, testant un grand nombre de scénarios optimistes et pessimistes reliés à un système de calcul de plausibilité ; promis, on vous tient au courant !

Archi & techno

Exemple d’utilisation de Prometheus et Grafana pour le monitoring d’un cluster Kubernetes

« Ce que je ne mesure pas ne m’appartient pas ». Ce célèbre adage nous a souvent été répété par l’un de nos clients. C’est d’autant plus vrai lorsqu’il s’agit des systèmes distribués et dynamiques qui peuvent s’avérer complexes à monitorer. Au travers de l’exemple de Kubernetes, voyons les limitations des solutions de métrologie historiques, les nouveaux enjeux à adresser et de quelle manière le couple Prometheus et Grafana tente d’y répondre.

Lire la suite