
Cet article est le troisième et dernier de la série sur Pulumi et les Cloud Native Languages. Après nos expérimentations avec Kubernetes, il est temps de s’intéresser au déploiement d’une application Serverless.
Lire la suiteCe site web stocke des informations vous concernant via le dépôt de cookie afin de mesurer l’audience du site. Ces données de navigation sont anonymisées.
En cliquant sur « OK pour moi », vous manifestez votre consentement pour le dépôt de ces cookies.
Sur ce site, nous utilisons des cookies pour mesurer notre audience, entretenir la relation avec vous et vous adresser de temps à autre du contenu qualitif ainsi que de la publicité. Vous pouvez sélectionner ici ceux que vous autorisez à rester ici.
Cet article est le troisième et dernier de la série sur Pulumi et les Cloud Native Languages. Après nos expérimentations avec Kubernetes, il est temps de s’intéresser au déploiement d’une application Serverless.
Lire la suiteGrâce au premier article de la série, le fonctionnement interne de Pulumi n'a plus de secret pour nous. Il est désormais temps de s’intéresser à son utilisation au travers d’un premier exemple concret. Nous allons découvrir comment Pulumi peut à la fois faciliter le déploiement d’un cluster Kubernetes mais aussi le déploiement des ressources à l’intérieur d’un cluster. Nous serons donc dans une approche plutôt orientée infrastructure pure.
Lire la suiteLe déploiement dans le cloud des multiples briques distribuées qui constituent une application cloud native est une tâche complexe. Les Cloud Native Languages dont fait partie Pulumi existent avant tout pour faciliter les déploiements dans le cloud. Cet article permet de découvrir de quelle manière Pulumi amène la force des langages de programmation dans le monde de l’Infrastructure as Code.
Lire la suiteLe serverless apporte de nombreux bénéfices pour le déploiement d’applications web comme l’autoscaling, la disponibilité et le fait d’avoir une granularité très fine sur les coûts (facturation aux 100ms pour AWS lambda). Et bien entendu l’absence de gestion des serveurs (installations, patches,...). Cet article a pour objectif de faire un état des lieux sur le cold start et le warm call avec AWS Lambda pour différentes implémentations de code, tout en s’appuyant au maximum sur des mesures. Le serverless est un terme ambigu qui laisse…
Lire la suiteDepuis 2015, le serverless ne cesse de prendre de l’ampleur. Un indicateur de cette expansion est la multiplication des providers serverless (AWS lambda, Google cloud function, Azure function, IBM openwhisk, etc.). Cet article n’a pas vocation à présenter ce qu’est le serverless, mais à démontrer comment une application web peut être hébergée sur le cloud AWS avec le service lambda, en lieu et place d’un hébergement sur un serveur d’application traditionnel.
Lire la suiteDepuis plusieurs années déjà, le concept d'IoT est sur le devant de la scène. Depuis 3 ans, le marché a émergé et des premiers exemples concrets sont là. Paris Aéroport modélise le comportement des passagers dans les terminaux grâce aux caméras de surveillance dans le projet Vasco. CMA-CGM a équipé ses conteneurs de capteurs. De plus en plus d'objets du quotidien deviennent connectés (ampoules, thermostats, ...). Les assistants vocaux virtuels ont déferlé dans les foyers à l'occasion des fêtes de fin d'année. D’un point de…
Lire la suiteDu 5 au 7 Mars, nous sommes allés en Angleterre pour assister à la célèbre QCon de Londres, rendez-vous annuel dédié aux développeurs, organisé par le site InfoQ. La conférence se déroule sur 3 jours durant lesquels nous avons eu le choix parmi 140 présentations, réparties sur 8 tracks en parallèle, chacune dédiée à une thématique. À cette occasion, plus de 1500 participants ont répondu à l’appel. Les sujets abordés ont été très variés. L’ambition de cette conférence est de se positionner en avance de…
Lire la suiteAu cours du temps, la philosophie autour du traitement des serveurs par les administrateurs système a évolué. Au commencement, chaque serveur était choyé et chouchouté individuellement : petit nom, réparation et mise à jour individuelle en cas de dysfonctionnement. Il s’agit de l’approche Pet (animal de compagnie en anglais). Cependant, cette approche a ses limites car la charge de travail (humaine) pour gérer chaque machine en limite le nombre. Cependant, avec l’arrivée des services IaaS et du cloud, les moeurs ont changé. De plus en plus…
Lire la suiteEn ce début d’année 2018, nous avons demandé à quelques Octos comment ils prévoient l’évolution de leur métier, des technologies, les ruptures, les nouvelles approches, etc. C’est un exercice de style qui ne prétend pas nécessairement dire le vrai, mais qui a le mérite de présenter certaines convictions et d’inviter au débat. Partagez avec nous vos réactions et analyses, en réagissant à cet article ! Les plateformes cloud comme nouveaux runtimes Variables, disques et machines seront dépassés comme l’ont été les pointeurs, bandes et architectures…
Lire la suiteKubeCon North America 2017 Il y a deux ans, nous avions pu participer à la KubeCon Europe à Londres. Cette année la cinquième édition se tenait les 6, 7 et 8 décembre 2017 à Austin, aux États-Unis. Nous y étions et pour la première fois nous avons eu l’occasion d’y donner un talk ! Retour sur cette édition qui se voulait encore plus impressionnante et plus grande que les précédentes puisque le compteur affichait cette année plus de 4000 participants pouvant assister à plus…
Lire la suite