Orientations de la virtualisation
Cette publication se veut l'écho d'une présentation qui a été faite lors de la précédente édition de l'USI2008 qui présentait les grands atouts et enjeux de la virtualisation.
Retours sur les conclusions de 2008
La session de Bertrand Paquet se terminait sur un certain nombre de constats et de questions.
Pour commencer, on attendait beaucoup de l'arrivée d'Hyper-V (solution de virtualisation de Microsoft) qui risquait de chambouler les forces en présence sur le marché de la virtualisation. À ce jour, pas de grand bouleversement, VMWare reste le grand gagnant sur le marché, Xen second et Hyper-V derrière. Ceci est principalement dû à un certain nombre de lacunes technologiques dans la solution de Microsoft, et un réel agnosticisme affichés par VMWare et Xen vis à vis des OS invités.
Vient ensuite la problématique dans la gestion des machines virtuelles : c'est bien là que vont se positionner la plupart des efforts des éditeurs. Technologiquement, il n'y a pas d'immenses avancées en virtualisation ces derniers mois (modulo les points dont je vais parler plus bas). C'est bien dans la gestion des processus/des cycles de vie des machines virtuelles qu'il y a des problèmes. La plupart des clients se retrouvent avec énormément de VMs difficiles à gérer (sont-elles encore utilisées, par qui ?). La prolifération des instances d'OS pose des problèmes de gestion des licences, des patches et autres mises à jour. C'est bien sur le long terme que les choses se gâtent lorsque l'on virtualise, et des outils d'aide à la rationnalisation des usages vont apparaitre et s'enrichir. Le maintien d'un bon retour sur investissement est à la clé de ce travail sur le long terme.
L'arrivée des machines à base de 2 à 4 processeurs quad et bientôt octo(arf)-cœurs va vraisemblablement permettre d'atteindre des taux de consolidation encore plus impressionnants qu'actuellement, de l'ordre de 1 machine physique pour 50, 70 voire 100 machines virtuelles.
Évolutions à surveiller pour 2009
D'autres sujets intéressants qui méritent d'être abordés sont résumés ici.
Technologie
Du côté des performances : les retours d'expériences tendent à tous converger vers ce constat : lorsque l'on cherche à virtualiser, c'est très rarement la puissance CPU qui pose problème, mais l'accès au stockage (disques, BAIE) qui devient presque systématiquement le maillon «lent».
Une tendance tend à se généraliser : la virtualisation du stockage. Il s'agit de l'apparition de nouveaux composants dans la chaine de stockage SAN, des machines qui se comportent comme des SAN mais qui sont en fait des serveurs avec un certain nombre de ports FC qui eux-mêmes attaquent des vraies baies SAN physiques. Nous avons là probablement de la matière pour un autre article ultérieur. Plusieurs intérêts peuvent être identifiés dans l'immédiat :
- Agrégation d'espaces de stockage hétérogènes (≠vitesses, ≠constructeurs), avec possibilité de faire des montages particulièrement compliqués/puissants.
- Cache (ces machines embarquent par exemple 16 à 32 Go), qui est intégralement utilisé comme cache pour tous les accès
- Sur-booking, on expose des LUNs plus grandes qu'on ne peut physiquement fournir, et on espère que les OS/applications ne vont pas tout utiliser, ce qui permettra de gérer plus tard plus facilement les montées en volume
- Indirection des accès aux LUNs, ce qui permet en théorie de changer de baies physiques sans perturber outre mesure les applications/OS qui les utilisent.
Concernant le sujet de la virtualisation du poste client : Je dois reconnaitre que je reste très sceptique sur les principes et l'applicabilité de cette portion de la virtualisation. L'utilisation de plus en plus massive des ordinateurs portables utilisant des connexions réseau peu fiables (en terme de performances et de sécurité) pose de nombreuses questions sur le sujet. La conjoncture actuelle pourrait entrainer un ralentissement dans le renouvèlement des parcs de postes clients. Ceci combiné avec les offres sur le marché de plus en plus matures et performantes, on peut s'attendre à des changements dans ce domaine, comme par exemple la réutilisation de vieilles machines en clients «légers» et déportant la plus grande partie des applicatifs gourmands en traitement/mémoire sur une infrastructure centralisée
Sans rapport directe avec la virtualisation, la démocratisation du 10GB (Ethernet ou Fibre optique) va sans doute bouleverser les habitudes : on ne différenciera plus les accès SAN en FibreChannel et les accès réseau en GBE => tous le monde en 10GigaBit sur Fibre (ou Ethernet, même si ça apporte plus de latence) et on cloisonnera les flux logiquement sur le même support physique. Baisse des coûts et simplification des infrastructures en prévision.
Acteurs du marché
Citons ici quelques buzzs sur les orientations en prévision pour 2009/2010.
Concernant la feuille de route VMWare, on trouve dans les starting-blocks, un système permettant de faire fonctionner en haute disponibilité des applications/OS qui ne sont pas nativement tolérantes aux pannes. Le principe - deux machines physiques avec deux instances de la même VM et une réplication au fil de l'eau de l'état mémoire de l'OS entre l'active et la passive - est très intéressant sur le papier, à suivre donc.
Citons également l'apparition de fonctions de commutation réseau virtuelle très poussées dans les Hyperviseurs VMWare qui permettra de voir les switches virtuels comme la continuité des commutateurs physiques déployés sur les parcs (CISCO principalement).
À propos de la stratégie à long terme de Citrix, il est difficile de suivre actuellement les orientations de la société. En effet, elle fournit à la fois des solution très orientées Windows autour de son produit phare éponyme, mais travaille aussi activement sur Xen qui est très centré sur Linux. Il est difficile de voir où cette schyzophénie va aboutir. Les annonces récentes de gratuité de la plupart des composants de la solution Xen et l'annonce d'un rapprochement avec Microsoft pour contrer VMWare n'apporte pas encore énormément de clarté sur le sujet.