Pour l’optimisation des coûts la virtualisation est devenue une réelle nécessité pour les entreprises. Cet article retrace un concept vieux de plus de 40 ans mais qui correspond à l’avenir des architectures informatiques.
Introduction

La virtualisation est un outil qui change radicalement l’approche de l’informatique en repoussant les limites de nos ordinateurs. Il s’agit d’une technologie à la portée de tous, du particulier qui souhaite exécuter en toute sécurité une distribution Linux sur sa plateforme
Qu’est-ce que la virtualisation?
La racine du mot « virtuel » est tirée du latin « virtualis« , qui est lui-même issu de « vritus » qui signifie force, puissance.
Philosophiquement, on dira que ce qui est virtuel existe en puissance, mais non en acte. On peut dire, par exemple qu’un arbre est virtuellement présent dans une graine.
Partant de ce principe, on peut dire que le virtuel ne va pas à l’encontre du réel, mais plutôt de l’actuel. Virtualité et actualité sont seulement deux manières d’être différentes.
La virtualisation informatique consiste à faire fonctionner un ou plusieurs systèmes
La virtualisation est un composant technique clé dans le Cloud Computing.
d’exploitation/applications comme un simple logiciel, sur un ou plusieurs ordinateurs – serveurs / système d’exploitation, au lieu de ne pouvoir en installer qu’un seul par machine. Ces ordinateurs virtuels sont appelés serveur privé virtuel (Virtual Private Server ou VPS) ou encore environnement virtuel (Virtual Environment ou VE).
« La virtualisation est un processus qui va permettre de masquer les caractéristiques physiques d’une ressource informatique de manière à simplifier les interactions entre cette ressource et d’autres systèmes, d’autres applications et les utilisateurs. Elle va permettre de percevoir une ressource physique comme plusieurs ressources logiques et, inversement, de percevoir plusieurs ressources physiques comme une seule ressource logique. »
Historique de la virtualisation

La virtualisation, contrairement à ce que pensent de nombreuses personnes, n’est pas née en 1999 avec la sortie du premier produit VMware. Ses débuts remontent à environ 40 ans sur la plate-forme de superordinateurs (mainframe) d’IBM. À cette époque, les machines virtuelles étaient appelées des pseudo-machines. À l’origine, l’ordinateur central utilisait le programme de contrôle pour allouer des ressources et isoler les différentes instances des pseudo-machines les unes des autres.

La version contemporaine du programme de contrôle s’appelle un hyperviseur, qui est un superviseur de machines virtuelles installé directement sur le matériel (bare-metal). Ce matériel est usuellement un système serveur sans système d’exploitation installé. L’hyperviseur n’est pas accessible directement, mais il emploie ce qu’on appelle une machine virtuelle Domain0, qui est un système d’exploitation qui semble installé sur le matériel comme système d’exploitation primaire.
L’utilisateur interagit indirectement avec l’hyperviseur par le biais de cette machine virtuelle primaire.
Les différents domaines de la virtualisation
1. La virtualisation d’application
Puisque cette opération est transparente, l’application n’a pas notion de son état virtuel. Le terme virtualisation d’application est trompeur puisqu’il ne s’agit pas de virtualiser l’application mais plutôt le contexte au sein duquel elle s’exécute.
- elle permet d’exécuter les applications qui ont été développées pour d’autres environnements d’exécution (par exemple, Wine permet d’exécuter des applications Windows sur une plateforme Linux);
- elle protège le système d’exploitation hôte en s’assurant que l’application virtualisée ne viendra pas interagir avec les fichiers de configuration du système;
- elle évite de faire appel à une machine virtuelle qui consomme plus de ressources;
- elle autorise l’exécution de code incorrect
2. La virtualisation de réseau
Un VLAN (Virtual Local Area Network) est un réseau local regroupant un ensemble de machines de façon logique et non physique. Puisqu’un VLAN est une entité logique, sa création et sa configuration sont réalisées de manière logicielle et non matérielle.
1. Les réseaux virtuels de niveau 1, appelés réseaux virtuels par port.

Le principal inconvénient d’un VLAN de niveau 1 est sa rigidité: si une station se raccorde physiquement au réseau par intermédiaire d’un autre port du commutateur, alors il est nécessaire de reconfigurer ce commutateur afin de réintégrer la station dans le bon réseau virtuel.
2. Les réseaux virtuels de niveau 2, appelés réseaux virtuels par adresse MAC.
3. Les réseaux virtuels de niveau 3.
On distingue principalement deux types de VLAN de niveau 3:

2. Les réseaux virtuels par protocole (Protocol-based VLAN), qui sont créés sur base des protocoles utilisés (TCP/IP, IPX, …) et les stations sont regroupées en réseaux virtuels suivant le protocole qu’elles utilisent.
Les avantages qu’offrent les réseaux virtuels sont les suivants:
- une réduction du trafic de diffusion (broadcast) puisque celui-ci est à présent contenu au sein de chaque réseau virtuel;
- une sécurité accrue puisque l’information est encapsulée dans une couche supplémentaire;
- une meilleure flexibilité puisqu’une modification de la structure des réseaux peut être réalisée en modifiant la configuration du commutateur.
3. La virtualisation de stockage

Ce processus de virtualisation peut être vu comme une extension du modèle de partitionnement classique des disques dur.
- d’adjoindre un périphérique de stockage supplémentaire sans interruption des services ;
- de regrouper des unités de disques durs de différentes vitesses, de différentes tailles et de différents constructeurs ;
- de réallouer dynamiquement de l’espace de stockage. Ainsi, un serveur nécessitant un espace de stockage supplémentaire pourra rechercher des ressources non allouées sur le disque logique. Inversement, un serveur nécessitant moins d’espace de stockage pourra libérer cet espace et le rendre disponible pour d’autres serveurs.
4. La virtualisation de serveur
Ces environnements isolés sont parfois appelés serveurs privés virtuels, hôtes, instances, containers ou émulations.
La virtualisation de serveurs s’inscrit dans une tendance globale qui

tend à promouvoir la virtualisation au sein des entreprises en faisant notamment appel à la virtualisation de stockage et à la virtualisation de réseaux. Cette tendance est une composante dans le développement de systèmes autonomes. Un système est dit autonome s’il est capable de s’auto-gérer sur base de l’activité qu’il perçoit, sans aucune intervention externe, et en conservant les détails de son implémentation invisibles pour l’utilisateur.
Les avantages
1. Une optimisation de l’infrastructure.
La virtualisation permet d’optimiser la charge de travail des serveurs physiques. En effet, il y a quelques années, la relation une application <-> un serveur était encore largement répandue. Cependant, cette relation introduit un gaspillage important des ressources puisqu’on estime que la charge moyenne d’un serveur se situe entre 5% et 15% . L’idée est alors de récupérer ces ressources disponibles afin d’en faire bénéficier d’autres applications.
La virtualisation va apporter une solution efficace : plutôt que de faire tourner une seule application sur le serveur physique, on va installer sur celui-ci plusieurs serveurs virtuels exécutant chacun une application bien précise, et c’est le logiciel de virtualisation qui se charge de répartir équitablement les ressources entre les différentes instances. De cette manière, on optimise le rendement de chacun des serveurs physiques.
2. Une réduction de l’infrastructure physique et des économies d’énergies.
VMware affirme qu’un serveur au repos consomme jusqu’à 30% du pic de consommation électrique et selon Intel, 36,4% de l’énergie est utilisée par les composants physiques des serveurs (processeurs, mémoire,…) tandis que les 63,6% restants sont consommés par les équipements de climatisation.

Ces chiffres sont interpelants et la virtualisation de l’infrastructure d’une entreprise doit devenir un de ses projets prioritaires. Puisque plusieurs applications peuvent à présent cohabiter de manière efficace sur un même système, les entreprises vont pouvoir réduire le nombre de machines de leur centre de données en investissant à nouveau dans d’importants mainframes avec lesquels réapparaît le modèle de centralisation de la puissance de calcul. Par conséquent, les entreprises font des économies en terme d’espace mais aussi en terme de frais de ventilation et d’alimentation.
La réduction des coûts d’alimentation et de refroidissement s’inscrit également dans une tendance générale à la promotion du respect de l’environnement.
Selon Gartner, une entreprise américaine de conseil et de recherche dans le domaine des techniques avancées, l’industrie informatique serait responsable de 2% des émissions mondiales de CO2. La virtualisation aurait permis d’économiser 5 milliards de kWh d’énergie électrique (source : VMware).
3. Une reprise automatique lors des incidents.
4. Une optimisation de la sécurité des données.

5. Une facilité de migration.
- P2V (Physical to Virtual),
- V2P (Virtual to Physical) et
- V2V (Virtual to Virtual).
Les outils V2V, qui permettent de convertir des serveurs virtuels d’un format dans un autre, sont principalement utilisées au sein d’entreprises qui utilisent des gestionnaires de systèmes virtuels différents.
6.Flexibilité et compatibilité.
7. Un cloisonnement.

Les inconvénients
1. Un point de défaillance unique.
2. Un recours à des machines puissantes.
La virtualisation permet de réaliser des économies puisque moins de machines physiques sont nécessaires. Néanmoins, les outils de virtualisations sont des applications très gourmandes en ressources et nécessitent des machines puissantes. Il est évidemment possible d’utiliser la virtualisation sur des machines plus modestes, mais un manque de mémoire ou de capacité CPU peut faire chuter les performances de manière dramatique.
3. Une dégradation des performances.
dans un environnement physique.
4. Une complexité accrue de l’analyse d’erreurs.
5. Une impossibilité de virtualisation.
6. Un déploiement massif de serveurs.
Il ne s’agit pas réellement d’un désavantage de la virtualisation en tant que tel, mais d’un désavantage de la facilité de mise en place d’un nouvel environnement virtuel. En effet, certains administrateurs estiment qu’il est plus sécurisant de déployer un serveur dans un nouvel environnement virtuel, isolé des autres, plutôt qu’au sein d’un système d’exploitation qui exécute simultanément d’autres applications. Cependant, l’administration et les coûts d’une telle opération ajoutent une charge supplémentaire qu’il est difficile d’estimer à l’avance.
7. Un problème de standardisation.
Conclusion
Sources
http://fr.wikipedia.org/wiki/Virtualisation
http://reseau-informatique.prestataires.com/conseils/virtualisation
http://reseau-informatique.prestataires.com/conseils/virtualisation
Cliquer pour accéder à virtualisation.pdf
https://www.vmware.com/be/fr/cloud-computing/overview
http://www.aims-informatique.com/pour-en-savoir-plus/virtualisation-et-cloud-computing.html