background preloader

Tuning

Facebook Twitter

Weathervane, a benchmarking tool for virtualized infrastructure and the cloud, is now open source. - VMware VROOM! Blog. Weathervane is a performance benchmarking tool developed at VMware. It lets you assess the performance of your virtualized or cloud environment by driving a load against a realistic application and capturing relevant performance metrics. You might use it to compare the performance characteristics of two different environments, or to understand the performance impact of some change in an existing environment. Weathervane is very flexible, allowing you to configure almost every aspect of a test, and yet is easy to use thanks to tools that help prepare your test environment and a powerful run harness that automates almost every aspect of your performance tests.

You can typically go from a fresh start to running performance tests with a large multi-tier application in a single day. Weathervane has been used extensively within VMware, and is now open source and available on GitHub at Weathervane Overview Figure 1 Weathervane Deployment Future Direction. Virtual Machine vCPU and vNUMA Rightsizing - Rules of Thumb - VMware VROOM! Blog. Using virtualization, we have all enjoyed the flexibility to quickly create virtual machines with various virtual CPU (vCPU) configurations for a diverse set of workloads. But as we virtualize larger and more demanding workloads, like databases, on top of the latest generations of processors with up to 24 cores, special care must be taken in vCPU and vNUMA configuration to ensure performance is optimized. Much has been said and written about how to optimally configure the vCPU presentation within a virtual machine – Sockets x Cores per Socket Side bar: When you create a new virtual machine, the number of vCPUs assigned is divided by the Cores per Socket value (default = 1 unless you change the dropdown), to give you the calculated number of Sockets.

If you are using PowerCLI, these properties are known as NumCPUs and NumCoresPerSocket. In the example screenshot above, 20 vCPUs (NumCPUs) divided by 10 Cores per Socket (NumCoresPerSocket) results in 2 Sockets. History Example: @vmMarkA. VMware : Decoder les erreurs ESXi sense code de stockage | VroomBlog. Nous avons eu récemment un ESXi présentant d’énorme latence disque alors que ce dernier était très peu chargé. Le nez dans les logs ESXi, nous pouvons observer de nombreuses erreurs iSCSI. Ces codes sont des messages envoyés par la baie à l’ESXi pour lui dire ce qui ne va pas.

Pour y voir plus clair, il faut décoder un peu tout ça. Voici le site de référence : Ci-dessous les CSV des erreurs Mais merci à Florian Grehl du blog de nous fournir ce filtre automatisé En appliquant les codes : H:0x D:0x P:0x Sense data: 0x 0x 0x Et H:0x D:0x P:0x Sense data: 0x 0x 0x On voit que les erreurs ce coup ci proviennent de l’ESXi Basé sur ce KB1003433 : On observe un problème d’accès à la LUN et en effet notre ESXi avait un driver qui ne répondait pas à la matrice de compatibilité Hardware ESXi.

Bil Kam liked this post. CPU Ready l’autre ennemi du VDI | | VirtualementVotre. Bonjour, Ce n’est plus un secret, aujourd’hui, les solutions de virtualisation de desktop, les infrastructures et leurs technologies liées, sont matures. Un des gros challenges, a été d’offrir des solutions de stockage performantes, permettant de reprendre des pics d’IOPS, tel que les Boot Storm et les Login Storm. Pour cela, on a le choix entre, des solutions d’accélération dans la baie, tel que le FAST Cache pour EMC et les Flash Pools de NetApp, chacun y allant de sa propre solution, qui est évidemment la meilleure… ou plus simplement des solutions AFA (All-Flash Array) tel que Violin, XtremIO, FashRay ou EF550, les prix ayant bien baissés.

Les entreprises ont donc mis en place une infrastructure VDI, commencé à déployer les zéros clients et leurs pools de VDI, qu’elles ont mis à disposition de leurs utilisateurs. Au départ, tout fonctionnait parfaitement, puis arrive, insidieusement, des ralentissements sur les postes, des black screens, voire des pertes de connexions. La baie ? Aller ! Performances des cartes virtuelles | | VirtualementVotre. Bonjour, Lors de mes audits et workshops, un des points que je contrôle, est le type de carte virtuelle, configuré dans les VMs. Pour m’aider, RVTools, évidemment, facile d’utilisation, il permet un inventaire facile et remonte les informations importantes d’une infrastructure vSphere. Commençons par un petit récapitulatif des cartes virtuelles : Il existe plusieurs types de vNICs : les émulations et les paravirtualisées L’historique est la vlance, qui est l’émulation de la carte AMD 79C970 PCnet32– LANCE NIC, qui était vue comme une carte 10 Mbps.

J’avoue en trouver encore, dans de très vieilles VMs… La remplacer par une carte VMXNET3, améliore sensiblement les performances de la VM. VMXNET, première carte développée pat VMware avec l’ESX 2 , elle exige les VMware Tools et offre déjà une bande passante de 1 Gbps. E1000, qui est l’émulation de la carte Intel 82545EM Gigabit Ethernet, reconnu par passablement d’OS récents. Rien ne vaut un petit test réel… Voici les resultats: VMware : Mécanisme mémoire ESXi | VroomBlog. Nous dépoussiérons un sujet largement abordé mais malheureusement manquants à notre blog mais aussi pour compléter notre Deep Dive sur la gestion RAM ESXi On va donc essayer de vous faire un condensé d’informations sur les mécanismes d’optimisations de RAM. Les mécanismes de récupérations de RAM s’exécutent séquentiellement, selon l’état de l’ESXi (article explicatif prochainement) TPS : Transparent SharingBallooningCompressionSwap Page mémoire La mémoire vivre est divisée en une multitude de petit bloc allouable.

Une page peut être de différentes tailles, selon l’OS et l’application sollicitant la RAM Petite page : 4Kb (OS 32 bits, application non memory-vore)Large pages : 2Mb (OS 64 Bit, Base de données SQL, Oracle,…) Overcommitment : Donner plus de mémoire virtuelle à l’ensemble des VMs que l’ESXi peut avoir en mémoire physique Transparent Page Sharing TPS est le mécanisme VMware qui permet de mutualiser les pages mémoires générées par les VMs sur le même ESX. Ballooning Compression : Swapping :