Connect with us

Technologie

Briefing : Mesures de performance du stockage cloud

Published

on


Environ 50 % des données d’entreprise sont désormais stockées dans le cloud , et le volume stocké à l’aide des technologies cloud est encore plus élevé lorsque les clouds privés et hybrides sont pris en compte.

Le stockage en nuage est flexible et potentiellement rentable. Les organisations peuvent choisir parmi les hyperscalers – Amazon Web Services, GCP de Google et Microsoft Azure – ainsi que des fournisseurs de cloud locaux ou plus spécialisés.

Mais comment mesurer les performances des services de stockage cloud ? Lorsque le stockage est sur site, il existe de nombreuses mesures bien établies pour nous permettre de suivre les performances de stockage. Dans le cloud, les choses peuvent être moins claires.

C’est en partie parce que lorsqu’il s’agit de stockage en nuage, le choix apporte de la complexité. Le stockage en nuage est disponible dans une gamme de formats, de capacités et de performances, y compris le stockage de fichiers, de blocs et d’objets, les systèmes basés sur disque dur, le stockage vm, NVMe, SSD et même les bandes, ainsi que la technologie qui fonctionne sur une base « cloud-like » sur site.

Cela peut rendre la comparaison et la surveillance des instances de stockage cloud plus difficiles que pour le stockage sur site. En plus des mesures de performances de stockage conventionnelles, telles que les IOPS et le débit, les professionnels de l’informatique spécifiant des systèmes cloud doivent tenir compte de critères tels que le coût, la disponibilité des services et même la sécurité.

Métriques de stockage conventionnelles

Les métriques de stockage conventionnelles s’appliquent également dans le cloud. Mais ils peuvent être un peu plus difficiles à défaire.

Les systèmes de stockage d’entreprise ont deux mesures principales de « vitesse » : le débit et les IOPS. Le débit est le taux de transfert de données vers et depuis le support de stockage, mesuré en octets par seconde ; Les IOPS mesurent le nombre de lectures et d’écritures (opérations d’entrée/sortie)) par seconde.

Dans ces mesures, les fabricants de matériel font la distinction entre les vitesses de lecture et les vitesses d’écriture, avec des vitesses de lecture généralement plus rapides.

Les fabricants de disques durs, de SSD et de baies font également la distinction entre les lectures ou écritures séquentielles et aléatoires.

Ces métriques sont affectées par des éléments tels que le mouvement des têtes de lecture / écriture sur les plateaux de disque et par la nécessité d’effacer les données existantes sur le stockage flash. Les performances de lecture et d’écriture aléatoires sont généralement le meilleur guide pour les performances réelles.

Les fabricants de disques durs citent des chiffres de révolutions par minute (rpm) pour les disques tournants, généralement 7 200 tr/min pour le stockage grand public, et parfois 12 000 tr/min pour les systèmes d’entreprise de qualité supérieure et 5 400 tr/min pour le matériel moins performant. Toutefois, ces mesures ne s’appliquent pas au stockage à l’état solide.

Ainsi, plus les IOPS sont élevés, plus le système est performant. Les lecteurs de disque tournants atteignent généralement la plage de 50 IOPS à 200 IOPS.

Les systèmes à semi-conducteurs sont beaucoup plus rapides. Sur le papier, un lecteur flash haute performance peut atteindre 25 000 IOPS ou même plus. Toutefois, les différences de performances réelles seront plus faibles une fois que le contrôleur de stockage, le réseau et d’autres surcharges telles que l’utilisation de RAID et de mémoire cache seront pris en compte.

La latence est la troisième mesure de performance clé à prendre en compte. La latence est la rapidité avec laquelle chaque demande d’E/S est effectuée. Pour un système basé sur un disque dur, ce sera de 10 ms à 20 ms. Pour les SSD, c’est quelques millisecondes. La latence est souvent la mesure la plus importante pour déterminer si le stockage peut prendre en charge une application.

Métriques cloudCloud metrics

Mais traduire les métriques de stockage conventionnelles dans le cloud est rarement simple.

Habituellement, les acheteurs de stockage cloud ne sauront pas exactement comment leur capacité est provisionnée. Le mélange exact de flash, de disque tournant et même de bande ou de support optique dépend du fournisseur de cloud et dépend de ses niveaux de service.

La plupart des fournisseurs de cloud à grande échelle exploitent un mélange de matériel de stockage, de mise en cache et de technologies d’équilibrage de charge, ce qui rend les données brutes sur les performances matérielles moins utiles. Les fournisseurs de cloud proposent également différents formats de stockage – principalement des blocs, des fichiers et des objets – ce qui rend les mesures de performance encore plus difficiles à comparer.

Les mesures varient également en fonction des types de stockage achetés par une organisation, car les hyperscalers offrent désormais plusieurs niveaux de stockage, en fonction des performances et du prix.

Ensuite, il existe des offres axées sur les services, telles que la sauvegarde et la restauration, et l’archivage, qui ont leurs propres mesures, telles que l’objectif de temps de récupération (RTO) ou les temps de récupération.

Le domaine le plus facile pour les comparaisons, au moins entre les grands fournisseurs de cloud, est le stockage par blocs.

La plate-forme cloud de Google, par exemple, répertorie les IOPS soutenues maximales et le débit maximal soutenu (en MBps) pour son stockage par blocs. Il est ensuite décomposé en IOPS en lecture et en écriture, et débit par Go de données et par instance. Mais comme l’indique Google : « Les performances persistantes d’IOPS et de débit du disque dépendent de la taille du disque, du nombre de vCPU d’instance et des E/S btaille de verrouillage, entre autres facteurs.

Google répertorie également une comparaison utile de ses performances d’infrastructure par rapport à un lecteur physique 7,200rpm.

Microsoft publie des conseils à l’intention des utilisateurs informatiques qui souhaitent surveiller son stockage d’objets blob (objet), qui sert d’introduction utile sur la mesure des performances de stockage dans le monde Azure.Microsoft publishes guidance aimed to IT users that want to monitor its Blob (object) storage, which serves as a useful primer on storage performance measurement in the Azure world.

AWS a des conseils similaires basés sur son offre Elastic Block Store (EBS). Encore une fois, cela peut guider les acheteurs à travers les différents niveaux de stockage, des disques SSD hautes performances au stockage à froid sur disque.

Coût, disponibilité du service… et d’autres mesures utiles

Comme le stockage en nuage est un service de paiement à l’utilisation, le coût est toujours une mesure clé.

Encore une fois, tous les principaux fournisseurs de cloud ont des niveaux basés sur le coût et les performances. AWS, par exemple, dispose de volumes SSD à usage général gp2 et gp3, de volumes optimisés pour les performances io1 et io2 et de volumes de disques durs axés sur le débit st1, destinés aux « charges de travail volumineuses et séquentielles ». Les acheteurs voudront compiler leur propre analyse des coûts et des performances afin de faire des comparaisons similaires.

Mais les métriques de stockage cloud ne se rapportent pas au coût et aux performances. Le coût par Go ou instance doit être pris en compte parallèlement à d’autres frais, y compris les coûts d’entrée de données et en particulier de sortie ou de récupération de données. Certaines offres de stockage à long terme très bon marché peuvent devenir très coûteuses lorsqu’il s’agit de récupérer des données.

Une autre mesure est la capacité utilisable : quelle quantité du stockage acheté est réellement disponible pour l’application cliente, et à quel moment l’utilisation commencera-t-elle à avoir un impact sur les performances réelles ? Encore une fois, cela peut différer des chiffres pour la technologie sur site.

Les DSI voudront également examiner la disponibilité des services. La fiabilité des composants et des sous-systèmes de stockage est traditionnellement mesurée en temps moyen entre défaillances (MTBF) ou, pour les SSD, les nouveaux téraoctets écrits au fil du temps (TBW).

Mais pour la provisionnement cloud à grande échelle, la disponibilité est une mesure plus courante et utile. Les fournisseurs de cloud utilisent de plus en plus des mesures de disponibilité ou de disponibilité de type centre de données ou télécoms, avec des « cinq neuf » souvent le meilleur et le plus cher SLA.

Même dans ce cas, ces mesures ne sont pas les seuls facteurs à prendre en compte. Les acheteurs de stockage cloud devront également tenir compte de l’emplacement géographique, de la redondance, de la protection et de la conformité des données, de la sécurité et même de la robustesse financière du fournisseur de cloud.

Bien qu’il ne s’agit pas de mesures du rendement au sens conventionnel du terme, si un fournisseur n’est pas à la hauteur, cela pourrait constituer un obstacle à l’utilisation de son service.

Click to comment

Leave a Reply

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Tendance