Technologie
Montée en charge vs montée en puissance parallèle : mise à l’échelle horizontale ou verticale pour le stockage

Pour les services informatiques, la gestion du stockage des données peut sembler une tâche sans fin.
Les organisations capturent et gèrent plus de données que jamais, les conservent plus longtemps et en dépendent entièrement pour gérer l’entreprise.
Les entreprises peuvent adopter deux approches lors de la conception du stockage pour répondre au besoin d’une capacité accrue : elles peuvent évoluer vers le haut ou vers l’extérieur.
Il est donc utile de connaître la différence, et dans cet article, nous examinons la mise à l’échelle horizontale par rapport à la mise à l’échelle verticale dans le stockage, les avantages et les inconvénients de chacun et les scénarios dans lesquels vous pourriez effectuer chacun d’eux, qu’il s’agisse d’un SAN, d’un NAS, d’une hyperconvergée, d’un objet ou d’un stockage cloud.
Mise à l’échelle horizontale vs verticale
Les systèmes informatiques peuvent évoluer verticalement, horizontalement et parfois les deux.
En termes généraux, la mise à l’échelle verticale, ou mise à l’échelle, implique l’installation de systèmes plus puissants ou la mise à niveau vers des composants plus puissants.
Cela peut signifier mettre un nouveau processeur dans un système x86, déployer un serveur plus puissant ou même déplacer les charges de travail vers une nouvelle plate-forme matérielle entièrement. Dans le cloud, cela peut être fait via des mises à niveau des processeurs et de la mémoire.
Pendant ce temps, la mise à l’échelle horizontale ajoute aux ressources en augmentant le nombre de serveurs ou d’autres unités de traitement. Plutôt que de s’appuyer sur un système plus puissant, les mises à niveau évolutives fonctionnent en répartissant la charge de travail entre un grand nombre d’unités de base moins coûteuses.
Le système de recherche de Google est un exemple de système massivement parallèle et évolutif. En fait, Google détient certains des brevets clés pour les systèmes MapReduce qui permettent de diviser les tâches en clusters de traitement massifs et parallèles.
Mise à l’échelle horizontale ou verticale dans le stockage
La mise à l’échelle pour le stockage suit une approche similaire. Les services informatiques peuvent faire évoluer la capacité via des disques plus grands ou plus importants dans le sous-système de stockage, ou en répartissant les charges de travail sur un plus grand nombre d’appareils.
Il est techniquement relativement simple de passer à l’échelle avec des disques plus grands dans les serveurs et l’infrastructure hyperconvergée (HCI) ou une capacité accrue dans les systèmes NAS et SAN. Cependant, même avec les disques NVMe, SSD et conventionnels de plus grande capacité disponibles aujourd’hui, ceux qui ont des systèmes plus grands peuvent toujours rencontrer des goulots d’étranglement.
Soit le système ne s’adapte pas bien lorsqu’il approche des limites de capacité, soit d’autres goulots d’étranglement apparaissent. En règle générale, les goulots d’étranglement dans le stockage à échelle verticale proviennent des limites de débit dans les contrôleurs de stockage, car la plupart des sous-systèmes de stockage ne peuvent accueillir que deux contrôleurs. Certains systèmes permettent, bien sûr, aux contrôleurs eux-mêmes d’être mis à niveau. Sur le stockage réseau, l’interface réseau peut également devenir un goulot d’étranglement.
L’alternative consiste à faire évoluer le stockage en ajoutant plus de nœuds pour travailler en parallèle. Ici, les nœuds de stockage fonctionnent ensemble dans des clusters, mais présentent leur capacité sous forme de « pool » à l’application.
L’ajout de nœuds supprime les goulots d’étranglement du contrôleur et de l’interface réseau, car chaque nœud dispose de ses propres ressources. HCI et le stockage informatique poussent l’idée un peu plus loin. HCI combine le stockage, la mise en réseau et le calcul dans une seule unité, tandis que le stockage informatique permet au sous-système de stockage lui-même d’assumer certaines tâches de traitement, telles que le cryptage ou la compression, à proximité du stockage.
« L’infrastructure hyperconvergée a mis ce modèle de mise à l’échelle horizontale sous les feux de la rampe », explique Naveeen Chhabra, analyste chez Forrester. « Ce concept de mise à l’échelle horizontale a été introduit par les hyperscalers et est utilisé pour les services de stockage qu’ils offrent sur le marché. »
Mise à l’échelle du stockage sur site
Il peut être relativement simple d’augmenter le stockage dans un environnement sur site. Au niveau le plus élémentaire, les équipes informatiques peuvent simplement ajouter des disques de plus ou plus grande capacité. Cela s’applique au stockage interne, au stockage en attachement direct et au stockage dans les systèmes HCI.
Pour le stockage en réseau, l’ajout ou l’échange de lecteurs est également l’option la plus simple. Les fournisseurs de matériel prennent en charge en grande partie les mises à niveau sans outils, et les logiciels de gestion du stockage sont capables de reconfigurer automatiquement les configurations RAID dans les systèmes NAS et SAN.
La modification ou la mise à niveau des contrôleurs ou des interfaces réseau nécessitera probablement une augmentation de la main-d’œuvre et nécessitera probablement la mise hors tension de la baie.
Dans les deux cas, les temps d’arrêt seront un problème. Les mises à niveau matérielles signifient la mise hors ligne des systèmes et les groupes RAID devront être reconstruits. En outre, les systèmes ne peuvent être mis à niveau que s’ils sont provisionnés pour une capacité supplémentaire, par exemple avec des baies de disques de rechange ou des contrôleurs interchangeables, à l’avance. Cela peut signifier l’achat d’une baie plus grande que celle initialement nécessaire.
L’alternative – passer à un système plus récent et plus grand – peut minimiser les temps d’arrêt, mais les entreprises doivent prévoir le temps nécessaire pour transférer les données, et te risques de perte de données.
Les systèmes évolutifs peuvent donc sembler plus faciles. Les systèmes NAS et SAN modernes, ainsi que les HCI, sont conçus pour évoluer vers l’extérieur (ainsi que vers le haut, dans une certaine mesure). L’ajout de nœuds ou de baies supplémentaires élargit le pool de stockage et devrait être possible avec peu ou peu de temps d’arrêt. Il n’est pas nécessaire de toucher le matériel existant et les logiciels ajouteront la nouvelle capacité au pool de stockage.
Parfois, la montée en charge est le seul moyen de gérer la croissance rapide de la demande de stockage, en particulier de données non structurées, mais elle a ses limites. Les systèmes évolutifs sont moins adaptés aux applications telles que les bases de données transactionnelles, par exemple.
Mise à l’échelle du stockage dans le cloud
Le stockage dans le cloud repose sur des architectures évolutives. Les éléments constitutifs – le matériel de base parallèle et le stockage d’objets – ont été conçus dès le départ pour accueillir des ensembles de données de plus en plus volumineux.
Les systèmes de cloud public sont donc en grande partie des systèmes évolutifs. Cela fonctionne bien pour les charges de travail élastiques, où les organisations souhaitent commencer petit et construire, et où les applications peuvent fonctionner sur des systèmes mis à l’échelle horizontalement, tels que des bases de données évolutives.
Les systèmes cloud évolutifs sont généralement construits avec des serveurs x86 avec stockage en attachement direct qui agissent comme des nœuds ou des clusters HCI, chacun exécutant un logiciel de stockage d’objets et utilisant un codage d’effacement pour créer l’équivalent d’une protection RAID. Tout cela permet aux utilisateurs du cloud d’ajouter de la capacité rapidement, voire automatiquement.
Mais cela ne signifie pas que la seule façon d’évoluer dans un environnement de cloud public est d’ajouter de la capacité. Les architectes informatiques peuvent spécifier différents niveaux de performance parmi les principaux fournisseurs de cloud.
Amazon Web Services, Google Cloud Platform et Microsoft Azure offrent chacun une gamme de performances de stockage, basées sur leurs systèmes SSD (et disques rotatifs).
AWS, par exemple, dispose d’options d’E/S par seconde qui s’exécutent de 16 000 à 64 000 par volume via EBS. Azure Managed Disk atteint jusqu’à 160 000 E/S par seconde et Azure Files jusqu’à 100 000 IOPS.
Le disque persistant de GCP exécute jusqu’à 100 000 IOPS en lecture et son SSD local jusqu’à 2 400 000 IOPS en lecture. Sur toutes les plateformes, l’écriture est généralement plus lente.
Haut ou dehors?
Bien sûr, les coûts augmentent avec les niveaux de performance plus élevés, de sorte que les DSI devront équilibrer la capacité et les performances dans leur parc cloud.
De plus en plus, les architectures hybrides prennent en charge le meilleur des deux mondes. Les entreprises peuvent faire évoluer leur matériel sur site, mais utiliser le cloud public pour évoluer avec une capacité supplémentaire facile à déployer.
Le traitement et le stockage ne doivent pas non plus se déplacer par étapes de verrouillage. Il est tout à fait possible, et de plus en plus courant, d’augmenter le calcul pour la performance, et de faire évoluer le stockage, sur site ou via le cloud, pour utiliser la capacité et la résilience de la technologie des objets.
-
Technologie3 ans ago
Une escroquerie par hameçonnage cible les clients de la Lloyds Bank
-
Monde3 ans ago
La NASA va supprimer les noms « offensants » des planètes et des galaxies
-
Monde2 ans ago
Quelle est la taille de Barron Trump?
-
Monde3 ans ago
Qui est le mari de Candace Owens, George Farmer?
-
Monde3 ans ago
Qui est le chef de la mafia sicilienne Matteo Messina Denaro?
-
France3 ans ago
Qui est Luce Douady et comment l’alpiniste de 16 ans est-il mort?
-
France3 ans ago
Le mari admet avoir tué sa femme en vacances et jeter le corps dans les égouts pluviaux
-
France3 ans ago
L’enseignant primaire accro au tatouage avec EYEBALLS noirci terrifie les enfants avec l’art corporel