Connect with us

Technologie

Panasas lance un rangage de stockage par taille au lieu de l’utilisation

Published

on


Le stockage à plusieurs niveaux signifie une correspondance des données avec le coût – et donc la performance des médias. Ainsi, vos données les plus critiques devraient aller sur l’état solide super-rapide. N’est-ce pas ?

Pas selon Panasas a récemment ajouté l’tiering basé sur la taille du fichier à son PanFS échelle-out NAS.

L’accélération dynamique des données de Panasas vise à fournir aux clients un espace de stockage adapté à une grande variété de charges de travail HPC (informatique haute performance) et AI/ML en exploitant la vitesse de SSD pour les petits fichiers et le débit massif de disques durs pour les fichiers volumineux.

Dynamic Data Acceleration niveaux données à différents médias dans le système de stockage, mais pas par les caractéristiques d’utilisation. Son palier par taille de fichier revendique un avantage de performance de 2x en termes GBps par rapport aux rivaux du système de fichiers BeeGFS, Lustre et l’échelle GPFS/Spectrum d’IBM.

Tout cela semble un peu contre-intuitif, parce que vous voulez vos données les plus gourmandes en performances sur votre stockage le plus performant, n’est-ce pas?

Eh bien, oui, mais Panasas est convaincu que l’échelonnage par taille de fichier est une meilleure façon d’y parvenir.

Ce qui se passe dans Dynamic Data Acceleration, c’est que sur ingérer toutes les métadonnées est placée sur NVDIMM super-rapide. Pendant ce temps, les petits fichiers sont acheminés vers le stockage du système de fichiers sur des disques durs à faible latence, à haute bande passante (SSD) et des fichiers plus volumineux se dirigent vers des disques durs à disque à faible coût à haute capacité. « Nous pensons que notre approche est meilleure que l’échelonnage par température [ie, data usage]», a déclaré Curtis Anderson, architecte logiciel senior chez Panasas.

L’idée de base est que la taille du fichier est la variable clé dans ce qui est requis de stockage pour les charges de travail HPC et AI. En d’autres termes, à de petites tailles de fichiers I / O est la clé et la fourniture iOPS via SSD est nécessaire. Lorsque la taille des fichiers est plus grande, il s’agit d’un accès séquentiel avec la bande passante fournie par plusieurs disques durs dans le système de fichiers parallèle Panasas, PanFS.

« Grâce à l’échelonment traditionnel basé sur la température, il peut être complexe, le client ayant besoin de gérer les niveaux et la gestion des données entre eux. Vous vous retrouvez également avec des données chaudes qui sont sur les médias très performants et des données froides sur les médias plus lent », a déclaré Anderson. « onc, ce que vous pouvez vous retrouver avec des performances incohérentes, si vous n’avez pas exécuter une application particulière pendant une semaine, par exemple.

« Si nous basons l’tiering sur la taille, les disques durs sont toujours plus performants parce qu’ils sont utilisés de la manière la plus efficace possible, en livrant 180 MBps chacun et en faisant ce qu’ils ont été conçus pour faire », a-t-il ajouté. « Les disques durs contribuent aux performances et ne sont pas isolés dans le niveau froid. »

Pendant ce temps, Panasas SSDs livrer 500MBps, mais sont destinés à la livraison IOPS plutôt que la bande passante.

Un autre inconvénient basé sur la température de palier souligné par Panasas est que vous avez toujours besoin de votre niveau de stockage de données à chaud pour être aussi grand que votre ensemble de travail. Si ce n’est pas alors vous devez potentiellement attendre le niveau froid.

Dynamic Data Acceleration est disponible dans le système de fichiers parallèle PanFS géré par les nœuds NAS ActiveStor Ultra de Panasas. Ceux-ci sont livrés avec six disque dur de tailles qui peuvent être spécifiés entre 4 To et 16 To avec SSD de taille client, plus un niveau NVMe et le stockage NVDIMM. Outre la nouvelle fonctionnalité d’tiering, cette configuration introduit également plus de choix de supports de stockage que ce n’était le cas auparavant.

Les cas d’utilisation clés ciblés sont les cas de HPC et d’IA/ML, où les charges de travail devraient être nombreuses et variées. L’idée est que le palier par taille se traduira par des performances prévisibles à travers ces charges de travail.

Click to comment

Leave a Reply

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Tendance

Berita Hari Ini indo877 Indo877 Indo877 nagahoki303 Agendewa88 DEWAHOKI303 DEWAHOKI303 https://arkhedesignn.com/ Akun Pro Jepang https://wlmags.com/ https://thisisitnow.info/ https://www.aslightdies.com/
rupiahtoto sbobet dewahoki303 agendewa88 dewahoki303 nagahoki303 member303 indo877 slot gacor Nagahoki303 indo877 member303 dewahoki303 dewahoki303 agendewa88 link bio slot77 akun pro myanmar akun pro malaysia akun pro monaco akun pro singapore akun pro taiwan akun pro thailand akun pro amerika akun pro filipina akun pro hongkong akun pro jepang akun pro kamboja akun pro rusia