Technologie
Panasas lance un rangage de stockage par taille au lieu de l’utilisation

Le stockage à plusieurs niveaux signifie une correspondance des données avec le coût – et donc la performance des médias. Ainsi, vos données les plus critiques devraient aller sur l’état solide super-rapide. N’est-ce pas ?
Pas selon Panasas a récemment ajouté l’tiering basé sur la taille du fichier à son PanFS échelle-out NAS.
L’accélération dynamique des données de Panasas vise à fournir aux clients un espace de stockage adapté à une grande variété de charges de travail HPC (informatique haute performance) et AI/ML en exploitant la vitesse de SSD pour les petits fichiers et le débit massif de disques durs pour les fichiers volumineux.
Dynamic Data Acceleration niveaux données à différents médias dans le système de stockage, mais pas par les caractéristiques d’utilisation. Son palier par taille de fichier revendique un avantage de performance de 2x en termes GBps par rapport aux rivaux du système de fichiers BeeGFS, Lustre et l’échelle GPFS/Spectrum d’IBM.
Tout cela semble un peu contre-intuitif, parce que vous voulez vos données les plus gourmandes en performances sur votre stockage le plus performant, n’est-ce pas?
Eh bien, oui, mais Panasas est convaincu que l’échelonnage par taille de fichier est une meilleure façon d’y parvenir.
Ce qui se passe dans Dynamic Data Acceleration, c’est que sur ingérer toutes les métadonnées est placée sur NVDIMM super-rapide. Pendant ce temps, les petits fichiers sont acheminés vers le stockage du système de fichiers sur des disques durs à faible latence, à haute bande passante (SSD) et des fichiers plus volumineux se dirigent vers des disques durs à disque à faible coût à haute capacité. « Nous pensons que notre approche est meilleure que l’échelonnage par température [ie, data usage]», a déclaré Curtis Anderson, architecte logiciel senior chez Panasas.
L’idée de base est que la taille du fichier est la variable clé dans ce qui est requis de stockage pour les charges de travail HPC et AI. En d’autres termes, à de petites tailles de fichiers I / O est la clé et la fourniture iOPS via SSD est nécessaire. Lorsque la taille des fichiers est plus grande, il s’agit d’un accès séquentiel avec la bande passante fournie par plusieurs disques durs dans le système de fichiers parallèle Panasas, PanFS.
« Grâce à l’échelonment traditionnel basé sur la température, il peut être complexe, le client ayant besoin de gérer les niveaux et la gestion des données entre eux. Vous vous retrouvez également avec des données chaudes qui sont sur les médias très performants et des données froides sur les médias plus lent », a déclaré Anderson. « onc, ce que vous pouvez vous retrouver avec des performances incohérentes, si vous n’avez pas exécuter une application particulière pendant une semaine, par exemple.
« Si nous basons l’tiering sur la taille, les disques durs sont toujours plus performants parce qu’ils sont utilisés de la manière la plus efficace possible, en livrant 180 MBps chacun et en faisant ce qu’ils ont été conçus pour faire », a-t-il ajouté. « Les disques durs contribuent aux performances et ne sont pas isolés dans le niveau froid. »
Pendant ce temps, Panasas SSDs livrer 500MBps, mais sont destinés à la livraison IOPS plutôt que la bande passante.
Un autre inconvénient basé sur la température de palier souligné par Panasas est que vous avez toujours besoin de votre niveau de stockage de données à chaud pour être aussi grand que votre ensemble de travail. Si ce n’est pas alors vous devez potentiellement attendre le niveau froid.
Dynamic Data Acceleration est disponible dans le système de fichiers parallèle PanFS géré par les nœuds NAS ActiveStor Ultra de Panasas. Ceux-ci sont livrés avec six disque dur de tailles qui peuvent être spécifiés entre 4 To et 16 To avec SSD de taille client, plus un niveau NVMe et le stockage NVDIMM. Outre la nouvelle fonctionnalité d’tiering, cette configuration introduit également plus de choix de supports de stockage que ce n’était le cas auparavant.
Les cas d’utilisation clés ciblés sont les cas de HPC et d’IA/ML, où les charges de travail devraient être nombreuses et variées. L’idée est que le palier par taille se traduira par des performances prévisibles à travers ces charges de travail.
-
Technologie3 ans ago
Une escroquerie par hameçonnage cible les clients de la Lloyds Bank
-
Monde3 ans ago
La NASA va supprimer les noms « offensants » des planètes et des galaxies
-
Technologie1 an ago
Le forum cybercriminel ne cible que la Russie
-
Monde3 ans ago
Quelle est la taille de Barron Trump?
-
Monde3 ans ago
Qui est le mari de Candace Owens, George Farmer?
-
Monde3 ans ago
Qui est le chef de la mafia sicilienne Matteo Messina Denaro?
-
France3 ans ago
L’enseignant primaire accro au tatouage avec EYEBALLS noirci terrifie les enfants avec l’art corporel
-
France3 ans ago
Qui est Luce Douady et comment l’alpiniste de 16 ans est-il mort?