Connect with us

Technologie

Analyse de stockage : comment l’IA aide la gestion du stockage

Published

on


On s’attend à ce que les dépenses d’infrastructure de TI diminuent en raison de la pandémie de coronavirus, mais cela sera probablement combiné avec la croissance continue du volume de données, en partie en raison de niveaux plus élevés de travail à distance.

Tout cela, et la nécessité d’obtenir plus de petits budgets, mettra la pression sur les organisations pour rationaliser la façon dont ils gèrent leur informatique. De plus en plus, ils se tournent vers la surveillance automatisée de la gestion du stockage dans le cadre de cette.

La surveillance du matériel de stockage est maintenant bien établie, avec des outils qui recueillent des données sur l’utilisation du volume et les performances de l’équipement, mais aussi des données environnementales, la température, la consommation d’énergie et les lectures au niveau des composants des lecteurs. Les outils les plus avancés peuvent formuler des recommandations pour optimiser les performances et l’utilisation.

« Ces données sont ensuite exploitées par l’intelligence intégrée des systèmes pour fournir des informations à l’administrateur afin d’offrir des recommandations sur la façon de résoudre les problèmes ou d’améliorer l’optimisation du système, ou de fournir des informations prédictives sur les problèmes potentiels avant qu’ils ne se produisent », explique Scott Sinclair, analyste chez ESG.

Au fil du temps, les analystes s’attendent à ce que l’analyse du stockage passe de la surveillance et de la détection précoce des défauts à des opérations autonomes.

Outils fournisseurs de matériel par rapport à la surveillance multi-fournisseurs

La plupart – mais pas tous – des outils d’analyse de stockage proviennent des fournisseurs de matériel, ce qui donne aux responsables informatiques un instantané utile de l’état d’ensemble de leurs réseaux ou sous-systèmes de stockage. Mais cela ne donne qu’une image limitée d’un système ou d’une pile complète, surtout lorsque plus d’un fournisseur est impliqué.

« La plupart des gestionnaires de stockage utiliseront les outils par défaut qui sont livrés avec l’équipement , » dit Andy Buss, à la maison d’analystes IDC. « Les entreprises ont le désir de mettre en place des outils centralisés, mais finissent souvent par ne pas le faire. Ils reviennent à ce qui vient avec leur équipement.

Davantage d’outils de surveillance et d’analyse de stockage multi-fournisseurs arrivent sur le marché, en partie stimulés par la nécessité pour les entreprises de gérer les environnements hybrides et en partie par l’utilisation croissante d’interfaces de programmation d’applications normalisées (API) – en particulier l’API de transfert d’État représentatif (REST) – pour le stockage.

Mais l’utilisation d’outils multi-fournisseurs implique un compromis entre la visibilité à l’échelle du système et une rétroaction détaillée sur les performances du système. Les outils indépendants des fournisseurs ne recueillent pas encore suffisamment de données pour optimiser pleinement les équipements de chaque fabricant.

« Une grande partie des nouveaux outils de gestion sont plus polyvalents pour les fournisseurs », explique M. Buss. « vous obtenez un niveau de base de fonctionnalité. Vous n’avez pas toutes les cloches et les sifflets, mais vous avez plus de contrôle sur l’ensemble de votre infrastructure.

Les équipes informatiques sont de plus en plus appétits pour une « seule vitre » pour gérer l’infrastructure, y compris le stockage. Ces systèmes ont un coût supplémentaire, et les entreprises ont été réticentes à les payer.

Mais cela change, en partie en raison de leur expérience dans les systèmes d’exploitation tels que Azure Stack et Amazon Web Services (AWS) Outposts, qui viennent avec une gestion sophistiquée intégré.

Outils prédictifs et AIOps

Les outils de stockage et d’analyse de système sont également de plus en plus intelligents. Les fournisseurs d’outils de matériel et de gestion se tournent vers l’analyse avancée, et même l’intelligence artificielle (IA) et l’apprentissage profond, pour améliorer les performances du système.

Il peut s’agir de déplacer les jeux de données vers le niveau de stockage le plus rentable, de déplacer les fichiers d’un sous-système qui montre des signes qu’il pourrait échouer, ou de consolider les données pour maximiser l’équilibre entre l’utilisation des capacités et les performances.

Les entreprises se tournent vers ces outils pour faire face à des environnements plus grands et plus complexes, y compris ceux qui mélangent le cloud et les ressources sur site. L’IA et l’apprentissage automatique (ML) sont de plus en plus considérés comme un moyen – parfois le seul – de faire face à cette complexité et d’offrir des performances informatiques à l’entreprise.

Selon des recherches récentes menées par les analystes ESG, environ 23 % des entreprises considèrent l’IA et le ML pour la gestion des systèmes comme une priorité absolue pour la modernisation des centres de données.

« Ces caractéristiques d’intelligence sont vitales pour tout environnement informatique de taille significative », déclare Scott Sinclair d’ESG. « Les organisations n’ont pas l’excès de personnes pour consacrer du temps à l’optimisation continue de chaque environnement à mesure que l’utilisation de la charge de travail évolue ou à diagnostiquer des défaillances de composants complexes. » Au lieu de cela, ils se tournent vers des systèmes pour le faire.

Gartner a appelé cela « AIOps, qui signifie « intelligence artificielle pour les opérations informatiques ».

Gartner prévoit que d’ici la fin de 2025, 40 % des nouveaux déploiements de produits d’infrastructure, y compris les systèmes de stockage et les systèmes hyperconvergés, seront compatibles avec AIOps, contre moins de 10 % en 2020.

Les nouveaux outils proactianalysez considérablement la capacité et l’état des performances, prédisent les problèmes potentiels qui peuvent causer des perturbations dans les services de données et fournissent des conseils exploitables pour résoudre les problèmes de niveau 1 qui améliorent l’efficacité de l’utilisation du stockage.

Julia Palmer, vice-présidente de Gartner, déclare : « Les outils de stockage ont toujours fourni certaines mesures de capacité et de performance, mais ce n’était pas suffisant car il fallait quelqu’un ayant une expertise en stockage pour le surveiller constamment. Toutefois, les outils AIOps recherchent les anomalies, les tendances de consommation et de performance et les corrélent avec le comportement normal du système client spécifique et d’autres systèmes pris en charge par le fournisseur.

Qu’est-ce qui est disponible?

En réunissant des sources de données plus riches et un certain degré d’intelligence artificielle, certains fournisseurs affirment des améliorations significatives dans la performance et la disponibilité du système.

L’InfoSight de HPE, par exemple, est considéré comme l’un des plus avancés. Il surveille 100 000 systèmes et entre 30 millions et 70 millions de capteurs dans le monde pour des problèmes de maintenance et de performance.

InfoSight prétend détecter et résoudre 86% des problèmes potentiels sans avoir besoin d’intervention humaine. Jusqu’à 54% des problèmes détectés par InfoSight sont le stockage « extérieur » et ailleurs dans la pile, dit l’entreprise. Pour l’instant, InfoSight ne fonctionne qu’avec les systèmes HPE Nimble et la technologie 3PAR.

Virtana – officiellement Virtual Instruments – est également un chef de file dans la gestion des performances du système, avec un accent sur l’architecture hybride ainsi que le cloud privé.

Il y a aussi d’autres fournisseurs sur le marché. Les informations de stockage basées sur le cloud d’IBM, le SIÈGE actif de NetApp et Hitachi Vantara sont parmi les plus connues.

Microsoft dispose également de fonctionnalités de surveillance étendues dans Azure, via REST API, ainsi que via Windows Server, où cette plate-forme est utilisée pour exécuter du matériel serveur dense en stockage. VMWare dispose également de ses outils pour les environnements virtualisés, grâce à ses outils d’optimisation intelligent pour vSAN.

Ensemble, ces applications donnent aux directeurs informatiques des outils puissants pour surveiller et optimiser leurs environnements, ainsi que pour prévenir les défaillances.

Des systèmes plus intelligents, un stockage plus intelligent

Toutefois, l’industrie en est encore à un stade précoce de son chemin vers une gestion intelligente et indépendante du stockage.

Les secteurs de croissance sont susceptibles d’inclure un soutien accru pour les environnements hybrides, une gestion plus granulaire des différents types de stockage flash sur le marché, et potentiellement un soutien pour les prix basés sur la capacité. Des outils tels que Virtana et vSAN peuvent déjà tenir compte des coûts d’entrée et d’évacuation des données.

« Les capacités prédictives de certains de ces systèmes sont vraiment incroyables », déclare Sinclair d’ESG. « Les systèmes intelligents proposent généralement des recommandations pour optimiser les performances ou la capacité du système, tandis que certains offrent même la possibilité de s’auto-optimiser. »

« De la même manière, ces systèmes peuvent aussi souvent diagnostiquer automatiquement les problèmes et recommander des actions. Il est difficile de faire des réclamations sur les capacités prédictives, parce que les résultats peuvent changer en fonction de l’environnement. Mais certains fournisseurs comptent sur ces capacités pour faire des réclamations de niveau supérieur, telles que la disponibilité à 100% garantie par exemple. »

Reste à savoir si de telles allégations peuvent être étayées. Il sera plus facile pour les fournisseurs d’atteindre des cibles de fiabilité dans des environnements monolithiques à fournisseur unique que pour des systèmes plus complexes.

De plus, les mesures de fiabilité et de performance varient en fonction de la charge de travail et des applications. Un système qui donne la priorité à la performance à court terme à la fiabilité pourrait ne pas donner à l’entreprise ce dont elle a besoin.

En conséquence, l’analyse de stockage continuera à travailler aux côtés des analystes humains, suggère Andy Buss d’IDC. « Les systèmes doivent être fiables de manière durable », dit-il. « Pour que la technologie soit acceptée, elle doit être acceptée en tant qu’assistante. Peu d’entreprises céderont entièrement leur infrastructure informatique ou de stockage à l’IA.

Click to comment

Leave a Reply

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Trending