Connect with us

Technologie

Informatique hybride : améliorer le fonctionnement du centre de données et du cloud au sein de l’entreprise

Published

on


L’infrastructure des centres de données d’entreprise n’a pas radicalement changé au cours des deux dernières années, mais la façon dont elle est utilisée l’a fait. Les services cloud ont modifié les attentes quant à la facilité avec laquelle il devrait être possible de provisionner et de gérer les ressources, et également quant au fait que les organisations n’ont qu’à payer pour les ressources qu’elles utilisent.

Avec les bons outils, les centres de données d’entreprise pourraient devenir plus légers et plus fluides à l’avenir, car les organisations équilibrent leur utilisation de l’infrastructure interne par rapport aux ressources cloud pour obtenir l’équilibre optimal. Dans une certaine mesure, cela se produit déjà, comme précédemment documenté par Computer Weekly.

L’adoption de l’informatique en nuage est, bien sûr, en croissance depuis au moins une décennie. Selon les chiffres d’IDC, les dépenses mondiales en calcul et stockage pour l’infrastructure cloud ont augmenté de 12,5% en glissement annuel pour le premier trimestre 2021 à 15,1 milliards de dollars. Les investissements dans l’infrastructure non infonuagique ont augmenté de 6,3 % au cours de la même période, pour atteindre 13,5 milliards de dollars.

Bien que le premier chiffre concerne les dépenses des fournisseurs de cloud sur leur propre infrastructure, cela est dû à la demande de services cloud de la part des clients d’entreprise. En ce qui concerne l’avenir, IDC a déclaré qu’il s’attendait à ce que les dépenses en infrastructure cloud de calcul et de stockage atteignent 112,9 milliards de dollars en 2025, soit 66% du total, tandis que les dépenses en infrastructure non cloud devraient s’établir à 57,9 milliards de dollars.

Cela montre que la demande pour le cloud dépasse celle pour l’infrastructure non cloud, mais peu d’experts pensent maintenant que le cloud remplacera entièrement l’infrastructure sur site.  Au lieu de cela, les organisations sont de plus en plus susceptibles de conserver un ensemble de services critiques fonctionnant sur une infrastructure qu’elles contrôlent, avec le cloud utilisé pour les charges de travail moins sensibles ou lorsque des ressources supplémentaires sont nécessaires.

Des outils informatiques et de gestion plus flexibles permettent également aux entreprises de traiter les ressources cloud et l’informatique sur site comme interchangeables, dans une certaine mesure.

L’informatique moderne est beaucoup plus flexible

« L’informatique sur site a évolué aussi rapidement que les services cloud », explique Tony Lock, analyste distingué chez Freeform Dynamics. Dans le passé, c’était assez statique, avec une infrastructure dédiée à des applications spécifiques, ajoute-t-il. « Cela a énormément changé au cours des 10 dernières années, il est donc maintenant beaucoup plus facile d’étendre de nombreuses plateformes informatiques que par le passé.

« Vous n’avez pas besoin de les retirer pendant un week-end pour installer physiquement du nouveau matériel – il se peut que vous en lanceriez simplement du nouveau matériel sur votre centre de données, que vous le branchiez et que cela fonctionne. »

D’autres choses qui ont changé à l’intérieur du centre de données sont la façon dont les utilisateurs peuvent déplacer des applications entre différents serveurs physiques avec la virtualisation, il y a donc beaucoup plus de portabilité des applications. Et, dans une certaine mesure, la mise en réseau définie par logiciel rend cela beaucoup plus réalisable qu’il ne l’était il y a cinq ou 10 ans, dit Lock.

L’évolution rapide des outils d’automatisation qui peuvent gérer à la fois les ressources sur site et dans le cloud signifie également que la possibilité de traiter les deux comme un pool de ressources unique est devenue plus une réalité.

En juin, HashiCorp a annoncé que son outil Terraform pour la gestion de l’infrastructure avait atteint la version 1.0, ce qui signifie que l’architecture technique du produit est suffisamment mature et stable pour une utilisation en production – bien que la plate-forme soit déjà utilisée opérationnellement depuis un certain temps par de nombreux clients.

Terraform est un outil d’infrastructure en tant que code qui permet aux utilisateurs de créer une infrastructure à l’aide de fichiers de configuration déclaratifs qui décrivent à quoi l’infrastructure doit ressembler. Il s’agit en fait de blueprints qui permettent à Terraform de provisionner l’infrastructure d’une application ou d’un service spécifique de manière fiable, encore et encore.

Il peut également automatiser des modifications complexes de l’infrastructure avec une interaction humaine minimale, nécessitant uniquement une mise à jour des fichiers de configuration. La clé est que Terraform est capable de gérer non seulement une infrastructure interne, mais également des ressources sur plusieurs fournisseurs de cloud, y compris Amazon Web Services (AWS), Azure et Google Cloud Platform.

Et comme les configurations Terraform sont indépendantes du cloud, elles peuvent définir le même environnement d’application sur n’importe quel cloud, ce qui facilite le déplacement ou la réplication d’une application si nécessaire.

« L’infrastructure en tant que code est une bonne idée », déclare Lock. « Mais encore une fois, c’est quelque chose qui mûrit, mais qui mûrit à partir d’un état beaucoup plus juvénile. Mais c’est lié à toute cette question de l’automatisation, et l’informatique automatise de plus en plus, afin que les professionnels de l’informatique puissent vraiment se concentrer sur les éléments commerciaux les plus importants et potentiellement plus rentables, plutôt que sur certaines des choses les plus banales, routinières et répétitives que votre logiciel peut faire aussi bien pour vous.

Le stockage disparaît cloud-natif

Le stockage d’entreprise devient également beaucoup plus flexible, du moins dans le cas des systèmes de stockage définis par logiciel qui sont conçus pour fonctionner sur des clusters de serveurs standard plutôt que sur du matériel propriétaire. Dans le passé, les applications étaient souvent liées à des réseaux de stockage fixes. Le stockage défini par logiciel présente l’avantage de pouvoir évoluer plus efficacement, généralement en ajoutant simplement plus de nœuds au cluster de stockage.

Comme il est défini par logiciel, ce type de système de stockage est également plus facile à provisionner et à gérer via des interfaces de programmation d’applications (API) ou par un outil d’infrastructure en tant que code tel que Terraform.

WekaIO et sa plate-forme de données illimitées, déployées dans de nombreux projets de calcul haute performance (HPC), sont un exemple de la sophistication et de la flexibilité du stockage défini par logiciel. La plateforme WekaIO présente un espace de noms unifié aux applications et peut être déployée sur des serveurs de stockage dédiés ou dans le cloud.

Cela permet d’éclater vers le cloud, car les organisations peuvent simplement pousser les données de leur cluster sur site vers le cloud public et y provisionner un cluster Weka. Toute application basée sur des fichiers peut être exécutée dans le cloud sans modification, selon WekaIO.

Une caractéristique notable du système WekaIO est qu’il permet de prendre un instantané de l’ensemble de l’environnement – y compris toutes les données et métadonnées associées au système de fichiers – qui peut ensuite être poussé vers un magasin d’objets, y compris le stockage en nuage S3 d’Amazon.

Cela permet à une organisation de créer et d’utiliser un système de stockage pour un projet particulier, plutôt que de le prendre en instantané et de le garer dans le cloud une fois le projet terminé, libérant ainsi l’infrastructure hébergeant le système de fichiers pour autre chose. Si le projet doit être redémarré, l’instantané peut être récupéré et le système de fichiers recréé exactement comme il était, dit WekaIO.

Mais l’un des obstacles à ce scénario est le coût potentiel – non pas de stocker les données dans le cloud, mais d’y accéder si vous en avez besoin à nouveau. Cela est dû aux soi-disant frais de sortie facturés par les principaux fournisseurs de cloud tels qu’AWS.

« Certaines plates-formes cloud semblent extrêmement bon marché en termes de coûts de stockage purs », explique Lock. « Mais beaucoup d’entre eux ont en fait des frais d’évacuation assez élevés. Si vous voulez obtenir ces données pour les examiner et y travailler, cela vous coûte énormément d’argent. Cela ne vous coûte pas cher de le garder là, mais si vous voulez le regarder et l’utiliser, cela devient très cher très rapidement.

« Il y a des gens qui vous offriront une archive active où il n’y a pas de frais de sortie, mais vous payez plus pour cela sur le plan opérationnel. »

Un fournisseur de stockage en nuage qui a bousculé les conventions de cette manière est Wasabi Technologies, qui offre aux clients différentes façons de payer le stockage, y compris des frais mensuels fixes par téraoctet.

Gérer tout cela

L’infrastructure informatique devenant plus fluide, plus flexible et plus adaptable, les organisations peuvent constater qu’elles n’ont plus besoin de continuer à étendre la capacité de leur centre de données comme elles l’auraient fait par le passé. Avec les bons outils de gestion et d’automatisation, les entreprises devraient être en mesure de gérer leur infrastructure de manière plus dynamique et plus efficace, en réutilisant leur informatique sur site pour le prochain défi en cours et en utilisant des services cloud pour étendre ces ressources si nécessaire.

Un domaine qui peut avoir à améliorer pour rendre cela pratique est la possibilité d’identifier où se trouve le problème si une défaillance se produit ou une application fonctionne lentement, ce qui peut être difficile dans un système distribué complexe. Il s’agit déjà d’un problème connu pour les organisations qui adoptent une architecture de microservices. De nouvelles techniques impliquant l’apprentissage automatique peuvent aider ici, dit Lock.

« La surveillance est devenue bien meilleure, mais la question devient alors : comment voyez-vous réellement ce qui est important dans la télémétrie ? », dit-il. « Et c’est quelque chose que l’apprentissage automatique commence à appliquer de plus en plus. C’est l’un des Graals de l’informatique, l’analyse des causes profondes et l’apprentissage automatique rend cela beaucoup plus simple à faire.

Un autre problème potentiel de ce scénario concerne la gouvernance des données, car la façon de s’assurer que lorsque les charges de travail sont déplacées d’un endroit à l’autre, les stratégies de sécurité et de gouvernance des données associées aux données voyagent également avec elles et continuent d’être appliquées.

« Si vous pouvez potentiellement déplacer toutes ces choses, comment gardez-vous une bonne gouvernance des données dessus, de sorte que vous n’exécutez que les bonnes choses au bon endroit avec la bonne sécurité? », dit Lock.

Heureusement, certains outils existent déjà pour résoudre ce problème, tels que le projet open source Apache Atlas, décrit comme une solution unique pour la gouvernance des données et l’homme des métadonnéesle vieillissement. Atlas a été développé pour être utilisé avec des écosystèmes de données basés sur Hadoop, mais peut être intégré dans d’autres environnements.

Pour les entreprises, il semble que le rêve promis de longue date de pouvoir mélanger et faire correspondre leur propre informatique avec des ressources cloud et de pouvoir composer les choses à leur guise, se rapproche peut-être.

Click to comment

Leave a Reply

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Tendance