Connect with us

Technologie

L’impact de l’IA générative sur le datacenter

Published

on


Des questions subsistent quant à l’impact potentiel sur les centres de données de l’adoption de l’intelligence artificielle générative (IA), même en ce qui concerne le besoin de plus de traitement, de stockage et de puissance. Une chose est certaine, c’est qu’il y aura un impact.

Slawomir Dziedziula, directeur de l’ingénierie des applications chez Vertiv, avertit que personne n’a entièrement calculé la consommation d’énergie pour les applications individuelles. Ainsi, la façon dont autant de demandes affecteront spécifiquement les exigences logicielles et matérielles reste incertaine.

« Il est encore tôt pour dire précisément », convient-il, soulignant que les pays qui ont interdit l’extraction de crypto avaient des préoccupations similaires concernant les impacts et la durabilité des infrastructures.

« Un côté est à quel point vous pouvez faire confiance à l’IA générative, bien que vous puissiez certainement l’utiliser pour améliorer vos connaissances et vos compétences », explique Dziedziula.

« L’autre chose est que vous avez besoin de nombreux serveurs, GPU, périphériques de stockage de données, etc., puis de vos ingénieurs. S’ils utilisent des scripts de valeur pour une utilisation dans des applications, ils auront besoin d’être personnalisés.

Il peut déjà être difficile d’identifier l’utilisation d’un modèle de langage à grande échelle (LLM). Les programmeurs expérimentés utilisent l’IA générative pour trouver de nouvelles idées et perspectives – mais certains peuvent ne pas repérer des résultats objectivement médiocres, note-t-il.

« Tout le monde peut croire qu’il est vraiment bon dans quelque chose en utilisant l’IA générative », souligne Dziedziula.

Travailler avec l’IA générative implique beaucoup de vérification. Des compétences et de nouvelles applications peuvent être requises. Les pressions en matière de cybersécurité peuvent également s’intensifier. ChatGPT peut produire de vastes volumes d’e-mails de phishing crédibles, par exemple.

« Il y aura une dépendance accrue à l’égard des travailleurs qualifiés », prévient Dziedziula. « Pourtant, au lieu de 10 personnes, je n’ai besoin que de deux personnes et d’un logiciel intelligent pour faire le reste. »

Chris Anley, scientifique en chef chez NCC Group, fournisseur de sécurité informatique, d’assurance et d’entiercement de logiciels, affirme que le centre de données pourrait avoir besoin d’un regard neuf sur la consommation des ressources, la gestion de l’infrastructure et la sécurité.

Les infrastructures de réseau, les architectures, les modèles de stockage et de récupération de données émergents devront être sécurisés, de sorte que les impacts ne concernent pas seulement l’échelle et la capacité. Le provisionnement de nouvelles façons impliquera des mécanismes de stockage distribués à l’échelle d’Internet, allant au-delà des bases de données relationnelles pour atteindre le débit de formation des systèmes d’IA et d’apprentissage automatique (ML).

« Vous ne pouvez pas avoir un seul cluster qui le fait ; vous devez répartir la charge entre de nombreux GPU », explique Anley. « Les nouvelles exigences modifieront les centres de données, du refroidissement et de l’alimentation à la structure physique et logique des réseaux. Un datacenter optimisé pour l’IA peut être très différent d’un datacenter optimisé pour les opérations d’entreprise typiques. »

Des datacenters déjà en mode adaptation

Pourtant, les outils de ML pénètrent progressivement le marché depuis des années malgré « le battage médiatique alarmiste sur l’IA générative qui mange le monde », note Anley.

Il confirme utiliser ChatGPT pour la révision du code de sécurité. Cependant, bien que cela puisse aider à identifier ou à trier les problèmes, il estime que les résultats ne sont pas entièrement fiables. « Il peut inventer des faits, soit en manquant complètement des bugs, en se concentrant simplement sur autre chose, soit en « hallucinant » des bugs fictifs. Les deux sont mauvais pour la sécurité. »

Il s’empresse d’ajouter que la plupart du temps, il y a peu de menace de cela. Les programmeurs qui ont besoin d’une IA générative pour coder ne vont généralement pas travailler sur des applications d’entreprise critiques. De plus, bien que des « bogues subtils » se produisent, un mauvais code est généralement immédiatement apparent car il ne fait tout simplement pas ce que vous voulez.

« Le code n’est pas l’une de ces choses où il peut être « la plupart du temps juste » comme une chanson, une production théâtrale ou un morceau de prose ou quoi que ce soit d’autre », dit Anley.

L’IA générative devrait rester principalement axée sur le fait de rendre le personnel qualifié plus efficace et productif. Même une amélioration de la productivité de 10 % peut réduire considérablement les coûts au niveau organisationnel, dit-il.

L’IA générative est déjà « bonne dans les petites choses », telles que le code de bibliothèque où un programmeur peut ne pas être tout à fait familier avec la bibliothèque, ne connaît pas le nom de la fonction spécifique dans cette bibliothèque, ou pour certaines tâches techniques telles que la conversion de données d’un format à un autre.

« Il effectuera automatiquement quelque chose, vous évitant ainsi d’accéder au navigateur Web ou à la documentation », poursuit Anley. « Je pense que la plupart de nos clients utilisent désormais l’IA sous une forme ou une autre, que ce soit pour le support client, les chatbots ou simplement l’optimisation des processus internes. »

Cependant, avec les technologies complexes de développement et d’hébergement d’IA ou de ML poussées dans les réseaux d’entreprise, la prudence est de mise. Par exemple, l’agrégation d’un grand nombre de données d’apprentissage au-delà des limites de sécurité peut supprimer des contrôles importants sur ce qui peut être « vu ».

Les données d’apprentissage peuvent être récupérées à partir de modèles formés simplement en les interrogeant, à l’aide d’attaques telles que l’inférence d’appartenance et l’inversion de modèle. « Le résultat est une situation similaire aux attaques de violation de données par injection SQL familières. »

Il note qu’au moins un fournisseur a récemment interdit l’IA générative parce que les développeurs ajoutaient du code d’entreprise sensible dans un moteur de politique tiers juste pour les aider à écrire. Pourtant, ne pas le faire devrait être du bon sens, et de nombreuses entreprises ont déjà des politiques interdisant le partage de code avec des tiers.

Matt Hervey, associé et chef du droit de l’IA chez Gowling WLG, affirme que même s’il est encore difficile de former ces modèles à générer et à catégoriser parfaitement les données, la qualité « semble avoir considérablement augmenté » au cours des six à 12 derniers mois. Avec les techniques de ML intégrées dans des outils standard, on peut s’attendre à des « impacts profonds », mais ceux-ci peuvent surtout représenter une opportunité commerciale.

« Je soupçonne que c’est une bonne nouvelle pour le secteur des centres de données… et il y a des mouvements pour obtenir des résultats similaires avec des ensembles d’entraînement plus petits », explique Hervey.

Cependant, certaines « mauvaises activités » peuvent se retrouver dans l’espace privé, ajoute-t-il, et des questions subsistent quant à savoir si les centres de données seront entièrement protégés en matière de risque juridique.

Avec une augmentation massive de l’utilisation du ML impliquant des augmentations de traitement et de puissance au-delà de ce qui a été vu auparavant, certains déplaceront également des applications ou des services cloud vers la périphérie. Le traitement embarqué sur les téléphones mobiles, par exemple, présente un potentiel de confidentialité ou d’autres problèmes de conformité réglementaire.

Les points de vue sur « la valeur économique » de certaines activités ou de certains rôles sont appelés à changer, certains domaines ou activités devenant plus ou moins rentables, se répercutant sur diverses industries et secteurs, y compris dans les centres de données, explique Hervey.

Jocelyn Paulley, associée et cochef des secteurs de la vente au détail, de la protection des données et de la cybersécurité au Royaume-Uni chez Gowling WLG, ajoute que les expansions et la connectivité des centres de données là où il y a déjà des problèmes de capacité, comme à Londres, pourraient ajouter un défi, mais sont peut-être solubles avec les refontes de l’infrastructure et du refroidissement et l’augmentation des densités de serveurs.

Les centres de données peuvent éviter les risques liés au contenu

L’utilisation imprudente ou non conforme de ChatGPT par les clients, par exemple, n’affectera pas les fournisseurs de colocation n’ayant aucun accès aux logiciels clients et aux environnements qui n’hébergent pas d’applications ou de contenu d’autres personnes – et lorsque cela peut être un problème, la législation évolue déjà, dit Paulley.

Jaco Vermeulen, directeur technique du cabinet de conseil BML Digital, souligne que l’IA générative ne fait rien de plus avancé que la recherche, ce qui signifie une force brute en termes de cyberattaque. Alors que les LLM peuvent nécessiter une plus grande intervention humaine dans l’interprétation ou la jonction de certains facteurs dans l’analyse, par exemple, la dernière itération de l’IA n’est « pas vraiment une menace en soi ».

« Il faut d’abord le diriger, puis le valider », dit-il.

L’accès au datacenter nécessite déjà une identification physique, biométrique ou « éventuellement double biométrique », plus une deuxième partie. Deux personnes sont généralement nécessaires pour accéder à un bâtiment, chacune avec trois éléments d’identification puis de vérification.

Pour que l’IA puisse extraire tout cela, elle a besoin de beaucoup d’accès aux informations personnelles, qui ne sont tout simplement pas disponibles sur Internet – et si elle tire des données auxquelles elle n’est pas censée accéder, cela dépend des organisations et des individus qui l’utilisent, dit Vermeulen.

L’utilisation d’invites plus complexes pour atteindre une plus grande sophistication ne fera qu’entraîner des réponses « échouant plus lamentablement… Parce qu’il va essayer de vous donner des renseignements réels sans contexte réel sur la façon de l’appliquer. Il n’a qu’une focalisation à bande étroite », explique Vermeulen.

« Vous allez avoir des acteurs mauvais ou paresseux n’importe où. Cette machine ne va pas au-delà de la boîte. Et si à l’avenir il se transforme en Skynet, débranchons-le. »

En outre, Vermeulen indique que la plupart des agents seront déployés là où une organisation en a le contrôle total. Il jette également de l’eau sur la nécessité de toute proposition unique liée au centre de données.

« L’IA générative est généralement plus similaire, à moins qu’il n’y ait une véritable analyse de rentabilisation dans le produit réel », explique Vermeulen. « C’est juste la reconnaissance de formes avec sortie qui capte les variations. Le modèle commercial restera axé sur la consommation, le soutien et la capacité. »

Rob Farrow, responsable de l’ingénierie chez Profusion, ajoute que la plupart des modèles d’IA se recyclent simplement sur les mêmes entrées pour produire leurs modèles. Bien que les développements – tels que la capacité à s’auto-concevoir – puissent faire de l’IA une menace suffisante pour nécessiter une option de sécurité intégrée ou de kill switch, cela semble peu probable d’ici environ 10 ans.

« Il n’y a pas de niveau de complexité réel valide ou quoi que ce soit d’autre que l’intelligence humaine », Farpointe vers Row. « Il y a tout un tas de problèmes techniques. Quand cela arrive, nous devons y penser. »

Cela nous ramène aux dépenses de calcul liées à l’exécution du ML. D’autres incertitudes demeurent, découlant de la complexité accrue des logiciels, par exemple, de sorte que davantage de choses peuvent mal tourner. Cela suggère la valeur de travailler sur le développement de la transparence du logiciel et de la façon dont il fonctionne ou prend des décisions.

Écrire moins de code et simplifier dans la mesure du possible peut aider, mais les plates-formes pour cela ne fournissent souvent pas assez de nuances, dit Farrow.

Tout en mettant en garde les organisations contre les projets d’IA générative ou de ML sans bases de données suffisamment solides, il suggère que les impacts sur l’alimentation, le traitement et le stockage pourraient être contrés en utilisant l’IA ou le ML pour développer une plus grande prévisibilité, réalisant des économies sur tous les systèmes.

« Certains centres de données Amazon ont des panneaux solaires avec des milliers de batteries, produisant d’énormes quantités de chaleur, mais utilisant en fait le ML pour prendre l’énergie solaire en fonction des rythmes circadiens », dit-il.

Mais beaucoup d’entreprises sautent le pas, poursuivant un modèle d’IA ou de ML qu’elles veulent. Vous construisez une maison sur le sable si vous ne pouvez pas la recycler, vous ne pouvez pas aller chercher de nouvelles données, vous n’avez aucune visibilité et vous ne pouvez pas les vérifier. Cela pourrait fonctionner pendant une courte période, puis échouer, prévient Farrow.

Click to comment

Leave a Reply

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Tendance

Berita Hari Ini indo877 Indo877 Indo877 nagahoki303 Agendewa88 DEWAHOKI303 DEWAHOKI303 https://arkhedesignn.com/ Akun Pro Jepang https://wlmags.com/ https://thisisitnow.info/ https://www.aslightdies.com/
rupiahtoto sbobet dewahoki303 agendewa88 dewahoki303 nagahoki303 member303 indo877 slot gacor Nagahoki303 indo877 member303 dewahoki303 dewahoki303 agendewa88 link bio slot77 akun pro myanmar akun pro malaysia akun pro monaco akun pro singapore akun pro taiwan akun pro thailand akun pro amerika akun pro filipina akun pro hongkong akun pro jepang akun pro kamboja akun pro rusia