Wirth Research, une société d’ingénierie spécialisée dans la dynamique des fluides computationnelle, s’intéresse de plus en plus à la durabilité environnementale.
Elle s’est d’abord concentrée sur la conception de voitures de course, permettant aux clients de remplacer les travaux coûteux en soufflerie par une modélisation informatisée, mais ces dernières années, elle a conçu des équipements qui réduisent la traînée aérodynamique des camions et un dispositif qui réduit l’air froid s’échappant des réfrigérateurs de supermarché à façade ouverte, réduisant ainsi la consommation d’énergie d’un quart.
La société basée à Bicester souhaitait également réduire l’énergie utilisée par sa modélisation informatisée détaillée, qui simule environ un demi-milliard de minuscules cellules d’air pour l’aérodynamique automobile. Il avait déjà ajusté la résolution des cellules dans chaque modèle, avec un maillage submillimétrique plus fin utilisé près des arêtes vives.
Puis, pendant la pandémie, lorsqu’il a réalisé que le personnel pouvait travailler efficacement à domicile, Wirth a déplacé son informatique de son propre site vers un centre de données alimenté par des énergies renouvelables en Islande géré par Verne Global. Le nouveau matériel a réduit les besoins en énergie des trois quarts et la puissance utilisée est neutre en carbone.
Le directeur de l’ingénierie, Rob Rowsell, affirme que le coût total du nouvel équipement réparti sur plusieurs années, ainsi que l’utilisation de l’installation islandaise et la connectivité, s’élève à moins que l’ancienne facture d’électricité britannique. En plus de cela, comme elle prévoit de continuer avec le travail hybride, l’entreprise a déménagé dans des bureaux plus petits dans un bâtiment respectueux de l’environnement.
Wirth veut rendre ses processus informatiques encore plus efficaces. Il peut déjà arrêter les itérations de modèles virtuels lorsqu’ils se stabilisent plutôt que de les exécuter un nombre fixe de fois, mais il examine comment il peut utiliser l’intelligence artificielle (IA) entraînée sur des travaux antérieurs pour utiliser une poignée d’itérations pour prédire une version stable d’un modèle qui prendrait normalement beaucoup plus de temps à atteindre.
La prédiction n’aurait pas besoin d’être entièrement précise car la société effectuerait ensuite quelques itérations supplémentaires pour vérifier la stabilité du modèle. « Vous finiriez par être capable de faire 15 ou 20 itérations au lieu de 100 », explique Rowsell.
Il existe un grand potentiel pour utiliser l’IA pour lutter contre le changement climatique, explique Peter van der Putten, directeur des solutions de décision et d’IA chez Pegasystems, fournisseur de logiciels basé au Massachusetts, et professeur adjoint à l’Université de Leiden aux Pays-Bas.
Mais ces dernières années, l’IA a de plus en plus signifié l’utilisation de modèles d’apprentissage profond qui nécessitent de grandes quantités d’informatique et d’électricité pour fonctionner, tels que le modèle de langage GPT3 d’OpenAI, formé sur près de 500 milliards de mots et utilisant 175 milliards de paramètres.
« Jusqu’à récemment, il était à la mode de proposer un autre modèle plus grand », explique van der Putten. Mais les considérations environnementales soulignent les avantages de rendre l’IA plus efficace, la hausse des coûts de l’électricité augmentant les justifications économiques. « Tant d’un point de vue financier que d’un point de vue climatique, petit c’est beau. »
Une autre raison est que des modèles plus simples et plus efficaces peuvent produire de meilleurs résultats. En 2000, van der Putten a co-organisé un défi où les participants ont essayé de prédire quels clients d’une compagnie d’assurance seraient intéressés par l’achat d’une couverture pour les caravanes, sur la base de dizaines de variables sur des milliers de personnes.
Il s’agissait de données bruyantes réelles, qui peuvent égarer des modèles complexes. « Vous pourriez commencer à voir des modèles là où il n’y en a pas. Vous commencez à surajuster les données », explique van der Putten. Ce problème se produit lorsque les données d’entraînement ne sont pas tout à fait les mêmes que les données pour lesquelles des prédictions sont requises, par exemple lorsqu’elles couvrent deux groupes de personnes différents. Les modèles plus simples fonctionnent également bien lorsqu’il existe des relations claires ou lorsqu’il n’y a que quelques points de données.
Il peut également être difficile et coûteux de réviser de grands modèles formés sur de grandes quantités de données. Pour les situations en évolution, telles que l’attribution du travail à un groupe d’employés comptant beaucoup de menuisiers et de sortants, des modèles d’apprentissage en ligne plus légers conçus pour s’adapter rapidement en fonction de nouvelles informations peuvent être la meilleure option.
Van der Putten dit qu’en plus d’être moins chers et d’avoir moins d’impact sur l’environnement, ces modèles sont également plus faciles à interpréter. Il est également possible d’utiliser des algorithmes d’apprentissage automatique classiques, tels que les machines vectorielles de support, utilisées pour classer les éléments, qui ont tendance à être plus légers car ils ont été développés à une époque de puissance de calcul beaucoup plus limitée.
Van der Putten dit que les spécialistes de l’IA se sont divisés en tribus privilégiant des techniques spécifiques de la fin des années 1980 et du début des années 1990, mais les praticiens ont ensuite appris à utiliser différentes approches dans différentes situations ou à les combiner. « Revenir à une approche plus multidisciplinaire serait sain », dit-il à propos des choses maintenant, gLes alternatives à l’apprentissage profond basé sur le Big Data utilisent généralement beaucoup moins de puissance de calcul.
Je dois commencer quelque part
Une option consiste à donner aux modèles d’IA un point de départ ou une structure, selon Jon Crowcroft, professeur de systèmes de communication à l’Université de Cambridge et fondateur de la société de découverte de données iKVA basée à Cambridge.
Les modèles linguistiques utilisés pour inclure des règles structurelles plutôt que d’être basés sur l’analyse de milliards de mots, et de même des modèles axés sur la science peuvent bénéficier d’une programmation de principes pertinents. Cela s’applique en particulier lors de l’analyse de la langue, des vidéos ou des images, où les volumes de données ont tendance à être très élevés.
Par exemple, un système d’IA pourrait apprendre à identifier plus efficacement les protéines de pointe du coronavirus si on lui donnait une forme de pic d’échantillon. « Plutôt que d’avoir simplement des zillions d’images et quelqu’un qui les étiquete, vous avez un modèle de vérité sur le terrain », explique Crowcroft.
Il ajoute que cette approche est appropriée lorsque chaque résultat peut avoir des conséquences importantes, comme avec des images médicales. Il peut avoir besoin de spécialistes pour fournir du matériel initial, bien que cela puisse ne pas être un inconvénient important si ceux qui mettent en place le modèle sont de toute façon des experts, comme c’est probablement le cas pour un usage académique. Une telle entrée humaine initiale peut réduire considérablement la puissance de calcul nécessaire au développement d’un modèle d’IA et faciliter l’explication du modèle.
Effectuer l’IA localement signifierait beaucoup moins de données envoyées sur les réseaux, ce qui permettrait d’économiser de l’énergie et de l’argent.
Cela pourrait également aider à changer où l’IA fonctionne, ainsi que comment. Un modèle d’apprentissage automatique fédéré pourrait impliquer des compteurs véritablement intelligents analysant la consommation d’électricité d’un client et envoyant une mise à jour occasionnelle d’un modèle résultant au fournisseur, par opposition aux compteurs actuels qui envoient des données d’utilisation toutes les quelques minutes.
« La compagnie d’électricité se soucie d’avoir un modèle d’utilisation de chacun au fil du temps », pas ce que tous les clients font en temps quasi réel, dit Crowcroft.
La réalisation de l’IA locale signifierait beaucoup moins de données envoyées sur les réseaux, ce qui permettrait d’économiser de l’énergie et de l’argent, et offrirait une plus grande confidentialité car les données d’utilisation détaillées ne quitteraient pas la propriété. « Vous pouvez renverser la situation », ajoute Crowcroft. Un tel « apprentissage en périphérie » pourrait bien fonctionner pour les moniteurs de soins de santé personnels, où la confidentialité est particulièrement importante.
Réduire l’énergie nécessaire à l’IA
Si un modèle d’apprentissage profond centralisé est nécessaire, il existe des moyens de le rendre plus efficace. TurinTech, spécialiste de l’optimisation du code basé à Londres, estime qu’il peut généralement réduire de 40% l’énergie nécessaire à l’exécution d’un modèle d’IA. Si un ajustement légèrement moins précis est acceptable, des économies beaucoup plus importantes sont possibles, selon le directeur général Leslie Kanthan.
De la même manière que l’ajustement excessif d’un modèle au groupe particulier de personnes qui composent les données de formation, un modèle formé sur des données de trading financier passés ne peut pas prédire son comportement futur. Un modèle plus simple peut fournir de bonnes prédictions, être beaucoup moins cher à développer et beaucoup plus rapide à mettre en place et à modifier – un avantage significatif dans le trading.
L’optimiseur de TurinTech utilise un hybride d’apprentissage profond et d’algorithmes génétiques ou évolutifs pour adapter un modèle basé sur de nouvelles informations, plutôt que d’avoir besoin de le régénérer à partir de zéro. « Il va essayer de plier le modèle d’apprentissage profond pour l’adapter », explique Kanthan.
Harvey Lewis, associé d’Ernst and Young UK et scientifique en chef des données de sa pratique fiscale, affirme que les algorithmes évolutifs et les méthodes statistiques bayésiennes sont utiles pour rendre l’apprentissage profond plus efficace. Cependant, il est courant d’adopter une approche par force brute pour régler les paramètres dans les modèles, en parcourant un grand nombre de combinaisons pour voir ce qui fonctionne, ce qui, pour des milliards de paramètres, « va être assez coûteux en calcul ».
Les coûts de ce travail peuvent être réduits en utilisant du matériel spécialisé, dit Lewis. Les unités de traitement graphique, qui sont conçues pour effectuer des calculs rapidement afin de générer des images, sont meilleures que les ordinateurs personnels à usage général. Les réseaux de portes programmables sur le terrain qui peuvent être configurés par les utilisateurs et les unités de traitement tensoriel conçues par Google spécifiquement pour l’IA sont encore plus efficaces, et l’informatique quantique est appelée à aller encore plus loin.
Mais Lewis dit qu’il est logique de se demander d’abord si une IA complexe est réellement nécessaire. Les modèles d’apprentissage profond sont efficaces pour analyser de grands volumes de données cohérentes. « Ils sont excellents pour accomplir la tâche étroite pour laquelle ils ont été formés », dit-il. Mais dans de nombreux cas, il existe des options plus simples et moins chères qui ont moins d’impact sur l’environnement.
Lewis aime trouver une base de référence, le modèle d’IA le plus simple qui puisse générer une réponse raisonnable. « Une fois que vous avez cela, avez-vous besoin d’aller plus loin, ou fournit-il ce dont vous avez besoin? » dit-il. En plus d’économiser de l’argent, de l’électricité et des émissions, des modèles plus simples tels que les arbres de décision sont plus faciles à comprendre et à expliquer, une fonctionnalité utile dans des domaines tels que la fiscalité qui doivent être ouverts à la vérification et à l’audit.
Il ajoute qu’il est souvent bénéfique de combiner l’intelligence humaine avec le type artificiel. Cela peut inclure des vérifications manuelles pour les problèmes de qualité des données de base, par exemple si les champs marqués comme dates sont reconnaissables comme tels, avant le début du travail automatisé.
Il est alors souvent plus efficace de diviser les processus entre les machines et les humains, avec des logiciels effectuant des tris à grand volume tels que repérer des images avec des chiens, puis des personnes faisant les jugements plus difficiles tels que la classification de la race. « Amener un humain dans la boucle est un moyen d’aider la performance et de la rendre beaucoup plus durable », explique Lewis.