Connect with us

Technologie

Avancement de l’IA : Imiter la prise de décision

Published

on


L’idée d’un robot tueur, capable de prendre ses propres décisions létales de manière autonome, est quelque chose qui définit Le Terminator dans le film de James Cameron en 1984.

Heureusement pour l’humanité, les robots tueurs autonomes n’existent pas encore. Malgré d’énormes avancées technologiques, les robots véritablement autonomes restent dans le domaine de la science-fiction.

Fin 2020, l’enthousiasme suscité par les initiatives de véhicules autonomes a commencé à faiblir. Uber a vendu sa division auto-conduite fin 2020, et si le cadre réglementaire des véhicules autonomes est loin d’être clair, la technologie reste une pierre d’achoppement majeure.

Une machine fonctionnant à la lisière d’un réseau – qu’il s’agisse d’une voiture, d’un robot ou d’un capteur intelligent pour contrôler un processus industriel – ne peut pas compter sur l’informatique back-end pour prendre des décisions en temps réel. Les réseaux ne sont pas fiables et la latence de quelques millisecondes peut faire la différence entre un quasi-échec et un accident catastrophique.

Les experts acceptent généralement la nécessité d’un calcul de pointe pour la prise de décision en temps réel, mais à mesure que ces décisions évoluent à partir de simples réponses binaires « oui » ou « non » à un semblant de prise de décision intelligente, beaucoup croient que la technologie actuelle n’est pas adaptée.

La raison n’est pas seulement parce que les modèles de données avancés ne peuvent pas modéliser adéquatement les situations du monde réel, mais aussi parce que l’approche de l’apprentissage automatique est incroyablement fragile et n’a pas l’adaptabilité de l’intelligence dans le monde naturel.

En décembre 2020, lors de l’événement virtuel Intel Labs Day, Mike Davies, directeur du laboratoire informatique neuromorphique d’Intel, a discuté des raisons pour lesquelles, selon lui, les approches existantes de l’informatique nécessitent une réflexion. « Les cerveaux sont vraiment des appareils informatiques inégalés », a-t-il dit.

Mesuré par rapport aux derniers drones de course autonomes, qui ont des processeurs embarqués qui consomment environ 18w de puissance et peuvent à peine voler un itinéraire préprogrammé au rythme de marche, Davies a déclaré: « Comparez cela au perroquet cockatiel, un oiseau avec un cerveau minuscule qui consomme environ 50 milliwatts de puissance. »

Le cerveau de l’oiseau ne pèse que 2,2 grammes par rapport aux 40 grammes de puissance de traitement nécessaires sur un drone. « Sur ce maigre budget de puissance, le cockatiel peut voler à 22 mph, fourrage pour la nourriture et de communiquer avec d’autres cockatiels, at-il dit. « Ils peuvent même apprendre un petit vocabulaire de mots humains. Quantitativement, la nature surpasse les ordinateurs trois contre un sur toutes les dimensions.

Essayer de surpasser les cerveaux a toujours été l’objectif des ordinateurs, mais pour Davies et l’équipe de recherche du laboratoire informatique neuromorphique d’Intel, l’immense travail dans l’intelligence artificielle est, à certains égards, manquer le point. « Les architectures informatiques d’aujourd’hui ne sont pas optimisées pour ce genre de problème », a-t-il dit. « Le cerveau dans la nature a été optimisé pendant des millions d’années. »

Selon Davies, bien que l’apprentissage profond soit une technologie précieuse pour changer le monde des appareils intelligents de bord, c’est un outil limité. « Il résout très bien certains types de problèmes, mais l’apprentissage profond ne peut capturer qu’une petite fraction du comportement d’un cerveau naturel. »

Ainsi, alors que l’apprentissage profond peut être utilisé pour permettre à un drone de course de reconnaître une porte de voler à travers, la façon dont il apprend cette tâche n’est pas naturel. « Le Processeur est très optimisé pour traiter les données en mode lot », a-t-il dit.

Dans l’apprentissage profond, pour prendre une décision, le Processeur doit traiter des ensembles vectorisés d’échantillons de données qui peuvent être lus à partir de disques et de puces mémoire, pour correspondre à un modèle par rapport à quelque chose qu’il a déjà stocké », a déclaré Davies. « Non seulement les données sont organisées en lots, mais elles doivent également être réparties uniformément. » Ce n’est pas ainsi que les données sont codées dans des organismes qui doivent naviguer en temps réel », a-t-il ajouté.

Un cerveau traite les données échantillon par échantillon, plutôt qu’en mode lot. Mais il doit aussi s’adapter, ce qui implique la mémoire. « Il existe un catalogue de l’histoire passée qui influence le cerveau et les boucles de rétroaction adaptative », a déclaré Davies.

Prendre des décisions à la limite

Intel explore comment repenser une architecture informatique à partir du transistor jusqu’à, brouillant la distinction entre le Processeur et la mémoire. Son objectif est d’avoir une machine qui traite les données de façon asynchrone à travers des millions d’unités de traitement simples en parallèle, reflétant le rôle des neurones dans les cerveaux biologiques.

En 2017, elle a développé Loihi, un design de 128 cœurs basé sur une architecture spécialisée fabriquée sur la technologie des procédés 14 nm. La puce Loihi comprend 130 000 neurones, chacun d’eux peut communiquer avec des milliers d’autres. Selon Intel, les développeurs peuvent accéder et manipuler les ressources sur puce de manière programmatique au moyen d’un moteur d’apprentissage intégré dans chacun des 128 cœurs.

Lorsqu’on les pose des questions sur les zones d’application for informatique neuromorphique, Davies a dit qu’il peut résoudre des problèmes similaires à ceux de l’informatique quantique. Mais alors que l’informatique quantique est susceptible de rester une technologie qui finira par apparaître dans le cadre de l’informatique datacentre dans le nuage, Intel a des aspirations à développer l’informatique neuromorphique en tant qu’unités de co-processeur dans les dispositifs informatiques de bord. En ce qui concerne les délais, Davies a dit s’attendre à ce que les appareils soient expédiés d’ici cinq ans.

En termes d’exemple concret, des chercheurs d’Intel Labs et de l’Université Cornell ont démontré comment Loihi pourrait être utilisé pour apprendre et reconnaître les produits chimiques dangereux à l’extérieur, basé sur l’architecture de l’ampoule olfactive mammifère, qui fournit au cerveau le sens de l’odorat.

Pour Davies et d’autres chercheurs en neuroinfilcation, la plus grande pierre d’achoppement n’est pas avec le matériel, mais avec l’obtention des programmeurs de changer une façon vieille de 70 ans de la programmation traditionnelle pour comprendre comment programmer un neuroordinateur parallèle efficacement.

« Nous nous concentrons sur les développeurs et la communauté », a-t-il dit. « Le plus difficile est de repenser ce que signifie programmer lorsqu’il y a des milliers de neurones qui interagissent. »

Click to comment

Leave a Reply

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Tendance