Connect with us

Technologie

Peut-on s’appuyer sur l’IA ?

Published

on


Alors que les systèmes d’intelligence artificielle (IA) deviennent de plus en plus complexes, ils sont utilisés pour faire des prévisions – ou plutôt générer des résultats de modèles prédictifs – dans de plus en plus de domaines de notre vie. Mais dans le même temps, les inquiétudes sont de plus en plus exprimées quant à la fiabilité, dans un contexte de marges d’erreur croissantes dans les prédictions élaborées de l’IA. Comment pouvons-nous répondre à ces préoccupations?

La science de la gestion offre un ensemble d’outils qui peuvent rendre les systèmes d’IA plus fiables, selon Thomas G Dietterich, professeur émérite et directeur de la recherche sur les systèmes intelligents à l’Université d’État de l’Oregon.

Lors d’un webinaire sur la plateforme AI for Good organisée par l’Union internationale des télécommunications (UIT), Dietterich a déclaré au public que la discipline qui amène les décideurs humains au sommet de leur art peut également être appliquée aux machines.

Pourquoi est-ce important? Parce que l’intuition humaine bat toujours l’IA haut la main en faisant des appels de jugement en cas de crise. Les gens – et en particulier ceux qui travaillent dans leurs domaines d’expérience et d’expertise – sont tout simplement plus dignes de confiance.

Des études menées par l’Université de Californie à Berkeley, les chercheurs Todd LaPorte, Gene Rochlin et Karlene Roberts ont révélé que certains groupes de professionnels, tels que les contrôleurs aériens ou les exploitants de centrales nucléaires, sont très fiables, même dans une situation à haut risque. Ces professionnels développent une capacité à détecter, contenir et récupérer des erreurs, et pratiquent la résolution de problèmes d’improvisation, a déclaré Dietterich.

C’est à cause de leur « préoccupation de l’échec ». Ils surveillent constamment les anomalies et les quasi-accidents – et les traitent comme des symptômes d’un mode de défaillance potentiel dans le système. Les anomalies et les quasi-accidents, plutôt que d’être balayés d’un coup de balayé, sont ensuite étudiés pour des explications possibles, normalement par une équipe diversifiée avec de larges spécialisations. Les professionnels de l’humain apportent des niveaux beaucoup plus élevés de « conscience de la situation » et savent quand s’en remettre à l’expertise de l’autre.

Ces principes sont utiles lorsque l’on réfléchit à la façon de construire un système d’IA entièrement autonome et fiable, ou à la façon de concevoir des moyens pour les organisations humaines et les systèmes d’IA de travailler ensemble. Les systèmes d’IA peuvent acquérir une conscience situationnelle élevée, grâce à leur capacité à intégrer des données provenant de sources multiples et à réévaluer continuellement les risques.

Cependant, les systèmes d’IA actuels, bien qu’habiles à la connaissance de la situation, sont moins efficaces pour la détection des anomalies et incapables d’expliquer les anomalies et d’improviser des solutions.

D’autres recherches sont nécessaires avant qu’un système d’IA puisse identifier et expliquer de manière fiable les quasi-accidents. Nous avons des systèmes qui peuvent diagnostiquer les défaillances connues, mais comment pouvons-nous diagnostiquer les défaillances inconnues ? Qu’est-ce que cela signifierait pour un système d’IA de s’engager dans la résolution de problèmes improvisés qui, d’une manière ou d’une autre, peut étendre l’espace des possibilités au-delà du problème initial que le système a été programmé pour résoudre?

Modèle mental partagé

Lorsque les systèmes d’IA et les humains collaborent, un modèle mental partagé est nécessaire. L’IA ne doit pas bombarder ses homologues humains d’informations non pertinentes et doit également comprendre et être capable de prédire le comportement des équipes humaines.

Une façon d’entraîner les machines à expliquer les anomalies, ou à faire face à la spontanéité, pourrait être l’exposition aux arts de la scène. Des chercheurs et des musiciens de l’Université Monash de Melbourne et de l’Université Goldsmiths de Londres ont entrepris d’explorer si l’IA pouvait se produire en tant que musicien improvisateur lors d’une jam session fantôme.

Les improvisations spontanées et fluides sont souvent considérées comme la véritable expression de la collaboration artistique créative entre musiciens. Le « jamming » nécessite non seulement des capacités musicales, mais aussi de la confiance, de l’intuition et de l’empathie envers ses camarades de groupe.

Dans l’étude, le premier réglage, appelé « Perroquet », répète tout ce qui est joué. Le second système joue des notes de manière autonome indépendamment de la contribution d’un musicien humain. Le troisième dispose également d’une autonomie complète, mais compte le nombre de notes jouées par le musicien humain pour définir l’énergie de la musique. Le quatrième système, et le plus compliqué, construit un modèle mathématique de la musique de l’artiste humain. Il écoute attentivement ce que jouent les musiciens et construit un modèle statistique des notes, de leurs motifs et stocke même des séquences d’accords.

En plus de cette approche de session de brouillage humain / IA, Dietterich voit deux autres approches prometteuses pour améliorer et « garantir » mathématiquement la fiabilité.

L’un est un modèle de compétence qui peut calculer des régressions quantiles pour prédire le comportement de l’IA, en utilisant la méthode de « prédiction conforme » pour apporter des corrections supplémentaires. Pourtant, cette approche nécessite beaucoup de données et reste sujette à des interprétations erronées.

L’autre façon est de faire en sorte que les systèmes autonomes traitent leurs « inconnues inconnues » via une catégorie ouverte detection. Par exemple, une voiture autonome formée sur les routes européennes pourrait avoir des problèmes avec des kangourous en Australie. Un détecteur d’anomalies utilisant des données non étiquetées pourrait aider le système d’IA à répondre plus efficacement aux surprises.

Alors que l’IA est déployée dans de plus en plus de domaines de notre vie, ce qui devient clair, c’est que, loin d’être un scénario cauchemardesque de prise de contrôle des machines, la seule façon de rendre l’IA plus fiable et plus efficace est qu’il y ait une symbiose plus étroite que jamais entre les systèmes humains et les systèmes d’IA. Ce n’est qu’alors que nous pourrons vraiment compter sur l’IA.

Fred Werner est chef de l’engagement stratégique au Bureau de la normalisation des télécommunications de l’UIT

Click to comment

Leave a Reply

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Tendance