L’intelligence artificielle (IA) a peut-être beaucoup de presse en ce moment, mais coupons court au battage médiatique et regardons où en est vraiment le domaine aujourd’hui.
Actuellement, toutes les IA sont ce que l’on appelle une IA faible, c’est-à-dire qu’elles ne peuvent résoudre des problèmes que dans un seul domaine. L’IA forte – l’intelligence artificielle qui peut résoudre plus d’un type de problème – est encore loin des années. Prenons, par exemple, un système qui peut jouer aux échecs mieux que n’importe quel être humain. Ce même système n’a pas la moindre idée de la façon de jouer au poker – un jeu beaucoup plus facile.
En outre, l’état actuel de l’IA est que l’apprentissage non supervisé en est encore à ses balbutiements. Tous les algorithmes pratiques reposent encore sur l’apprentissage supervisé, où ils apprennent avec des données étiquetées. Et ils le font pendant une phase dédiée à l’apprentissage, plutôt qu’à l’apprentissage au fur et à mesure.
Le chercheur islandais Kristinn Thórisson, professeur à l’Université de Reykjavik et fondateur et directeur de l’Institut islandais des machines intelligentes (IIIM), affirme depuis des années que l’approche actuelle de l’IA ne conduira jamais à une véritable intelligence artificielle.
Thórisson a travaillé pendant 30 ans sur des projets d’intelligence artificielle générale et d’IA appliquée, à la fois dans le milieu universitaire et l’industrie. Il prédit qu’au cours des trois prochaines décennies, un nouveau paradigme prendra le relais, remplaçant les réseaux de neurones artificiels par des méthodologies qui se rapprochent davantage de l’intelligence réelle. Il en résultera des systèmes plus fiables qui transformeront l’industrie et la société.
L’Université de Reykjavik a accueilli le troisième atelier international sur l’apprentissage autosupervisé en juillet 2022, et les articles présentés ont été publiés dans le Actes de recherche en apprentissage automatique. « Les actes de l’événement ont beaucoup de très bon travail en un seul endroit », dit Thórisson. « Je pense que les idées contenues dans ces articles s’avéreront être au cœur de la façon dont l’IA évoluera au cours des 30 prochaines années. »
Un article intéressant inclus dans les actes a été écrit par Thórisson lui-même, avec Henry Minsky, cofondateur et directeur de la technologie de Leela AI. L’article, intitulé L’avenir de la recherche sur l’IA : dix « axiomes de l’intelligence » défaisables, demande de mettre moins l’accent sur les méthodologies informatiques traditionnelles et les mathématiques, faisant valoir qu’une nouvelle méthodologie devrait être développée en mettant davantage l’accent sur les sciences cognitives. Les auteurs soulignent que l’intelligence réelle comprend l’unification des relations causales, du raisonnement et du développement cognitif.
Quels sont les attributs clés de l’IA du futur ?
Selon Thórisson et Minsky, l’apprentissage général autonome, ou l’apprentissage général auto-supervisé, consiste à créer des structures de connaissances sur des phénomènes inconnus ou des objets du monde réel sans aide. Une IA doit représenter la cause et l’effet et l’utiliser comme un élément clé dans ses processus de raisonnement. Lorsqu’elle est confrontée à un nouveau phénomène, l’IA devrait être capable de développer une hypothèse sur les relations causales.
« Les ingrédients les plus importants pour la future intelligence artificielle générale sont la capacité de gérer la nouveauté, la capacité de gérer l’expérience de manière autonome et la capacité de représenter les relations causal-effet »
Kristinn Thórisson, Université de Reykjavik et Institut islandais des machines intelligentes
Une IA doit être capable d’apprendre progressivement, en modifiant ses connaissances existantes en fonction de nouvelles informations. L’apprentissage cumulatif implique l’acquisition basée sur le raisonnement d’informations de plus en plus utiles sur le fonctionnement des choses. Les modèles devraient être améliorés lorsque de nouvelles données probantes seront disponibles. Cela nécessite la génération d’hypothèses – un sujet pour la recherche future sur l’IA.
Ce que l’on sait déjà, cependant, c’est que les hypothèses devraient être formées par un processus de raisonnement qui inclut la déduction, l’enlèvement, l’induction et l’analogie. Et une IA devrait garder une trace des arguments pour et contre une hypothèse. Une autre exigence importante d’une future IA est qu’elle doit modéliser ce qui n’est pas connu au moment de la planification. Il devrait alors être en mesure d’apporter des connaissances utiles à une tâche à tout moment.
« Les ingrédients les plus importants pour l’intelligence artificielle générale future sont la capacité de gérer la nouveauté, la capacité de gérer l’expérience de manière autonome et la capacité de représenter les relations causal-effet », explique Thórisson. « Une approche constructiviste de l’IA fournit déjà un point de départ utile pour aborder les deux premiers points – gérer la nouveauté et gérer l’expérience de manière autonome. Cependant, nous avons encore un long chemin à parcourir avant que les systèmes puissent modéliser la causalité de manière autonome, efficace et efficiente.
Comment pouvons-nous y arriver à partir d’ici?
La génération actuelle de systèmes d’intelligence artificielle utilise une approche constructionniste, ce qui, selon Thórisson, a abouti à un ensemble diversifié de solutions isolées à des problèmes relativement petits.
« Les systèmes d’IA nécessitent une intégration beaucoup plus complexe que ce qui a été tenté jusqu’à présent, en particulier lorsque des fonctions transversales sont impliquées, telles que l’attention et l’apprentissage », dit-il. « La seule façon de relever le défi est de remplacer les méthodologies de développement architectural descendantes par des architectures auto-organisées qui reposent sur du code auto-généré. C’est ce que nous appelons « l’IA constructiviste ».
Thórisson et Minsky travaillent tous deux sur des algorithmes basés sur ces principes. Thórisson a démontré une approche de l’IA constructiviste avec un système, connu sous le nom d’AERA, qui a appris de manière autonome à participer à des entretiens multimodaux parlés en observant des humains participer à une interview de style télévisé. Le système étend ses capacités de manière autonome grâce à l’auto-reconfiguration.
L’AERA, en cours de développement depuis 15 ans, apprend progressivement des tâches très complexes. Commençant avec seulement deux pages de code de départ pour le démarrage et l’exécution sur un ordinateur de bureau ordinaire, l’agent AERA a créé des actions sémantiquement significatives, des énoncés grammaticalement corrects, une coordination en temps réel et une prise de tour – sans rien apprendre au préalable. Il l’a fait après seulement 20 heures d’observation. Les connaissances produites consistaient en plus de 100 pages de code exécutable que le système écrivait lui-même pour lui permettre de jouer le rôle d’intervieweur ou de personne interrogée.
En se concentrant sur l’automatisation industrielle, Minsky adopte une approche très similaire aux systèmes intelligents chez Leila AI. Sa technologie neuro-symbolique a abouti à une nouvelle approche de l’automatisation industrielle qui peut suivre les activités des personnes et des machines dans une usine et produire des informations exploitables sur leurs opérations.
Selon Minsky et Thórisson, l’accent mis actuellement sur les réseaux de neurones profonds entrave les progrès dans le domaine. « Étant exclusivement dépendants de représentations statistiques – même lorsqu’ils sont formés sur des données qui incluent des informations causales – les réseaux neuronaux profonds ne peuvent pas séparer de manière fiable la corrélation fallacieuse de la corrélation causalement dépendante », explique Thórisson. « En conséquence, ils ne peuvent pas vous dire quand ils inventent des choses. On ne peut pas faire entièrement confiance à de tels systèmes. »