La Fondation Knut et Alice Wallenberg soutient plusieurs projets innovants en Suède, et l’un des plus remarquables est le Wallenberg AI, Autonomous Systems and Software Programme (Guêpe), le plus grand projet de recherche du pays à ce jour.
Michael Felsberg fait partie de ce projet. Professeur à l’Université suédoise de Linköping, Felsberg dirige également le laboratoire de vision par ordinateur de l’université. Une grande partie de ses recherches en intelligence artificielle (IA) est financée dans le cadre de Wasp.
Alors que Felsberg siège à plusieurs comités qui soutiennent le projet Global Wasp, son propre travail est axé sur la perception et l’apprentissage automatique. Il mène des recherches sur l’IA depuis plus de deux décennies et a observé de première main les cycles de financement et d’intérêt général dans les domaines de la recherche scientifique, en particulier ceux qui captent l’attention du public.
Un bon exemple est la recherche autour des véhicules autonomes, qui, selon Felsberg, a commencé il y a plus de 40 ans. Les essais sur les voitures autonomes ont commencé dans la première moitié du 20ème siècle, dit-il, et des prototypes sérieux ont été développés par Ernst Dickmanns dans les années 1980. Mais la plupart des gens n’ont commencé à entendre parler de la possibilité de voitures autonomes qu’au début des années 2000.
Et puis, il y a tout juste 15 ans, il y a eu tellement de battage médiatique autour du sujet que les investisseurs ont commencé à se désintéresser de la recherche universitaire dans le domaine parce qu’elle ne semblait plus nécessaire. Cette réflexion a été fortement influencée par les annonces de presse d’entreprises – en particulier de marques émergentes telles que Tesla. Les acteurs industriels et les médias semblaient laisser entendre qu’il ne restait plus qu’à peaufiner et à mettre en œuvre – et que les constructeurs déploieraient les premières voitures autonomes dans un avenir très proche.
Les cycles de battage médiatique font des ravages sur le financement de la recherche
« C’est typique des nouvelles technologies », explique Felsberg. « Les entreprises font beaucoup de relations publiques et survendent leurs contributions au domaine. Cela conduit à un malentendu général parmi le public, ce qui à son tour conduit à la dépression dans le domaine de la recherche. Trop d’investisseurs adhèrent au battage médiatique et croient à tort que ce n’est plus un domaine de recherche universitaire – qu’il est maintenant entre les mains de l’industrie. Lorsque les investisseurs commencent à penser ainsi, personne n’ose demander de financement.
Mais alors, ce qui est aussi typique, c’est qu’un échec majeur se produit dans un système commercial – ou qu’une percée se produit dans le peu de recherche universitaire qui est toujours en cours malgré la dépression. Ensuite, tout le monde s’inquiète de ce qui est perçu comme un nouveau problème, qu’en fait, les chercheurs sérieux avaient reconnu comme un problème depuis le début. Soudain, les gens appellent à plus de recherche universitaire pour trouver une solution. »
Felsberg ajoute : « Ce qui manque dans notre société, c’est une appréciation de la recherche académique classique. Faire de la recherche fondamentale – permettre toutes ces percées – signifie faire beaucoup de travail préparatoire. Cela prend de nombreuses années, et de nombreuses générations de doctorants. »
Pour Felsberg, ces cycles de dénigrement d’une zone puis de surmédiatisation sont mauvais pour le développement scientifique. Les progrès seraient mieux servis si ces sommets et ces vallées étaient stabilisés pour maintenir un rythme soutenu dans ces domaines qui attirent tant d’attention.
Parfois, des chercheurs sérieux, qui se penchent patiemment sur des problèmes majeurs, s’expriment – mais leurs voix ne sont souvent qu’un murmure au milieu du bruit du marché.
Par exemple, en 2008, dans une interview pour la télévision suédoise, on a demandé à Felsberg si ses enfants auraient un jour besoin d’un permis de conduire. Sa réponse a été qu’ils auraient certainement besoin d’un permis parce que les véhicules entièrement autonomes – c’est-à-dire les véhicules autonomes de niveau 5 – ne seraient pas disponibles dans les 10 ans, malgré ce que les entreprises disaient à l’époque. Personne n’a prêté beaucoup d’attention à sa prédiction à ce moment-là, même si elle était parfaite.
Maintenant, en 2022, Felsberg croit toujours que bien que bon nombre des problèmes les plus faciles pour les véhicules autonomes aient été résolus, il y a encore beaucoup de problèmes difficiles qui sont loin d’être résolus. L’automatisation de niveau 5, dans laquelle les véhicules ne nécessitent pas d’attention humaine, est encore loin.
Encore beaucoup de problèmes à surmonter
Selon Felsberg, plusieurs gros problèmes entravent encore les véhicules entièrement autonomes – la classification des images, par exemple. « Nous savons pour chaque image, c’est un vélo, c’est un chien et c’est une voiture », dit-il. « Les images sont étiquetées à la main par des humains et les images annotées sont utilisées pour s’entraîner. systèmes de reconnaissance d’images. »
La génération actuelle d’algorithmes d’IA nécessite une période d’apprentissage supervisé avant qu’un système puisse être déployé. En préparation de cette phase, une armée d’annotateurs est nécessaire pour étiqueter les images pour une application donnée. Les images sont annotées non seulement avec le nom de la classe d’objets que l’algorithme doit rechercher, mais aussi l’emplacement de l’objet dans l’image.
Pour l’utilisation industrielle à grande échelle de l’IA, cette quantité d’annotation n’est pas pratique – il devrait au moins être possible de fournir une séquence d’images contenant une voiture sans avoir à indiquer où se trouve la voiture. Il devrait également être possible pour un algorithme de reconnaître un objet partiellement obscurci – par exemple, un homme debout derrière un banc avec seulement le haut de son corps visible devrait être reconnu comme un homme. Bien que la reconnaissance d’objets partiellement obscurcis fasse l’objet de recherches fondamentales en cours, elle n’est actuellement pas prête pour la production.
Pour que les véhicules autonomes fonctionnent à grande échelle, les algorithmes devraient être capables de reconnaître de nouvelles classes d’objets sans avoir à subir une autre série de formations supervisées. Il faut trop de temps et d’efforts pour réétiqueter les énormes volumes de données. Il serait bien préférable que l’algorithme puisse apprendre à reconnaître la nouvelle classe après son déploiement. Mais les chercheurs n’ont pas encore trouvé un moyen solide de faire ce processus, qui est appelé « apprentissage incrémental en classe ».
« Disons que nous avons un système de classification d’images qui détecte les voitures et soudainement nous avons un nouveau type de véhicule comme le scooter électrique, qui est devenu très populaire récemment », explique Felsberg. « La nouvelle classe d’objet ne sera pas reconnue car elle n’était pas connue au moment de la construction du système. Mais maintenant, nous devons l’ajouter, ce qui signifie passer à nouveau par une formation supervisée. C’est inacceptable. Nous devons vraiment ajouter la nouvelle classe d’objets à la volée. »
Un autre problème est le volume pur de données d’entraînement et la quantité de calcul nécessaire pour traiter ces données. Une énorme quantité d’énergie est consommée pour la formation des systèmes d’IA, car l’apprentissage automatique est souvent effectué de manière « par force brute ».
« Si l’IA doit être utilisée à l’échelle requise pour les véhicules autonomes, il serait nécessaire de disposer d’un matériel plus efficace qui consomme moins d’énergie pendant le processus d’apprentissage automatique », explique Felsberg. « Nous aurions également besoin de meilleures stratégies pour l’apprentissage automatique, des méthodes qui fonctionnent mieux que le simple balayage des paramètres, ce qui est le cas aujourd’hui. »
Les grandes questions juridiques et éthiques restent non résolues
« Un autre problème est l’apprentissage continu ou l’apprentissage tout au long de la vie dans les systèmes d’IA », explique Felsberg. « Malheureusement, de nombreux mécanismes d’apprentissage automatique ne peuvent pas être utilisés de cette manière incrémentielle. Vous aimeriez passer environ 90% du temps de formation avant de libérer le système, puis les 10% restants pendant qu’il est en vie pour l’améliorer. Mais tous les systèmes ne prennent pas en charge cela – et cela soulève également des problèmes liés au contrôle de la qualité.
« Je dirais que la version la plus courante de la façon dont cela fonctionnerait est qu’un fournisseur de voiture a un logiciel dans la voiture qui a été produit au cours d’une certaine année, peut-être lorsque la voiture est initialement construite. Ensuite, lorsque la voiture est mise en service, elle reçoit un nouveau logiciel. Il est fort possible que les méthodes d’apprentissage automatique se soient améliorées entre-temps – et dans tous les cas, elles auront réformé le système dans une certaine mesure. Ils pousseront la mise à jour logicielle dans la voiture, et cela inclura les résultats de la nouvelle formation. »
Felsberg ajoute : « Il n’est pas clair comment ces mises à niveau seront certifiées et où se situe la responsabilité lorsque les erreurs inévitables se produisent. Comment faire un contrôle de qualité sur un système en constante évolution ? »
« La plupart des problèmes difficiles sont revisités plusieurs fois avant d’être vraiment résolus »
Michael Felsberg, Université de Linköping
En fin de compte, les voitures téléchargeront de nouvelles données sur le cloud pour être utilisées pour la formation. L’avantage de cette approche sera la grande quantité de nouvelles données et l’apprentissage partagé. Mais là encore, il y a des défis autour de l’assurance qualité, et il y a des problèmes autour de la protection de la vie privée du propriétaire de la voiture.
« Associée aux contrôles de qualité, il y a l’idée qu’une IA soit capable de fournir un niveau de confiance, ou d’incertitude, lorsqu’elle prend une décision », explique Felsberg. « Vous voulez que le système prenne une décision et indique un niveau de confiance, ou une probabilité estimative qu’il est correct. Nous aimerions également connaître la raison pour laquelle un système a pris une certaine décision. Ce deuxième concept s’appelle l’IA explicable. Nous voulons tous les deux comprendre ce qui se passe dans ce système et nous aimerions que ce système nous dise comment il a pris la décision. et à quel point il est certain de sa décision.
« Nous avons identifié un certain nombre de ces questions très fondamentales qui sont très difficiles à résoudre. Il n’y aura pas de progrès immédiats sur tous ces fronts au cours des deux prochaines années. Certains d’entre eux pourraient durer jusqu’à la prochaine boucle du battage médiatique. Peut-être que dans sept ans, il y aura un nouveau battage médiatique de l’apprentissage automatique après une période de dépression entre les deux. Ensuite, les gens travailleront encore sur ces problèmes. Ce n’est pas inhabituel, cependant, – la plupart des problèmes difficiles sont revisités plusieurs fois avant d’être vraiment résolus. »
Felsberg ajoute : « Ce ne sont là que quelques-uns des problèmes ouverts aujourd’hui – et nous y travaillions déjà avant le dernier grand battage médiatique. »
L’insistance de la société sur les véhicules autonomes peut prévaloir
Pendant les grands battages médiatiques, le grand public pense que parce qu’il y a eu d’énormes progrès, la recherche n’est plus nécessaire. Cette attitude est toxique car la mise en œuvre peut commencer avant que la technologie ne soit prête.
En outre, cela ne concerne que les aspects techniques des véhicules autonomes. Il y a encore autant de questions éthiques et de responsabilité à résoudre. Quand le conducteur est-il responsable et quand le fabricant est-il responsable? Ces questions sont entre les mains des compagnies d’assurance et des législateurs. Les chercheurs universitaires ont déjà assez de travail à faire.
Selon Felsberg, la Fondation Knut et Alice Wallenberg est un investisseur patient. Il essaie de lutter contre les énormes battages médiatiques et de lisser le paysage pour financer la recherche fondamentale dans son ensemble, même pendant les périodes où ce n’est pas le sujet le plus populaire, car il utilise des experts dans les domaines respectifs pour comprendre où il est important d’investir. De cette façon, la fondation était au courant de nombreuses exigences avant qu’elles ne soient connues du public dans les médias.
« Une bonne stratégie pour la recherche consiste à construire des technologies que les entreprises peuvent utiliser 10 ans plus tard pour développer des produits qui changent le monde », explique Felsberg.
« En ce qui concerne la question de savoir si un enfant né aujourd’hui aura besoin d’un permis de conduire, ce sera dans environ 15 ou 16 ans, ce qui représente environ deux cycles de battage médiatique dans le futur. La technologie ne sera toujours pas prête, mais les entreprises la forceront à fonctionner de toute façon. Même si la technologie n’est pas suffisamment mature pour faire le travail de conduite autonome partout, je crois que le besoin sociétal de véhicules autonomes et les attentes des gens auront tellement augmenté d’ici là que les entreprises la forceront à fonctionner. »
Felsberg conclut : « La technologie ne sera pas complètement prête, mais elle sera mise à profit avec tous ses déficits. Il y aura certaines limitations et il y aura des solutions de contournement pour éviter les problèmes non résolus. La société insistera – et cette fois elle l’emportera. »