Connect with us

Technologie

La réglementation de l’IA est nécessaire pour éviter les erreurs des médias sociaux

Published

on


Les experts qui ont témoigné devant la commission des communications et du numérique de la Chambre des Lords ont averti que sans réglementation suffisante, l’intelligence artificielle (IA) pourrait suivre la voie des plateformes de médias sociaux largement non réglementées.

Parmi les questions examinées au cours de l’audience sur la preuve figuraient la nature des réglementations internationales et la question de savoir si l’autoréglementation fonctionne.

Tabitha Goldstaub, cofondatrice de CogX et présidente de l’AI Council, a déclaré : « Les entreprises peuvent déployer des systèmes d’IA sur un marché presque non réglementé. Nous devons veiller à ce que le gouvernement puisse examiner les systèmes. »

OpenAI, développeur de l’algorithme GPT-3, a également été invité à témoigner. Mira Murati, vice-présidente principale de la recherche, des produits et des partenariats chez OpenAI, a décrit au comité non seulement le rythme de développement de l’IA et la facilité d’accès via les interfaces de programmation d’applications (API), mais aussi pourquoi les régulateurs doivent agir rapidement.

« Nous prévoyons que l’IA aura le même impact que les médias sociaux au cours de la prochaine décennie, avec très peu d’attention à la façon dont les systèmes sont utilisés », a-t-elle déclaré. « Il est temps de comprendre les risques et les opportunités avant qu’ils ne soient largement disponibles. »

Pour Goldstaub, parmi les défis et les opportunités auxquels l’IA est confrontée, il y a l’équilibre entre la recherche universitaire dans le domaine public, où les algorithmes peuvent être analysés, et le niveau de R&D géré par les grandes entreprises de logiciels. Selon Goldstaub, la R&D se déroule à une vitesse vertigineuse. Parmi les principaux articles présentés lors de conférences sur l’IA, la moitié provenait de centres de recherche d’entreprises tels que Google, Facebook et Microsoft, et l’autre moitié d’universités, a-t-elle déclaré.

Elle a averti le comité que ce niveau d’activité commerciale conduit à s’éloigner de la nature ouverte de la recherche, ce qui nuit à la capacité des chercheurs à reproduire des algorithmes d’IA.

Murati a discuté du rythme rapide du développement de l’IA, qui conduit des organisations telles qu’OpenAI à s’autoréguler. « Nous pouvons mettre en place un grand réseau neuronal, de grandes données et de grands ordinateurs, ce qui nous permet de faire progresser l’IA de manière fiable et étonnante », a-t-elle déclaré. « Si nous continuons sur cette trajectoire, nous pouvons aller plus loin et nous aurons rapidement des systèmes capables d’écrire des programmes. »

Une telle trajectoire conduirait finalement au développement de l’intelligence générale artificielle (AGI), dans laquelle les algorithmes peuvent potentiellement surpasser l’intelligence humaine, a déclaré Murati, ajoutant: « Notre mission est de nous assurer qu’une fois que nous atteignons l’AGI, nous la développons et la déployons de manière à bénéficier à toute l’humanité. »

Décrivant l’approche adoptée par OpenAI en matière d’autorégulation, Murati a déclaré au comité que bien que GPT-3 ait été initialement publié en mai 2020 et qu’une API ait été mise à disposition en juin 2020, la société avait mis en place de nombreuses restrictions. « Nous avions beaucoup de restrictions en place parce que nous n’étions pas sûrs qu’il puisse être utilisé de manière sûre et fiable », a-t-elle déclaré.

Murati a déclaré qu’OpenAI n’avait que récemment rendu l’API entièrement disponible après avoir fait des progrès suffisants sur les protocoles de sécurité et la mise en place de systèmes pour détecter les mauvais comportements. « Nous avons une équipe de sécurité dédiée pour nous assurer que nous déployons la technologie de manière responsable, que nous nous alignons sur les valeurs humaines et que nous réduisons le contenu nocif et toxique », a-t-elle déclaré. « Nous croyons que la réglementation est essentielle pour renforcer et maintenir la confiance du public dans la technologie et veiller à ce qu’elle soit déployée de manière sûre, équitable et transparente. »

Parmi les problèmes auxquels le gouvernement est confronté dans l’élaboration d’un cadre réglementaire pour l’IA, il y a le fait que la technologie traverse les frontières internationales. Chris Philp, ministre de la Technologie et de l’Économie numérique au ministère du Numérique, de la Culture, des Médias et des Sports, a déclaré que le rythme des développements de l’IA est un défi pour les régulateurs.

« Les technologies ont une portée internationale, ce qui signifie que nous ne pouvons pas séparer les pièces qui relèvent de la juridiction britannique », a-t-il déclaré. Dans le même temps, le gouvernement ne voulait pas mettre en place un cadre réglementaire qui étouffait l’innovation ou avait une architecture fixe qui serait immédiatement obsolète, a déclaré Philp.

Au-delà de la nécessité de réglementations qui suivent le rythme du changement sans entraver l’innovation, Goldstaub a suggéré que le comité explore également comment le grand public peut être mieux éduqué dans la prise de décision en matière d’IA. « Pour que les gens puissent avoir confiance, ils doivent comprendre l’importance de l’IA », a-t-elle déclaré.

Faisant une analogie avec l’industrie automobile et aérienne, où il existe des réglementations de sécurité établies que les gens peuvent apprécier à un niveau élevé sans avoir besoin de comprendre le fonctionnement interne, elle a déclaré: « L’une des pièces manquantes en tant que consommateurs de technologie d’IA est que chaque enfant quitte l’école avec les bases des données et de la littératie en IA. »

Murati a exhorté le comité à examiner comment le gouvernement peut travailler en étroite collaboration avec l’industrie pour cerner les enjeux émergents. Elle a suggéré que les organismes de réglementation puissent mettre en place des règlements qui couvrent la transparence et l’explicabilité des systèmes d’IA afin de comprendre le risque et de s’assurer que des mesures d’atténuation sont en place. Les régulateurs pourraient également mettre en place des contrôles qui évaluent la fiabilité des algorithmes d’IA, les entreprises pouvant être tenues responsables des algorithmes d’IA peu fiables, a-t-elle déclaré.

Pour Murati, les normes de l’industrie en matière d’explicabilité, de robustesse et de fiabilité, combinées à un ensemble de principes sur lesquels les entreprises peuvent être évaluées, contribueraient à assurer le développement et le déploiement en toute sécurité des systèmes d’IA. « Encourager les normes contribuerait grandement à garantir une utilisation sûre », a-t-elle ajouté.

Click to comment

Leave a Reply

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Tendance