Connect with us

Technologie

Le CDEI publie une feuille de route pour l’écosystème d’assurance de l’IA au Royaume-Uni

Published

on


Le gouvernement britannique a publié un document décrivant les étapes nécessaires à la création d’un écosystème d’assurance pour les systèmes d’intelligence artificielle (IA).

Publiée par le Centre for Data Ethics and Innovation (CDEI), la feuille de route décrit ce qui doit être fait pour vérifier que les systèmes d’IA sont efficaces, fiables et conformes.

Destinés à conduire un changement radical dans l’adoption, les services d’assurance de l’IA tels que l’audit, la certification et les évaluations d’impact devraient devenir une « industrie de plusieurs milliards de livres à part entière, libérant la croissance et des milliers de nouvelles opportunités d’emploi ».

L’idée est de tirer parti des forces du Royaume-Uni en matière de services juridiques et professionnels, de recherche et de normes en matière d’IA, et de disposer d’un écosystème d’assurance de l’IA établi au cours des cinq prochaines années, avec des sociétés de services professionnels, des startups et des scale-ups fournissant des services dans ce domaine, a déclaré le CDEI.

« L’IA a le potentiel de transformer notre société et notre économie, et de nous aider à relever certains des plus grands défis de notre époque. Cependant, cela ne sera possible que si nous sommes en mesure de gérer les risques posés par l’IA et de renforcer la confiance du public dans son utilisation », a déclaré le ministre du Numérique, Chris Philp.

La feuille de route est l’un des engagements énoncés dans la Stratégie nationale en matière d’IA, qui a été publiée en septembre 2021. Il fait suite aux appels lancés par l’industrie et des organismes tels que le Comité des normes de la vie publique pour créer des outils qui atténuent les risques posés par les progrès de l’IA.

En outre, le CDEI a noté que les mesures axées sur l’assurance de l’IA répondent aux problèmes de gouvernance de l’IA décrits par des organisations telles que le Forum économique mondial, l’OCDE et le Partenariat mondial sur l’IA.

Six domaines d’action prioritaires sont définis dans la feuille de route. La première consiste à générer une demande d’assurance fiable et efficace tout au long de la chaîne d’approvisionnement de l’IA, ce qui implique de comprendre les risques liés aux systèmes d’intelligence artificielle, ainsi que les responsabilités pour les atténuer.

La création d’un marché concurrentiel et dynamique pour l’assurance de l’IA avec une gamme de services et d’outils est un autre domaine d’action, tout comme l’élaboration de normes pour le domaine et l’amélioration des liens entre l’industrie et les chercheurs indépendants pour faire progresser le développement de techniques d’assurance de l’IA.

Le développement d’une profession responsable de l’assurance de l’IA pour établir la confiance et la qualité fait également partie des actions décrites dans la feuille de route, aidant les organisations à respecter leurs obligations réglementaires en fixant des exigences en matière d’intelligence artificielle.

Pour mettre en œuvre la feuille de route, le CDEI travaillera avec les organismes et les régulateurs de l’industrie britannique et créera un forum d’accréditation de l’assurance de l’IA, qui réunira des organismes professionnels et d’accréditation pour les engager dans la professionnalisation de l’assurance de l’IA.

En outre, le centre d’éthique des données aidera le ministère de la Culture, des Médias et du Sport (DCMS) et l’Office for Artificial Intelligence à piloter un centre de normes d’IA, qui devrait élargir la contribution du Royaume-Uni aux normes mondiales en matière d’intelligence artificielle.

Parmi les autres initiatives sur lesquels le CDEI travaille en lien avec la feuille de route d’assurance de l’IA, mentionnons le travail avec le Centre pour les véhicules connectés et autonomes du gouvernement visant à inclure la diligence raisonnable éthique dans le futur cadre réglementaire pour les véhicules autonomes.

TechUK s’est félicité de la publication de la feuille de route et de son objectif de fournir aux organisations les outils et l’expertise nécessaires pour renforcer la confiance tout au long de la chaîne d’approvisionnement de l’IA, tout en soulignant qu’il y a encore du travail à faire.

Anthony Walker, directeur général adjoint de l’organisme commercial, a déclaré: « À mesure que ce travail progresse, nous devons travailler dur ensemble pour nous assurer que les contrôles d’assurance sont véritablement favorables à l’innovation, proportionnés et bien alignés sur les normes et réglementations existantes. »

La publication de la feuille de route de l’assurance de l’IA fait suite à la publication d’une norme de transparence algorithmique, annoncée le 29 novembre 2021. Également une première mondiale, les règles ont été élaborées par le Bureau central du numérique et des données du Bureau du Conseil des ministres, le CDEI et d’autres parties prenantes des secteurs public et privé.

Il fait suite à un examen sur le biais algorithmique dans la prise de décision effectué par le CDEI, dont l’une des principales recommandations est la mise en œuvre d’une obligation de transparence obligatoire pour les organisations du secteur public utilisant des algorithmes pour soutenir les décisions importantes affectant les individus.

Click to comment

Leave a Reply

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Tendance