Connect with us

Technologie

Le Royaume-Uni annonce une norme pour la transparence algorithmique

Published

on


Le gouvernement britannique a annoncé une nouvelle norme pour l’intelligence artificielle (IA) qui sera adoptée par les ministères et les organismes du secteur public.

Développé par le Central Digital and Data Office (CDDO) du Cabinet Office, le déménagement est décrit comme une première mondiale et est le résultat d’une coopération avec le Centre for Data Ethics and Innovation (CDEI) et d’autres parties prenantes des secteurs public et privé.

Il fait suite à un examen sur le biais algorithmique dans la prise de décision effectué par le CDEI, dont l’une des principales recommandations est la mise en œuvre d’une obligation de transparence obligatoire pour les organisations du secteur public utilisant des algorithmes pour soutenir les décisions importantes affectant les individus.

« Les algorithmes peuvent être exploités par les organisations du secteur public pour les aider à prendre des décisions plus équitables, à améliorer l’efficacité des services publics et à réduire les coûts associés à la prestation », a déclaré Lord Agnew, ministre d’État au Cabinet Office.

« Cependant, ils doivent être utilisés dans les processus décisionnels d’une manière qui gère les risques, respecte les normes les plus élevées de transparence et de responsabilité et constitue une preuve claire de l’impact. »

La publication des normes a été éclairée par un engagement entre le CDDO et le CDEI avec le cabinet de conseil en stratégie BritainThinks en juin 2021, pour mener un exercice délibératif d’engagement du public afin d’explorer les attitudes du public à l’égard de la transparence algorithmique dans le secteur public.

Les parties prenantes de l’intérieur et de l’extérieur du gouvernement ont également été consultées pour la création du cadre, y compris la réforme de la fiducie de recherche, le Forum de l’Imperial College de Londres et le CDEI, afin d’organiser un hackathon politique. Lors de l’événement, des experts internationaux du gouvernement, du milieu universitaire et de l’industrie ont discuté et développé des solutions pratiques aux défis posés par la transparence algorithmique.

Organisée en deux niveaux, la norme comprend une brève description de l’outil algorithmique, y compris comment et pourquoi il est utilisé. Le deuxième niveau offre des informations plus détaillées sur le fonctionnement de l’outil, les ensembles de données qui ont été utilisés pour former le modèle et le niveau de surveillance humaine impliqué.

Le gouvernement s’attend à ce que la norme, qui fait également suite aux engagements pris dans la Stratégie nationale sur l’IA et la Stratégie nationale sur les données, aide les équipes à être « significativement transparentes » sur le rôle de l’IA dans la prise de décision, en particulier lorsque les algorithmes peuvent avoir un impact juridique ou économique sur les individus.

Un projet pilote de la norme débutera dans divers ministères et organismes gouvernementaux au cours des prochains mois, et cette phase initiale sera suivie d’un examen par le CDDO sur la base des commentaires. L’approbation officielle de l’Autorité des normes de données sera demandée en 2022.

Le Bureau du Cabinet a déclaré que la création de la norme avait également été éclairée par des appels d’organisations telles que l’Institut Alan Turing et l’Institut Ada Lovelace, ainsi que d’organisations internationales telles que l’OCDE et le Partenariat pour un gouvernement ouvert, qui ont plaidé pour la transparence sur les risques associés à la prise de décision basée sur l’IA. Les organes ont averti qu’un examen minutieux du rôle des algorithmes dans les processus de prise de décision est nécessaire pour renforcer la confiance des citoyens.

En publiant la norme, le gouvernement comprend qu’elle « habilite » les experts et le public à s’engager avec les données et à fournir un examen externe. On s’attend également à ce qu’une plus grande transparence sur l’utilisation de l’IA dans le secteur public favorise une « innovation digne de confiance » et permette d’atténuer les conséquences imprévues à un stade plus précoce.

« Les organisations se tournent de plus en plus vers les algorithmes pour automatiser ou soutenir la prise de décision », a déclaré Adrian Weller, directeur de programme pour l’IA à l’Institut Alan Turing et membre du conseil consultatif du CDEI. « Nous avons une fenêtre d’opportunité pour mettre en place les bons mécanismes de gouvernance à mesure que l’adoption augmente. »

Selon Weller, cette décision contribuera non seulement à renforcer la confiance appropriée dans l’utilisation de la prise de décision algorithmique par le secteur public, mais servira également de levier pour élever les normes de transparence dans le secteur privé.

Imogen Parker, directrice associée des politiques à l’Institut Ada Lovelace, a déclaré qu’une transparence significative dans les outils basés sur l’IA dans les organisations gouvernementales est « un élément essentiel d’un secteur public numérique digne de confiance ».

Décrivant la norme de transparence comme « une étape importante » vers une plus grande confiance, Parker a déclaré que le cadre est « une contribution précieuse à la conversation plus large sur la responsabilité algorithmique dans le secteur public ».

Elle a ajouté : « Nous sommes impatients de voir des essais, des tests et des itérations, suivis par les ministères et les organismes du secteur public qui publient des normes complètes pour soutenir modelling et le développement de bonnes pratiques. »

Click to comment

Leave a Reply

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Tendance