Connect with us

Technologie

La responsabilisation algorithmique nécessite une participation significative du public

Published

on


Les politiques de responsabilisation algorithmique devraient donner la priorité à une participation significative du public en tant qu’objectif politique fondamental, afin que tout déploiement réponde réellement aux besoins des personnes et des communautés touchées, selon une étude mondiale des algorithmes dans le secteur public.

L’étude – menée par l’Institut Ada Lovelace en collaboration avec l’AI Now Institute et Open Governance Partnership – a analysé plus de 40 exemples de politiques de responsabilisation algorithmique à différents stades de mise en œuvre, provenant de plus de 20 gouvernements nationaux et locaux en Europe et en Amérique du Nord.

« Ce nouveau rapport conjoint présente la première synthèse complète d’un domaine émergent du droit et de la politique », a déclaré Carly Kind, directrice de l’Institut Ada Lovelace. « Ce qui ressort clairement de cette cartographie des divers mécanismes de responsabilisation algorithmique déployés à l’échelle internationale, c’est qu’il y a une reconnaissance croissante claire de la nécessité de tenir compte des conséquences sociales des systèmes algorithmiques.

« S’appuyant sur les preuves d’un large éventail de parties prenantes étroitement impliquées dans la mise en œuvre d’algorithmes dans le secteur public, le rapport contient des enseignements importants pour les décideurs politiques et l’industrie visant à faire avancer les politiques afin de garantir que les algorithmes sont utilisés dans le meilleur intérêt des personnes et de la société. »

La recherche a mis en évidence que, bien qu’il s’agisse d’un domaine relativement nouveau de la gouvernance technologique, il existe déjà une grande variété de mécanismes politiques que les gouvernements et les organismes du secteur public utilisent pour accroître la responsabilité algorithmique.

Il s’agit notamment des lignes directrices non contraignantes que les organismes publics doivent suivre; l’interdiction ou l’interdiction de certains cas d’utilisation algorithmique, qui ont été particulièrement axés sur la reconnaissance faciale en direct; la création d’organismes de surveillance externe; les évaluations algorithmiques de l’impact; et des audits indépendants.

Toutefois, l’analyse a révélé que très peu d’interventions stratégiques ont tenté de façon significative d’assurer la participation du public, que ce soit de la part du grand public ou des personnes directement touchées par un système algorithmique.

Elle a déclaré que seule une minorité des mécanismes de responsabilisation examinés avaient adopté des stratégies d’engagement du public claires et formelles ou inclus la participation du public comme objectif politique – notamment la Charte des algorithmes de la Nouvelle-Zélande et l’Ordonnance sur la surveillance et la sécurité communautaire d’Oakland, qui nécessitaient toutes deux une vaste consultation publique.

« Les partisans de la participation du public, en particulier des communautés touchées, soutiennent qu’elle est non seulement utile pour améliorer les processus et les principes, mais qu’elle est également essentielle pour concevoir des politiques de manière à répondre aux besoins identifiés des communautés touchées, et pour intégrer des perspectives contextuelles que les objectifs politiques axés sur l’expertise peuvent ne pas atteindre », a déclaré l’analyse.

« Une participation et un engagement significatifs – avec le public, avec les communautés touchées et avec des experts au sein des organismes publics et à l’externe – sont essentiels pour « en amont » de l’expertise des responsables du déploiement et de l’utilisation des systèmes algorithmiques.

« Les considérations relatives à l’engagement et à la consultation du public devraient également garder à l’esprit les forums dans lesquels la participation est recherchée, et le type d’acteurs ou d’intervenants qui participent au processus. »

Elle a ajouté que, pour que les formes de gouvernance participative soient significatives, les décideurs doivent également examiner comment les acteurs ayant des niveaux de ressources variables peuvent contribuer au processus, et a suggéré de fournir du matériel éducatif et suffisamment de temps pour répondre comme moyen de faire entendre de nouvelles voix.

La transparence est étroitement liée à l’engagement du public, qui, selon le rapport, devait être mise en balance avec d’autres facteurs et objectifs politiques.

« Les mécanismes de transparence devraient être conçus en gardant à l’esprit les défis potentiels posés par les objectifs politiques compensatoires exigeant la confidentialité, et des compromis entre la transparence et d’autres objectifs devraient être négociés lors de la décision d’utiliser un système algorithmique », a-t-il déclaré. « Cela comprend l’accord sur des seuils acceptables pour le risque de jeux de systèmes ou de compromission de la sécurité, et la résolution des questions relatives à la transparence et à la propriété de la propriété intellectuelle sous-jacente. »

Toutefois, il a noté qu’il y a actuellement « un manque de pratique standard concernant les types d’information qui devraient être documentés dans la création de systèmes algorithmiques », et pour quels publics cette information est destinée – quelque chose que les futures politiques de responsabilisation devraient chercher à clarifier.

« Comme l’a fait remarquer un répondant, dans le cas où la création d’un système algorithmique a été méticuleusement documentée, le public visé (l’organisme public qui utilise le système) a trouvé l’information inutilisable en raison de son volume et son langage très technique », a déclaré l’analyse.

« Cela témoigne non seulement de la nécessité de développer les capacités internes pour mieux comprendre le fonctionnement des systèmes algorithmiques, mais aussi de la nécessité de concevoir des politiques de transparence, en gardant à l’esprit les publics particuliers et la façon dont les informations peuvent être rendues utilisables par eux. »

Une revue de 151 pages publiée en novembre 2020 par le Centre for Data Ethics and Innovation (CDEI) – l’organe consultatif du gouvernement britannique sur l’utilisation responsable de l’intelligence artificielle (IA) et d’autres technologies basées sur les données – a également noté que l’utilisation par le secteur public d’algorithmes ayant des impacts sociaux doit être plus transparente pour favoriser la confiance et tenir les organisations responsables des résultats négatifs que leurs systèmes peuvent produire.

Un exercice de recherche distinct mené par le CDEI en juin 2021 a révélé que, malgré de faibles niveaux de sensibilisation ou de compréhension autour de l’utilisation des algorithmes dans le secteur public, les britanniques sont fortement convaincus du besoin de transparence lorsqu’ils sont informés d’utilisations spécifiques.

« Cela comprenait des désirs pour une description de l’algorithme, pourquoi un algorithme était utilisé, les coordonnées pour plus d’informations, les données utilisées, la surveillance humaine, les risques potentiels et les aspects techniques de l’algorithme », a déclaré le CDEI, ajoutant qu’il était prioritaire pour les participants que ces informations soient à la fois facilement accessibles et compréhensibles.

Parmi les autres leçons tirées de l’analyse mondiale de l’Institut Ada Lovelace, citons la nécessité d’incitations institutionnelles claires, ainsi que de cadres juridiques contraignants, qui soutiennent la mise en œuvre cohérente et efficace des mécanismes de responsabilisation, et le fait que la coordination institutionnelle entre les secteurs et les niveaux de gouvernance peut aider à créer une cohérence par rapport aux cas d’utilisation algorithmiques.

Amba Kak, directeur des politiques et programmes mondiaux à l’AI Now Institute, a déclaré: « Le rapport fait le saut essentiel de la théorie à la pratique, en se concentrant sur les expériences réelles de ceux qui mettent en œuvre ces mécanismes politiques et en identifiant les lacunes et les défis critiques. Les leçons tirées de cette première vague assureront une prochaine vague de politiques plus solides qui sont efficaces pour tenir ces systèmes responsables envers les personnes et les contextes qu’ils sont censés servir.

Click to comment

Leave a Reply

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Tendance