Connect with us

Technologie

L’IA ne peut pas être réglementée par des mesures techniques seules

Published

on


Toute tentative de réglementer l’intelligence artificielle (IA) ne doit pas reposer uniquement sur des mesures techniques pour atténuer les dommages potentiels, mais devrait plutôt s’attaquer aux déséquilibres de pouvoir fondamentaux entre ceux qui développent ou déploient la technologie et ceux qui y sont soumis, indique un rapport commandé par European Digital Rights (EDRi).

Publié le 21 septembre 2021, le rapport de 155 pages Au-delà de la débiaise : réguler l’IA et ses inégalités a spécifiquement critiqué l’approche « technocratique » de l’Union européenne (UE) en matière de réglementation de l’IA, qui, selon elle, était trop étroitement axée sur la mise en œuvre de mesures techniques d’atténuation des biais, également connues sous le nom de « débiasing », pour être efficace pour prévenir toute la gamme des dommages liés à l’IA.

La proposition de loi sur l’intelligence artificielle (AIA) de la Commission européenne (CE) a été publiée en avril 2021 et visait à créer une approche fondée sur les risques et axée sur le marché pour réglementer l’IA par la mise en place d’auto-évaluations, de procédures de transparence et de diverses normes techniques.

Des experts et des organisations de défense des droits civils numériques ont déjà déclaré à Computer Weekly que, bien que la réglementation soit un pas dans la bonne direction, elle ne protégera finalement pas les droits fondamentaux des personnes et atténuera les pires abus de la technologie, car elle ne résout pas les déséquilibres de pouvoir fondamentaux entre les entreprises technologiques et celles qui sont soumises à leurs systèmes.

Le rapport commandé par EDRi indique que si les décideurs politiques européens ont publiquement reconnu que l’IA peut produire un large éventail de préjudices dans différents domaines – y compris l’emploi, le logement, l’éducation, la santé et la police – leur focalisation laser sur la débiasion algorithmique découle d’une mauvaise compréhension des techniques existantes et de leur efficacité.

« Les documents politiques de l’UE privilégient la débiaisation des ensembles de données comme le meilleur moyen de lutter contre la discrimination dans l’IA, mais ne parviennent pas à saisir les bases des approches de débiasion », a-t-il déclaré. « Lorsqu’ils discutent de la débiasisation, les documents suggèrent à tort que l’atténuation des biais dans les ensembles de données garantit que les futurs systèmes basés sur ces soi-disant « ensembles de données débias » seront non discriminatoires. »

Le rapport ajoute que le règlement proposé par les CE ne tient pas non plus compte d’autres formes de biais qui peuvent survenir dans les modèles et leurs produits, trahissant un manque de connaissances sur les limites de la débiasisation.

« Qu’elles soient appliquées à des ensembles de données ou à des algorithmes, les techniques de débiasing technocentriques ont de profondes limites – elles traitent les biais en termes purement statistiques, au lieu de tenir compte des exigences et des besoins variés et complexes en matière d’équité des diverses parties prenantes du système », a-t-il déclaré.

« Les régulateurs ont négligé de s’attaquer aux implications, y compris l’impossibilité technique entraîne la débiasion (c’est-à-dire qu’il est impossible de répondre à plusieurs exigences de débiasing dans le même modèle), et l’aplatissement des différences, en particulier les différences sociales et politiques, qui résultent de la poursuite d’ensembles de données « impartiaux ».

Le rapport affirme également qu’en adoptant une approche débiaisante « technocentrique », les décideurs politiques réduisent les problèmes sociaux, politiques et économiques complexes à des questions purement techniques de qualité des données, cédant ainsi un pouvoir et un contrôle importants sur une série de questions aux entreprises technologiques.

« La débiasion localise les problèmes et les solutions dans les entrées et les sorties algorithmiques, déplaçant les problèmes politiques dans le domaine du design dominé par les acteurs commerciaux », a-t-il déclaré. « Les documents de politique confèrent un large pouvoir discrétionnaire aux développeurs de technologies et aux fournisseurs de services pour définir les conditions des pratiques débiaisantes, laissant de côté les questions politiques et économiques difficiles de ces méthodes à la discrétion des fournisseurs de services. »

Il a ajouté qu’en déplaçant les problèmes socio-techniques complexes de discrimination dans le domaine des fournisseurs de services et en promouvant des cadres débiaisants qui leur donnent tant de pouvoir discrétionnaire, les décideurs politiques européens ont implicitement placé les entreprises technologiques comme arbitres des conflits sociétaux.

« Une telle élaboration de politiques est susceptible de renforcer le pouvoir réglementaire des entreprises technologiques en matière de discrimination et d’inégalités, tout en normalisant l’application de méthodes de gestion de la population basées sur l’IA alignées sur les objectifs de profit », a-t-il déclaré.

Compte tenu des limites des techniques de débiasing, le rapport a conclu que « dans l’ensemble, les décideurs politiques devraient cesser de préconiser la débiasisation comme seule réponse à l’IA discriminatoire » et la promouvoir uniquement pour les applications étroites pour lesquelles elle est adaptée.

Le rapport a été étudié et rédigé par Agathe Balayn et Seda Gürses de l’Université de technologie de Delft aux Pays-Bas.

Écrivant dans l’avant-propos du rapport, Sarah Chander, une annonce de politique senior« Encadrer le débat autour des réponses techniques masquera la complexité de l’impact des systèmes d’IA dans une économie politique plus large et cantonnera les réponses potentielles à la sphère technique, centralisant encore plus de pouvoir avec les entreprises technologiques dominantes. »

Chander a ajouté que « nous ne devrions pas permettre aux approches technocentriques d’obscurcir des réponses plus radicales aux dommages généraux et structurels émanant des systèmes d’IA », et a en outre appelé à l’interdiction des « utilisations de l’IA qui violent intrinsèquement les droits fondamentaux ».

Le soutien aux interdictions a également été repris ailleurs dans le rapport, qui recommandait que « les décideurs politiques mettent en œuvre des processus réglementaires afin que les systèmes d’IA qui sont intrinsèquement nuisibles ou contraires à l’intérêt public puissent être limités, interdits ou arrêtés pendant leur utilisation ».

Plus tôt ce mois-ci, la Haut-Commissaire des Nations Unies (ONU) aux droits de l’homme, Michelle Bachelet, a appelé à un moratoire sur la vente et l’utilisation de systèmes d’IA qui présentent un risque sérieux pour les droits de l’homme, au moins jusqu’à ce que des garanties adéquates soient mises en œuvre, ainsi qu’à une interdiction pure et simple des applications d’IA qui ne peuvent pas être utilisées conformément au droit international des droits de l’homme.

« L’intelligence artificielle atteint maintenant presque tous les coins de notre vie physique et mentale et même des états émotionnels », a-t-elle déclaré. « Les systèmes d’IA sont utilisés pour déterminer qui obtient des services publics, décider qui a une chance d’être recruté pour un emploi, et bien sûr, ils affectent les informations que les gens voient et peuvent partager en ligne.

« Compte tenu de la croissance rapide et continue de l’IA, combler l’immense lacune en matière de responsabilité dans la façon dont les données sont collectées, stockées, partagées et utilisées est l’une des questions les plus urgentes en matière de droits de l’homme auxquelles nous sommes confrontés. »

Un rapport d’accompagnement du Bureau des droits de l’homme des Nations Unies, qui a analysé comment l’IA affecte une série de droits, a révélé que les États et les entreprises se sont souvent précipités pour déployer des systèmes d’IA et échouent largement à faire preuve de diligence raisonnable sur la façon dont ces systèmes affectent les droits de l’homme.

Et en août 2021, une étude mondiale sur la responsabilité algorithmique dans le secteur public réalisée par l’Institut Ada Lovelace a révélé que très peu d’interventions politiques ont tenté de manière significative d’assurer la participation du public, que ce soit du grand public ou des personnes directement touchées par un système algorithmique.

« Les partisans de la participation du public, en particulier des communautés touchées, soutiennent qu’elle est non seulement utile pour améliorer les processus et les principes, mais qu’elle est cruciale pour concevoir des politiques de manière à répondre aux besoins identifiés des communautés touchées et à intégrer des perspectives contextuelles que les objectifs politiques axés sur l’expertise peuvent ne pas atteindre », indique l’analyse.

Il a ajouté que pour que les formes de gouvernance participative aient un sens, les décideurs doivent également examiner comment les acteurs présentant différents niveaux de ressources peuvent contribuer au processus.

Click to comment

Leave a Reply

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Tendance