Connect with us

Technologie

Les États membres de l’Unesco adoptent une recommandation sur l’éthique de l’IA

Published

on


Les 193 États membres de l’Organisation des Nations Unies pour l’éducation, la science et la culture (Unesco) ont adopté à l’unanimité une série de recommandations sur l’intelligence artificielle éthique (IA), qui visent à tirer parti des avantages de la technologie tout en réduisant les risques pour les droits de l’homme associés à son utilisation.

Les recommandations – adoptées par tous les États membres, y compris le Royaume-Uni et la Chine, le 25 novembre 2021 – abordent des questions relatives à la transparence, à la responsabilité, à la surveillance, à la protection des données, à l’environnement, à la notation sociale et plus encore; et a noté la nécessité pour les gouvernements et les entreprises technologiques de construire des technologies d’IA qui protègent et promeuvent les droits de l’homme et les libertés fondamentales.

La première ébauche de la recommandation a été publiée en mai 2020 et a été produite par une unité multidisciplinaire de 24 spécialistes de l’IA connue sous le nom de Groupe d’experts ad hoc (AHEG), qui a été formé deux mois plus tôt avec la tâche spécifique d’élaborer un cadre qui prend en compte les vastes impacts de l’IA.

Le projet a ensuite été ouvert à la consultation publique pendant trois mois, la recommandation finale ayant été soumise aux États membres lors de la 41e session de la conférence générale de l’Unesco, où elle a été formellement adoptée.

Pour guider le développement de l’IA éthique, la recommandation décrit 10 principes – dont la sûreté et la sécurité, l’équité et la non-discrimination, la proportionnalité et ne pas nuire, la durabilité, la transparence et l’explicabilité, ainsi que la sensibilisation et l’alphabétisation – étayés par des actions politiques plus concrètes sur la façon dont elles peuvent être réalisées.

Par exemple, la recommandation encourage fortement l’utilisation d’analyses d’impact éthiques comme moyen de s’assurer que les développeurs et les déployeurs de la technologie tiennent compte de l’impact socio-économique plus large de leurs systèmes, y compris en termes de protection des données et de droits de l’homme, et appelle les États membres à mettre en œuvre « des mécanismes d’application solides et des mesures correctives » afin que tout préjudice causé par un système d’IA puisse être traité efficacement.

La recommandation décrit également comment les systèmes d’IA devraient et ne devraient pas être déployés: « Les États membres devraient introduire des incitations, lorsque cela est nécessaire et approprié, pour assurer le développement et l’adoption de solutions éthiques fondées sur les droits et fondées sur l’IA pour la résilience aux risques de catastrophe; la surveillance, la protection et la régénération de l’environnement et des écosystèmes; et la préservation de la planète.

« Ces systèmes d’IA devraient impliquer la participation des communautés locales et autochtones tout au long du cycle de vie des systèmes d’IA et devraient soutenir des approches de type économie circulaire et des modèles de consommation et de production durables. »

Cependant, il a également ajouté que, bien qu’aucun système ne devrait être utilisé d’une manière qui porte atteinte ou abuse des droits des personnes, « en particulier, les systèmes d’IA ne devraient pas être utilisés à des fins de notation sociale ou de surveillance de masse ».

La recommandation soulignait en outre que, lorsqu’ils élaborent des cadres réglementaires pour inhiber le potentiel de notation sociale ou de surveillance de masse, les États membres doivent veiller à ce que la responsabilité ultime incombe toujours à un être humain et à ce qu’aucune technologie d’IA ne reçoive elle-même de personnalité juridique.

« Le monde a besoin de règles pour l’intelligence artificielle au profit de l’humanité. La recommandation sur l’éthique de l’IA est une réponse majeure », a déclaré la directrice générale de l’Unesco, Audrey Azoulay. « Il établit le premier cadre normatif mondial tout en donnant aux États membres la responsabilité de l’appliquer à leur niveau. L’Unesco soutiendra ses 193 États membres dans sa mise en œuvre et leur demandera de rendre compte régulièrement de leurs progrès et de leurs pratiques. »

En septembre 2021, le Bureau des droits de l’homme des Nations Unies a publié un rapport (désigné A/HRC/48/31), qui a révélé que les États et les entreprises se sont souvent précipités pour déployer des systèmes d’IA et ne font généralement pas preuve d’une diligence raisonnable appropriée sur l’impact de ces systèmes sur les droits de l’homme.

« L’objectif des processus de diligence raisonnable en matière de droits de l’homme est d’identifier, d’évaluer, de prévenir et d’atténuer les impacts négatifs sur les droits de l’homme qu’une entité peut causer ou auxquels elle peut contribuer ou être directement liée », indique le rapport, ajoutant que la diligence raisonnable devrait être menée tout au long du cycle de vie d’un système d’IA.

« Lorsque les processus de diligence raisonnable révèlent qu’une utilisation de l’IA est incompatible avec les droits de l’homme, en raison d’un manque de moyens significatifs pour atténuer les préjudices, cette forme d’utilisation ne devrait pas être poursuivie davantage. »

La publication du rapport a coïncidé avec les commentaires de la Haut-Commissaire des Nations Unies aux droits de l’homme, Michelle Bachelet, qui a appelé à un moratoire sur la vente et l’utilisation de systèmes d’IA qui présentent un risque sérieux pour les droits de l’homme de toute urgence.

Bilan des membres de l’Unesco en matière de surveillance de masse

Il shoulIl convient de noter que si la recommandation de l’Unesco est la première fois que la Chine accepte de mettre fin à la surveillance de masse omniprésente et alimentée par l’IA dans un forum international, les États-Unis ne sont pas membres de l’Unesco et ne sont donc pas signataires de la recommandation, qui n’est elle-même que volontaire.

En octobre 2021, l’Institut d’études sur le développement (IDS) et l’African Digital Rights Network (ADRN) ont publié une analyse comparative des lois et pratiques de surveillance de six pays africains, dont l’Égypte, le Kenya, le Nigéria, le Sénégal, l’Afrique du Sud et le Soudan – tous membres de l’Unesco.

Il a constaté que les gouvernements de chaque pays utilisaient et investissaient dans de nouvelles technologies numériques pour effectuer une surveillance illégale des citoyens, y compris l’Internet basé sur l’IA et la surveillance mobile qui peuvent être déployés pour scanner les communications électroniques en masse.

La surveillance de masse a également été effectuée par d’autres membres de l’Unesco, y compris le Royaume-Uni, dont l’agence de renseignement d’origine électromagnétique GCHQ a été reconnue coupable d’analyser illégalement les enregistrements téléphoniques, Internet et électroniques de citoyens britanniques dans le cadre d’un accord secret avec son homologue américain, la National Security Agency (NSA).

Bien que le GCHQ n’ait pas officiellement confirmé exactement comment il utilise l’IA, il a déclaré dans un document d’orientation publié en février 2021 que l’IA pourrait être utilisée de manière responsable pour protéger la sécurité nationale du Royaume-Uni, bien qu’il n’ait pas mentionné la surveillance.

Bien que l’Union européenne (UE) tente actuellement de réglementer l’utilisation de l’IA de manière juridiquement contraignante, plus de 100 organisations de défense des droits civils, humains et numériques ont déclaré que la loi sur l’intelligence artificielle (AIA) proposée par l’UNION ne protégera pas véritablement les droits fondamentaux tant qu’elle ne s’attaque pas aux déséquilibres structurels de pouvoir.

En novembre 2021, un rapport publié par Human Rights Watch a en outre affirmé que l’AIA menaçait de saper le filet de sécurité sociale de l’Union et était mal équipée pour protéger les personnes contre la surveillance et la discrimination.

Amos Toh, chercheur principal sur l’IA et les droits humains à Human Rights Watch, a déclaré que la proposition ne parviendrait finalement pas à mettre fin à la « surveillance et au profilage abusifs » des personnes en situation de pauvreté. « La proposition de l’UE ne fait pas assez pour protéger les gens contre les algorithmes qui les privent injustement des avantages dont ils ont besoin pour passer à leurs besoins ou trouver un emploi », a-t-il déclaré.

Click to comment

Leave a Reply

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Tendance