Connect with us

Technologie

Le chef des droits de l’homme de l’ONU appelle à un moratoire sur les technologies d’IA

Published

on


Le Haut-Commissaire des Nations Unies (ONU) aux droits de l’homme a appelé à un moratoire sur la vente et l’utilisation de systèmes d’intelligence artificielle (IA) qui présentent d’urgence un risque grave pour les droits de l’homme.

Michelle Bachelet – une ancienne présidente du Chili qui est haut-commissaire des Nations Unies aux droits de l’homme depuis septembre 2018 – a déclaré qu’un moratoire devrait être mis en place au moins jusqu’à ce que des garanties adéquates soient mises en œuvre, et a également appelé à une interdiction pure et simple des applications d’IA qui ne peuvent pas être utilisées conformément au droit international des droits humains.

« L’intelligence artificielle peut être une force pour le bien, aidant les sociétés à surmonter certains des grands défis de notre époque », a déclaré Bachelet dans un communiqué. « Mais les technologies d’IA peuvent avoir des effets négatifs, voire catastrophiques, si elles sont utilisées sans tenir suffisamment compte de la façon dont elles affectent les droits humains des gens.

« L’intelligence artificielle touche maintenant presque tous les coins de notre vie physique et mentale et même nos états émotionnels. Les systèmes d’IA sont utilisés pour déterminer qui obtient des services publics, décider qui a une chance d’être recruté pour un emploi et, bien sûr, ils affectent les informations que les gens voient et peuvent partager en ligne.

« Compte tenu de la croissance rapide et continue de l’IA, combler l’immense lacune en matière de responsabilité dans la façon dont les données sont collectées, stockées, partagées et utilisées est l’une des questions les plus urgentes en matière de droits de l’homme auxquelles nous sommes confrontés. »

Les commentaires de Bachelet coïncident avec la publication d’un rapport (désigné A/HRC/48/31) par le Bureau des droits de l’homme des Nations Unies, qui analyse comment l’IA affecte les droits des personnes à la vie privée, à la santé, à l’éducation, à la liberté de mouvement, à la liberté de réunion et d’association pacifiques et à la liberté d’expression.

Le rapport a révélé que les États et les entreprises se sont souvent précipités pour déployer des systèmes d’IA et échouent largement à faire preuve de diligence raisonnable sur l’impact de ces systèmes sur les droits de l’homme.

« L’objectif des processus de diligence raisonnable en matière de droits de l’homme est d’identifier, d’évaluer, de prévenir et d’atténuer les impacts négatifs sur les droits de l’homme qu’une entité peut causer ou auxquels elle peut contribuer ou être directement liée », indique le rapport, ajoutant que la diligence raisonnable devrait être menée tout au long du cycle de vie d’un système d’IA.

« Lorsque les processus de diligence raisonnable révèlent qu’une utilisation de l’IA est incompatible avec les droits de l’homme, en raison d’un manque de moyens significatifs pour atténuer les préjudices, cette forme d’utilisation ne devrait pas être poursuivie plus loin », a-t-il déclaré.

Le rapport a en outre noté que les données utilisées pour informer et guider les systèmes d’IA peuvent être défectueuses, discriminatoires, obsolètes ou non pertinentes – présentant des risques particulièrement aigus pour les groupes déjà marginalisés – et sont souvent partagées, fusionnées et analysées de manière opaque par les États et les entreprises.

En tant que tel, une attention particulière est nécessaire aux situations où il existe un « lien étroit » entre un État et une entreprise technologique, qui doivent tous deux être plus transparents sur la façon dont ils développent et déploient l’IA.

« L’État est un acteur économique important qui peut façonner la façon dont l’IA est développée et utilisée, au-delà du rôle de l’État dans les mesures juridiques et politiques », indique le rapport de l’ONU. « Lorsque les États travaillent avec des développeurs d’IA et des fournisseurs de services du secteur privé, les États devraient prendre des mesures supplémentaires pour s’assurer que l’IA n’est pas utilisée à des fins incompatibles avec les droits de l’homme.

« Lorsque les États agissent en tant qu’acteurs économiques, ils restent le principal responsable en vertu du droit international des droits humains et doivent s’acquitter de manière proactive de leurs obligations. Dans le même temps, les entreprises restent responsables du respect des droits de l’homme lorsqu’elles collaborent avec les États et devraient chercher des moyens de respecter les droits de l’homme lorsqu’elles sont confrontées à des exigences étatiques qui entrent en conflit avec le droit des droits de l’homme.

Il a ajouté que lorsque les États comptent sur les entreprises pour fournir des biens ou des services publics, ils doivent assurer la surveillance du processus de développement et de déploiement, ce qui peut être fait en exigeant et en évaluant des informations sur l’exactitude et les risques d’une application d’IA.

Au Royaume-Uni, par exemple, le Metropolitan Police Service (MPS) et la South Wales Police (SWP) utilisent un système de reconnaissance faciale appelé NeoFace Live, développé par la société japonaise NEC Corporation.

Cependant, en août 2020, la Cour d’appel a conclu que l’utilisation de la technologie par SWP était illégale – une décision qui était en partie fondée sur le fait que la police ne s’était pas conformée à son obligation d’égalité dans le secteur public d’examiner comment ses politiques et pratiques pouvaient être discriminatoires.

La décision du tribunal a déclaré: « Pour des raisons de confidentialité commerciale, le fabricant n’est pas prêt à divulguer les détails afin qu’ils puissent être testés. C’est peut-être compréhensible mais, à notre avis, cela ne permet pas à une autorité publique de s’acquitter de ses propressur délégable, devoir. »

Le rapport de l’ONU ajoute que le « secret intentionnel des acteurs gouvernementaux et privés » sape les efforts publics pour comprendre les effets des systèmes d’IA sur les droits de l’homme.

Commentant les conclusions du rapport, Bachelet a déclaré: « Nous ne pouvons pas nous permettre de continuer à rattraper notre retard en matière d’IA – en permettant son utilisation avec des limites ou une surveillance limitées ou inexistantes, et en faisant face aux conséquences presque inévitables en matière de droits de l’homme après coup.

« Le pouvoir de l’IA pour servir les gens est indéniable, mais il en va de même pour la capacité de l’IA à alimenter les violations des droits de l’homme à une échelle énorme avec pratiquement aucune visibilité. Il faut agir maintenant pour mettre des garde-fous des droits de l’homme sur l’utilisation de l’IA, pour le bien de nous tous. »

La Commission européenne a déjà commencé à s’attaquer à la réglementation sur l’IA, en publiant sa proposition de loi sur l’intelligence artificielle (AIA) en avril 2021.

Cependant, des experts et des organisations de défense des droits civils numériques ont déclaré à Computer Weekly que bien que la réglementation soit un pas dans la bonne direction, elle ne parvient pas à résoudre les déséquilibres de pouvoir fondamentaux entre ceux qui développent et déploient la technologie et ceux qui y sont soumis.

Ils ont affirmé qu’en fin de compte, la proposition ne fera pas grand-chose pour atténuer les pires abus de la technologie de l’IA et servira essentiellement de feu vert pour un certain nombre de cas d’utilisation à haut risque en raison de l’accent mis sur les normes techniques et l’atténuation des risques pour les droits de l’homme.

En août 2021, à la suite de Forbidden Stories et de la révélation par Amnesty International de l’utilisation du logiciel espion Pegasus du groupe NSO pour effectuer une surveillance généralisée de centaines d’appareils mobiles, un certain nombre de rapporteurs spéciaux de l’ONU ont appelé tous les États à imposer un moratoire mondial sur la vente et le transfert de technologies de surveillance « mettant la vie en danger ».

Ils ont averti qu’il était « hautement dangereux et irresponsable » de permettre au secteur des technologies de surveillance de devenir une « zone sans droits de l’homme », ajoutant : « De telles pratiques violent les droits à la liberté d’expression, à la vie privée et à la liberté, mettent peut-être en danger la vie de centaines d’individus, mettent en péril la liberté des médias et sapent la démocratie, la paix, la sécurité et la coopération internationale. »

Click to comment

Leave a Reply

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Tendance