Technologie
Des groupes de la société civile appellent l’UE à placer les droits de l’homme au centre de la loi sur l’IA

Human Rights Watch et 149 autres organisations de la société civile exhortent les institutions de l’Union européenne (UE) à renforcer la protection des droits fondamentaux des personnes dans sa prochaine loi sur l’intelligence artificielle (AIA).
En mai 2023, les commissions du Parlement européen ont voté une série d’amendements à l’AIA – y compris un certain nombre d’interdictions sur les systèmes « intrusifs et discriminatoires » ainsi que des mesures visant à améliorer la responsabilité et la transparence des déployeurs d’IA – qui ont ensuite été adoptés par l’ensemble du Parlement lors d’un vote en plénière en juin.
Cependant, les amendements ne représentent qu’un « projet de mandat de négociation » pour le Parlement européen, avec des négociations en trilogue à huis clos qui devraient commencer entre le Conseil européen, le Parlement et la Commission fin juillet 2023 – qui ont tous adopté des positions différentes sur une série de questions.
La position du Conseil, par exemple, est de mettre en œuvre un plus grand secret autour des déploiements d’IA par la police, tout en essayant simultanément d’élargir les exemptions qui permettraient de la déployer plus facilement dans le contexte de l’application de la loi et de la migration.
Le Parlement, d’autre part, a opté pour une interdiction totale des systèmes de police prédictive et est favorable à l’élargissement de la portée de la base de données des systèmes à haut risque de l’AIA accessible au public pour inclure également ceux déployés par les organismes publics.
Avant les négociations secrètes, Human Rights Watch, Amnesty International, Access Now, European Digital Rights (EDRi), Fair Trials et des dizaines d’autres groupes de la société civile ont exhorté l’UE à interdire un certain nombre d’applications d’IA nuisibles, discriminatoires ou abusives ; rendre obligatoires des analyses d’impact sur les droits fondamentaux tout au long du cycle de vie d’un système d’IA; et de fournir des recours efficaces aux personnes affectées négativement par l’IA, parmi un certain nombre d’autres garanties.
« En Europe et dans le monde, les systèmes d’IA sont utilisés pour nous surveiller et nous contrôler dans les espaces publics, prédire notre probabilité de criminalité future, faciliter les violations du droit de demander l’asile, prédire nos émotions et nous catégoriser, et prendre des décisions cruciales qui déterminent notre accès aux services publics, au bien-être, à l’éducation et à l’emploi », ont-ils écrit dans un communiqué.
« Sans une réglementation stricte, les entreprises et les gouvernements continueront d’utiliser des systèmes d’IA qui exacerbent la surveillance de masse, la discrimination structurelle, le pouvoir centralisé des grandes entreprises technologiques, la prise de décision publique irresponsable et les dommages environnementaux.
« Nous appelons les institutions de l’UE à veiller à ce que le développement et l’utilisation de l’IA soient responsables, publiquement transparents et à ce que les citoyens soient habilités à contester les préjudices. »
Sécurité nationale et exemptions militaires
Pour les signataires de la déclaration, un point de discorde majeur autour de l’AIA telle qu’elle est est que les utilisations de l’IA à des fins de sécurité nationale et militaires sont complètement exemptées de ses dispositions, tandis que les utilisations à des fins d’application de la loi sont partiellement exemptées.
Les groupes appellent donc les institutions de l’UE à fixer des limites claires à l’utilisation de l’IA par les autorités nationales chargées de la sécurité, de l’application de la loi et de l’immigration, en particulier lorsqu’il s’agit de pratiques de surveillance « nuisibles et discriminatoires ».
Ils disent que ces limites doivent inclure une interdiction totale des technologies d’identification biométrique à distance en temps réel et rétrospectives dans les espaces accessibles au public, par tous les acteurs et sans exception; l’interdiction de toute forme de police prédictive; la suppression de toutes les lacunes et exemptions en matière d’application de la loi et de contrôle des migrations; et une interdiction totale des systèmes de reconnaissance des émotions.
Ils ont ajouté que l’UE devrait également rejeter la tentative du Conseil d’inclure une exemption générale pour les systèmes développés ou déployés à des fins de sécurité nationale; et interdire l’utilisation de l’IA dans des contextes de migration pour effectuer des évaluations individualisées des risques, ou pour « interdire, restreindre et prévenir » la migration.
Les groupes appellent également l’UE à donner aux membres du public les moyens de comprendre et de contester l’utilisation des systèmes d’IA, notant qu’il est « crucial » que l’AIA développe un cadre efficace de responsabilité, de transparence, d’accessibilité et de recours.
Cela devrait inclure l’obligation pour tous les utilisateurs de déploiement d’IA de réaliser et de publier des analyses d’impact sur les droits fondamentaux avant chaque déploiement d’un système d’IA à haut risque; enregistrer leur utilisation de l’IA dans la base de données de l’UE consultable publiquement avant son déploiement; et de veiller à ce que les personnes soient informées et aient le droit de rechercher des informations lorsqu’elles sont touchées par des systèmes d’IA.
Tout cela devrait être étayé par un engagement significatif avec la société civile et les personnes touchées par l’IA, qui devraient également avoir droit à des recours effectifs lorsque leurs droits sont violés.
Lobbying des grandes entreprises technologiques
Enfin, les groupes soussignés appellent l’UE à repousser le lobbying des grandes entreprises technologiques, notant que les négociateurs « ne doivent pas céder aux efforts de lobbying des grandes entreprises technologiques cherchant à contourner la réglementation pour des intérêts financiers ».
En 2021, un rapport de Corporate Europe Observatory et de LobbyControl a révélé que les grandes entreprises technologiques dépensent désormais plus de 97 millions d’euros par an pour faire pression sur l’UE, ce qui en fait le plus grand secteur de lobbying en Europe devant les produits pharmaceutiques, les combustibles fossiles et la finance.
Le rapport a révélé que malgré une grande variété d’acteurs actifs, les efforts de lobbying du secteur de la technologie sont dominés par une poignée d’entreprises, avec seulement 10 entreprises responsables de près d’un tiers des dépenses totales du lobby technologique. Cela inclut, par ordre croissant, Vodafone, Qualcomm, Intel, IBM, Amazon, Huawei, Apple, Microsoft, Facebook et Google, qui ont dépensé collectivement plus de 32 millions d’euros pour faire entendre leur voix dans l’UE.
Compte tenu de l’influence des entreprises technologiques privées sur les processus de l’UE, les groupes ont déclaré qu’il faudrait donc « supprimer la couche supplémentaire ajoutée au processus de classification des risques à l’article 6 ». [in order to] rétablir le processus clair et objectif de classification des risques décrit dans la position initiale de la Commission européenne.
S’exprimant avant le vote en plénière du Parlement en juin, Daniel Leufer, analyste politique principal chez Access Now, a déclaré à CFP que l’article 6 avait été modifié par le Conseil européen pour exempter les systèmes de la liste à haut risque (contenue dans l’annexe trois de l’AIA) qui serait « purement accessoire », ce qui permettrait essentiellement aux fournisseurs d’IA de se retirer du règlement sur la base d’une auto-évaluation visant à déterminer si leurs applications sont à haut risque ou non.
« Je ne sais pas qui vend un système d’IA qui fait l’une des choses de l’annexe trois, mais qui est purement accessoire à la prise de décision ou aux résultats », a-t-il déclaré à l’époque. « Le grand danger est que si vous laissez à un fournisseur le soin de décider si son système est « purement accessoire », il est extrêmement incité à dire que c’est le cas et à refuser de suivre la réglementation. »
Leufer a ajouté que le texte du Parlement comprend désormais « quelque chose de bien pire… qui consiste à permettre aux prestataires de faire une auto-évaluation pour voir s’ils présentent réellement un risque important ».
-
Technologie3 ans ago
Une escroquerie par hameçonnage cible les clients de la Lloyds Bank
-
Monde3 ans ago
La NASA va supprimer les noms « offensants » des planètes et des galaxies
-
Technologie1 an ago
Le forum cybercriminel ne cible que la Russie
-
Monde3 ans ago
Quelle est la taille de Barron Trump?
-
Monde3 ans ago
Qui est le mari de Candace Owens, George Farmer?
-
Monde3 ans ago
Qui est le chef de la mafia sicilienne Matteo Messina Denaro?
-
France3 ans ago
L’enseignant primaire accro au tatouage avec EYEBALLS noirci terrifie les enfants avec l’art corporel
-
France3 ans ago
Qui est Luce Douady et comment l’alpiniste de 16 ans est-il mort?