Technologie
Les députés votent une série d’amendements à la loi européenne sur l’IA

Les eurodéputés de deux commissions du Parlement européen ont voté à une écrasante majorité en faveur d’une série d’amendements à la loi sur l’intelligence artificielle (AIA), y compris un certain nombre d’interdictions sur les systèmes « intrusifs et discriminatoires », mais des inquiétudes subsistent quant aux lacunes persistantes et à la possibilité d’une portée excessive de l’État.
La liste des systèmes interdits considérés comme représentant « un niveau de risque inacceptable pour la sécurité des personnes » comprend désormais l’utilisation de la reconnaissance faciale en direct dans les espaces accessibles au public ; systèmes de catégorisation biométrique utilisant des caractéristiques sensibles; et l’utilisation de la reconnaissance des émotions dans l’application de la loi, la gestion des frontières, le lieu de travail et les établissements d’enseignement.
Les membres de la commission du marché intérieur et de la protection des consommateurs (IMCO) et de la commission des libertés civiles, de la justice et des affaires intérieures (LIBE) ont également opté pour une interdiction complète des systèmes de police prédictive (y compris le profilage individuel et local, ce dernier n’étant pas inclus auparavant), et le grattage aveugle des données biométriques des médias sociaux ou des images de vidéosurveillance pour créer des bases de données de reconnaissance faciale.
Alors que les systèmes d’identification biométrique à distance rétrospective sont désormais interdits, les députés ont conservé des exceptions pour les forces de l’ordre, mais ont déclaré que ce ne serait que pour la poursuite des crimes graves et seulement après autorisation judiciaire officielle.
En plus des interdictions, les députés ont également voté pour élargir la définition de ce qui est considéré comme « à haut risque » afin d’inclure les systèmes d’IA qui nuisent à la santé, à la sécurité, aux droits fondamentaux ou à l’environnement des personnes, ainsi que des mesures visant à renforcer la responsabilité et la transparence des déployeurs d’IA.
Cela inclut l’obligation de réaliser des analyses d’impact sur les droits fondamentaux avant de déployer des systèmes à haut risque, que les autorités publiques devront publier, et l’extension du champ d’application de la base de données des AIA consultable publiquement des systèmes à haut risque pour inclure également ceux déployés par des organismes publics.
Des mesures entièrement nouvelles autour de modèles « fondamentaux » et de systèmes d’IA génératifs ont également été introduites, dont les créateurs seront obligés d’évaluer une série de risques liés à leurs systèmes – y compris le potentiel de dommages environnementaux et si leurs systèmes garantissent la protection des droits fondamentaux – et contraints de divulguer « un résumé suffisamment détaillé de l’utilisation des données de formation protégées » par les lois sur le droit d’auteur.
« Il est crucial de renforcer la confiance des citoyens dans le développement de l’IA, de définir la voie européenne pour faire face aux changements extraordinaires qui se produisent déjà, ainsi que d’orienter le débat politique sur l’IA au niveau mondial », a déclaré Brando Benifei, corapporteur de l’AIA. « Nous sommes convaincus que notre texte établit un équilibre entre la protection des droits fondamentaux et la nécessité d’apporter une sécurité juridique aux entreprises et de stimuler l’innovation en Europe. »
Cependant, les amendements ne représentent qu’un « projet de mandat de négociation » pour le Parlement européen et sont toujours soumis à un vote en plénière de l’ensemble du Parlement à la mi-juin 2023. À la suite de ce vote, des négociations en trilogue à huis clos débuteront entre le Parlement européen, le Conseil européen et la Commission européenne, qui ont tous adopté des positions différentes.
Daniel Leufer, analyste politique principal chez Access Now, a déclaré par exemple que la position du conseil est qu’il y ait un éventail beaucoup plus large d’exemptions pour l’utilisation de l’IA par les forces de l’ordre et les autorités de l’immigration, ajoutant: « Il est difficile de savoir quelle est une position réelle dont quelqu’un ne va pas bouger. »
Premières réactions
En réponse aux amendements, la Computer & Communications Industry Association (CCIA Europe) – dont les membres comprennent Meta, Google, Amazon, BT, Uber, Red Hat et Intel, parmi de nombreuses autres entreprises technologiques – a déclaré que, bien qu’il y ait eu quelques « améliorations utiles », telles que l’alignement de la définition de l’IA sur celle de l’Organisation de coopération et de développement économiques (OCDE), « D’autres changements introduits par le Parlement marquent un écart clair par rapport à l’objectif réel de la loi sur l’IA, qui est de promouvoir l’adoption de l’IA en Europe. »
Il a spécifiquement affirmé que « les applications d’IA utiles seraient désormais soumises à des exigences strictes, voire pourraient même être interdites » en raison de la « large extension » des cas d’utilisation interdits et à haut risque : « En abandonnant la structure basée sur les risques de la loi, les membres du Parlement européen ont abandonné l’ambition de soutenir l’innovation en matière d’IA ».
Boniface de Champris, responsable des politiques de CCIA Europe, a ajouté que l’association appelle maintenant « les législateurs de l’UE à maintenir l’approche basée sur les risques de la loi sur l’IA afin de garantir que l’innovation en matière d’IA puisse prospérer dans l’Union européenne.
« La meilleure façon pour l’UE d’inspirer d’autres juridictions est de veiller à ce que la nouvelle réglementation permette,plus qu’inhiber, le développement de pratiques utiles en matière d’IA.
Tim Wright, associé en matière de réglementation de la technologie et de l’IA au cabinet d’avocats londonien Fladgate, a également noté que l’AIA « pourrait prendre le bord » des capacités des entreprises européennes d’IA à innover.
« Les développeurs d’IA basés aux États-Unis vont probablement prendre une longueur d’avance sur leurs concurrents européens étant donné que les commissions parlementaires de l’UE ont donné leur feu vert à sa loi révolutionnaire sur l’IA, où les systèmes d’IA devront être classés en fonction de leur potentiel de préjudice dès le départ », a-t-il déclaré.
« L’approche technologique américaine (pensez à Uber) consiste généralement à expérimenter d’abord et, une fois que l’adéquation du marché et du produit est établie, à s’adapter à d’autres marchés et à leur cadre réglementaire. Cette approche favorise l’innovation, tandis que les développeurs d’IA basés dans l’UE devront prendre note des nouvelles règles et développer des systèmes et des processus susceptibles de réduire leur capacité à innover.
« Le Royaume-Uni adopte une approche similaire à celle des États-Unis, bien que la proximité du marché de l’UE signifie que les développeurs basés au Royaume-Uni sont plus susceptibles de se mettre en phase avec les règles de l’UE dès le départ ; Cependant, le potentiel d’expérimentation dans un espace sûr – un bac à sable réglementaire – peut s’avérer très attrayant.
Les groupes de la société civile qui ont fait campagne autour de l’AIA, d’autre part, ont salué un certain nombre de nouveaux amendements, mais ont averti qu’il restait encore un certain nombre de problèmes, en particulier autour de l’auto-évaluation de l’industrie et des exceptions pour la sécurité nationale ou l’application de la loi.
Griff Ferris, responsable juridique et politique de l’organisation non gouvernementale Fair Trials – qui appelle explicitement à l’interdiction de l’utilisation de l’IA et d’autres systèmes automatisés pour « prédire » le comportement criminel depuis septembre 2021 – a décrit l’interdiction de la police prédictive comme un « résultat historique » qui protégera les gens d’une pratique « incroyablement nuisible, injuste et discriminatoire ».
« Nous avons vu comment l’utilisation de ces systèmes criminalise à plusieurs reprises des personnes, voire des communautés entières, en les qualifiant de criminels en fonction de leurs antécédents. Ces systèmes automatisent l’injustice, exacerbant et renforçant le racisme et la discrimination dans le maintien de l’ordre et le système de justice pénale, et alimentant les inégalités systémiques dans la société », a-t-il déclaré.
« Le Parlement européen a franchi une étape importante en votant pour l’interdiction de ces systèmes, et nous l’exhortons à terminer le travail lors du vote final en juin. »
Ella Jakubowska, conseillère politique principale chez European Digital Rights (EDRi), a ajouté : « Nous sommes ravis de voir les membres du Parlement européen intensifier leurs efforts pour interdire un si grand nombre de pratiques qui équivalent à une surveillance biométrique de masse. Avec ce vote, l’UE montre qu’elle est prête à faire passer les gens avant les profits, la liberté avant le contrôle et la dignité au-dessus de la dystopie. »
Leufer a également salué les amendements des deux comités, qui, selon lui, protègent mieux les droits des personnes : « Des changements importants ont été apportés pour mettre fin aux applications nuisibles telles que la surveillance biométrique dangereuse et la police prédictive, ainsi que pour accroître les exigences de responsabilité et de transparence pour les déployeurs de systèmes d’IA à haut risque.
« Cependant, les législateurs doivent combler les lacunes critiques qui subsistent, telles qu’une faille dangereuse dans le processus de classification à haut risque de l’article 6. »
Auto-évaluation
S’adressant à CFP avant le vote, Leufer a déclaré que l’article 6 avait déjà été modifié par le Conseil européen pour exempter les systèmes de la liste à haut risque (contenue dans l’annexe trois de l’AIA) qui serait « purement accessoire », ce qui permettrait essentiellement aux fournisseurs d’IA de se retirer du règlement sur la base d’une auto-évaluation visant à déterminer si leurs applications sont à haut risque ou non.
« Je ne sais pas qui vend un système d’IA qui fait l’une des choses de l’annexe trois, mais qui est purement accessoire à la prise de décision ou aux résultats », a-t-il déclaré. « Le grand danger est que si vous laissez à un fournisseur le soin de décider si son système est « purement accessoire », il est extrêmement incité à dire que c’est le cas et à refuser de suivre la réglementation. »
Leufer a déclaré que le texte du Parlement voté par les deux commissions comprenait « quelque chose de bien pire … qui consiste à permettre aux prestataires de faire une auto-évaluation pour voir s’ils présentent réellement un risque important ».
EDRi partageait des préoccupations similaires concernant l’article 6, notant qu’il encouragerait la sous-classification et fournirait aux entreprises une base pour faire valoir qu’elles ne devraient pas être soumises aux exigences de l’AIA pour les systèmes à haut risque.
« Malheureusement, le Parlement propose des changements très inquiétants concernant ce qui est considéré comme une IA à haut risque », a déclaré Sarah Chander, conseillère politique principale chez EDRi. « Avec les changements dans le texte, les développeurs seront en mesure de décider si leur système est suffisamment « important » pour être considéré comme à haut risque, un risque majeur. drapeau rouge pour l’application de cette législation.
En ce qui concerne les classifications à haut risque en général, Conor Dunlop, responsable des politiques publiques européennes à l’Institut Ada Lovelace, a déclaré à CFP que les exigences imposées aux systèmes à haut risque – y compris le besoin d’ensembles de données de qualité, de documentation technique, de transparence, de surveillance humaine, etc. – devraient déjà être des pratiques standard de l’industrie.
« Il y a eu beaucoup de résistance de la part de l’industrie pour dire que c’est trop lourd », a-t-il déclaré, ajoutant qu’une solution serait simplement d’ouvrir davantage de systèmes aux évaluations tierces et aux contrôles de conformité : « Je pense que cela obligerait à un développement et à un déploiement plus sûrs. »
Portée excessive de l’État
En ce qui concerne les interdictions de reconnaissance faciale en direct et rétrospective, Leufer a ajouté que si le Parlement a supprimé toutes les exemptions sur la première, il ne l’a pas fait pour la seconde, qui peut toujours être utilisée par les forces de l’ordre avec une autorisation judiciaire.
« Toute exception signifie que l’infrastructure doit être là pour être utilisée dans ces circonstances exceptionnelles. Soit cela nécessite l’installation d’une infrastructure permanente dans un espace public, soit l’achat d’infrastructures mobiles », a-t-il déclaré. « Ils ne vont pas le laisser traîner pendant trois ans et ne pas l’utiliser, il va être incité à montrer que c’était un investissement rentable, et cela conduira à une surutilisation. »
Se référant à un avis conjoint sur l’AIA publié par deux autorités paneuropéennes de protection des données, Leufer a ajouté que ces organismes ont appelé à une interdiction de l’identification biométrique à distance dans n’importe quel contexte, et ont clairement déclaré que la reconnaissance faciale en direct et rétrospective est incompatible avec les lois européennes sur la protection des données.
« C’est déjà illégal, nous [at Access Now] Je le dis depuis longtemps, il serait donc bon que la loi sur l’IA le mette au repos et ait une interdiction explicite », a-t-il déclaré. « Rien de moins qu’une interdiction totale est en fait pire que de ne rien avoir, car cela pourrait être considéré comme fournissant une base légale pour quelque chose qui est déjà illégal. »
Leufer a ajouté qu’une partie du problème est que les législateurs sont tombés dans le piège de voir la reconnaissance faciale en direct comme quelque chose de plus dangereux que la reconnaissance faciale rétrospective: « Il y a quelque chose de viscéral à être apparié sur place par cette chose et à avoir ensuite l’intervention instantanée, mais je pense vraiment que la rétrospective est beaucoup plus dangereuse. alors qu’il arme les images historiques de vidéosurveillance, les photos, tout ce contenu qui traîne, pour simplement détruire l’anonymat.
On s’inquiète également du fait que l’AIA permette le développement et le déploiement de l’IA à des fins de sécurité nationale ou militaires sans aucune exemption quant à son utilisation.
Dans une conversation avec CFP sur les justifications éthiques de l’IA militaire, Elke Schwarz – professeur agrégé de théorie politique à l’Université Queen Mary de Londres et auteur de Machines de mort : l’éthique des technologies violentes – par exemple, a décrit l’approche de l’AIA en matière d’IA militaire comme « un peu confuse ».
En effet, alors que les systèmes d’IA militaires sont exemptés des exigences s’ils sont spécifiquement conçus à des fins militaires, la grande majorité des systèmes d’IA sont développés dans le secteur privé pour d’autres utilisations, puis transférés dans le domaine militaire par la suite.
« Palantir travaille avec le NHS et travaille avec l’armée, vous savez, donc ils ont deux ou trois produits de base de systèmes d’IA qui changent évidemment en fonction de données et de contextes différents, mais en fin de compte, c’est une logique similaire qui s’applique », a-t-elle déclaré.
« La plupart des grandes réglementations ambitieuses en matière d’IA finissent par mettre étrangement entre parenthèses l’aspect militaire. Je pense qu’il y a aussi un grand lobby pour ne pas réglementer, ou laisser le secteur privé réglementer en fin de compte, ce qui n’est généralement pas très efficace. »
Dans un avis juridique préparé pour le Centre européen de droit des organisations à but non lucratif fin 2022, Douwe Korff, professeur émérite de droit international à la London Metropolitan University, a déclaré: « Les tentatives visant à exclure des nouvelles protections, en termes généraux, tout ce qui a trait à l’IA dans les contextes de sécurité nationale, de défense et d’application transnationale de la loi, y compris la recherche sur la« conception, Le développement et l’application de systèmes d’intelligence artificielle utilisés à ces fins, également par des entreprises privées, sont pernicieux: en cas de succès, ils feraient de l’ensemble du complexe militaro-industriel-politique une zone largement libre de droits numériques.
Décrivant l’exemption relative à la sécurité nationale comme « une énorme échappatoire potentielle », Ferris a également noté qu’elle « saperait toutes les autres protections » de la LEI, « en particulier dans le contexte de la migration, du maintien de l’ordre et de la justice pénale, car ce sont toutes des questions que les gouvernements considèrent comme des questions de sécurité nationale.la curité ».
Access Now et EDRi demandent également que les exemptions militaires et de sécurité nationale soient retirées de l’AIA.
-
Technologie3 ans ago
Une escroquerie par hameçonnage cible les clients de la Lloyds Bank
-
Monde3 ans ago
La NASA va supprimer les noms « offensants » des planètes et des galaxies
-
Monde3 ans ago
Quelle est la taille de Barron Trump?
-
Monde3 ans ago
Qui est le mari de Candace Owens, George Farmer?
-
Monde3 ans ago
Qui est le chef de la mafia sicilienne Matteo Messina Denaro?
-
France3 ans ago
Qui est Luce Douady et comment l’alpiniste de 16 ans est-il mort?
-
Technologie10 mois ago
Le forum cybercriminel ne cible que la Russie
-
France3 ans ago
Le mari admet avoir tué sa femme en vacances et jeter le corps dans les égouts pluviaux