Connect with us

Technologie

Interdire à la police britannique l’utilisation de la reconnaissance faciale, a déclaré la Chambre des Lords

Published

on


La police britannique continue de déployer la technologie de reconnaissance faciale de manière disproportionnée sans base juridique claire et avec une efficacité très discutable, selon des témoins experts lors d’une enquête de la Chambre des Lords.

Dans le témoignage donné à la commission des affaires intérieures et de la justice des Lords sur l’utilisation d’outils algorithmiques avancés par les forces de l’ordre, les experts ont remis en question la proportionnalité et l’efficacité de la façon dont la technologie de reconnaissance faciale a été déployée par le Metropolitan Police Service (MPS) et la South Wales Police (SWP).

Silkie Carlo, directrice du groupe de campagne sur les libertés civiles Big Brother Watch, a déclaré qu’en cinq ans, le MPS n’avait obtenu que 11 correspondances positives en utilisant la technologie de reconnaissance faciale en direct (LFR), à la suite de déploiements d’essais qui ont commencé en 2016 au carnaval de Notting Hill et se sont terminés en février 2019 avec deux déploiements à Romford., avant que l’utilisation pleinement opérationnelle ne commence en janvier 2020.

« Au cours de cette période, ils ont scanné des centaines de milliers de personnes dans les rues de Londres et ont créé beaucoup de méfiance parmi les communautés, en particulier en se déployant à plusieurs reprises au carnaval de Notting Hill – je pense qu’il y a inévitablement un élément racialisé à cela – et en se déployant à plusieurs reprises dans l’arrondissement de Newham également, qui est l’arrondissement le plus diversifié de Londres. », a-t-elle déclaré.

Non seulement ils n’ont eu que 11 vrais matchs, mais ils ont généré énormément de matchs faussement positifs. Leur taux actuel sur l’ensemble des déploiements est de 93% de correspondances faussement positives, donc j’ai du mal à voir un monde dans lequel cela pourrait être classé comme quelque chose de presque proportionnel.

Sur les essais LFR du MPS, Karen Yeung – professeure interdisciplinaire en droit, éthique et informatique à la Birmingham Law School – a décrit la méthodologie scientifique de la force comme « très peu rigoureuse », notant que parce que les procédures étaient modifiées chaque fois qu’un essai était mené, « nous ne disposons pas d’un ensemble stable et rigoureux de données sur la base de ces expériences ».

Elle a ajouté: « Dans ces 11 procès, 500 000 visages ont été scannés pour produire neuf à 10 arrestations, et beaucoup d’entre eux étaient des individus recherchés pour des infractions très triviales. Tout cela signifie le suivi de localisation en temps réel de beaucoup, plusieurs centaines de milliers de Britanniques vaquant à leurs occupations légales, ne dérangeant personne.

« C’est un sérieux renversement de la présomption selon laquelle on a le droit de vaquant à ses occupations de manière légale, sans être dérangé par l’État, et je soutiens totalement le point de vue de Silkie selon lequel cela devrait être soumis à des réglementations très, très strictes, sinon à une interdiction pure et simple. »

Yeung a en outre noté que, contrairement aux essais LFR menés en Allemagne et en France, le MPS a testé la technologie sur des suspects réels.

« Dans d’autres pays d’Europe occidentale, ils ont utilisé des volontaires pour tester l’exactitude de ces données, et ils ont une base de données complète des personnes qui passent devant les caméras – cela n’a pas été le cas à Londres, ils ont fait des essais opérationnels », a-t-elle déclaré.

Elle a ajouté que si les MPS ont prétendu se conformer à la législation sur la protection des données, les documents qui ont été publiés jusqu’à présent « sont gravement déficients, à mon avis, en termes de mesure dans laquelle ils ont déclaré des objectifs opérationnels et de question de l’évaluation d’impact et de la proportionnalité ».

Yeung a déclaré que toute conclusion réussie des expériences LFR du MPS n’est pas soutenue par les preuves disponibles.

Une base juridique discutable

En ce qui concerne la base juridique utilisée par la police britannique pour justifier ses déploiements de reconnaissance faciale, Carlo a fait écho à l’appel de l’ancien commissaire britannique à la biométrie en faveur d’un cadre juridique explicite, notant qu’il n’existe actuellement aucune législation spécifique régissant l’utilisation de la technologie et que la police affirme que « la toile de fond de la common law, de la loi sur les droits de l’homme et de la loi sur la protection des données » leur permet de l’utiliser.

En réponse au rapport de juillet 2019 du Comité des sciences et de la technologie, qui appelait à un moratoire sur l’utilisation de la LFR par la police jusqu’à ce qu’un cadre juridique approprié soit en place, le gouvernement a affirmé en mars 2021 – après un retard de près de deux ans – qu’il existait « déjà un cadre juridique complet pour la gestion de la biométrie, y compris la reconnaissance faciale ».

Le gouvernement a déclaré que ce cadre comprenait des pouvoirs de common law de la police pour prévenir et détecter la criminalité, la loi sur la protection des données de 2018 (DPA), la loi de 1998 sur les droits de l’homme, la loi sur l’égalité de 2010, la loi de 1984 sur la police et les preuves pénales (PACE), la loi de 2012 sur la protection des libertés (POFA) et les propres politiques publiées par les forces de police.

Carlo a déclaré qu’en termes de reconnaissance faciale rétrospective (RFR), pour laquelle le MPS devrait déployer un nouveau système dans le dans les trois prochains mois, « il se trouve dans une lacune totale de réglementation et de garanties une fois de plus… vous pourriez l’utiliser avec des caméras corporelles, vous pourriez l’utiliser avec la vidéosurveillance – les possibilités sont importantes et vraiment infinies… cela va aussi loin que l’imagination s’étire.

« Je pense qu’il devrait y avoir un moratoire sur la technologie de reconnaissance faciale rétrospective que les forces de police acquièrent actuellement, ce qui leur permet non seulement de comparer une image isolée à la base de données d’images de garde, mais leur permet effectivement de faire toute sorte de reconnaissance faciale correspondant à des séquences contre potentiellement n’importe quel type de base de données; c’est un type d’utilisation beaucoup plus vaste de la technologie.

Une solution sans problème

Selon Yeung, un problème clé avec les déploiements de nouvelles technologies par la police – y compris la reconnaissance faciale et les outils algorithmiques de « prédiction » de la criminalité tels que la matrice des gangs du MPS ou l’outil d’évaluation des risques de préjudice (Hart) de la police de Durham – est que les autorités ont commencé à les utiliser « simplement parce que nous pouvons… sans preuves claires » de leur efficacité ou de leurs impacts.

Comme pour la technologie de reconnaissance faciale, Yeung a déclaré que le développement d’outils de prédiction de la criminalité a été tout aussi peu superficiel, les données historiques sur les arrestations étant utilisées comme proxy pour savoir qui est susceptible de commettre un crime.

« Ce n’est pas parce qu’une personne est arrêtée qu’elle est inculpée, et encore moins condamnée, et il y a tous ces crimes pour lesquels nous n’avons aucune arrestation », a-t-elle déclaré. « Et pourtant, ces outils sont utilisés en Grande-Bretagne sur la base qu’ils génèrent des prédictions sur la récidive – nous devrions au moins les étiqueter comme des prédicteurs de nouvelle arrestation. »

Yeung a en outre noté que l’utilisation de telles technologies par la police a le potentiel d’enraciner massivement les écarts de pouvoir existants au sein de la société, car « la réalité est que nous avons tendance à utiliser les données historiques dont nous disposons, et nous avons des données dans les masses, principalement sur les personnes issues de milieux socio-économiques inférieurs ».

« Nous ne construisons pas d’outils d’évaluation des risques criminels pour identifier les délits d’initiés, ou qui va commettre le prochain type de fraude d’entreprise parce que nous ne recherchons pas ce genre de crimes », a ajouté Yeung.

« C’est vraiment pernicieux – ce qui se passe, c’est que nous examinons des données à volume élevé, qui concernent principalement les pauvres, et nous les transformons en outils de prédiction sur les pauvres, et nous laissons des pans entiers de la société intacts par ces outils.

« Il s’agit d’un grave problème systémique et nous devons nous poser ces questions. Pourquoi ne recueillons-nous pas des données qui sont maintenant parfaitement possibles sur le comportement individuel de la police? Nous aurions pu traquer des individus voyous qui sont enclins à commettre des actes de violence à l’égard des femmes. Nous avons la technologie, nous n’avons tout simplement pas la volonté politique de les appliquer pour examiner l’exercice de l’autorité publique. »

Click to comment

Leave a Reply

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Tendance