Connect with us

Technologie

Un groupe d’éthique biométrique s’attaque à l’utilisation publique-privée de la reconnaissance faciale

Published

on


Un dossier accessible au public sur les utilisations collaboratives de la reconnaissance faciale en direct (LFR) devrait être créé pour réduire le secret entourant les partenariats public-privé, indique un organe consultatif au ministère de l’Intérieur.

Le Groupe d’éthique biométrique et médico-légale (BFEG), un organisme public consultatif non ministériel parrainé par le ministère de l’Intérieur qui a pour mission de se concentrer sur les aspects éthiques des technologies qui produisent des données biométriques et des identificateurs, a décrit un certain nombre de questions qui devraient être abordées avant les collaborations public-privé dans l’utilisation du FRL.

La publication d’une note d’information en janvier 2020 fait suite à une mission de collecte de preuves de près d’un an menée par le BFEG, qui portait en particulier sur la façon dont la technologie est utilisée en collaboration entre les forces policières et les entités privées.

En créant un dossier accessible au public, le BFEG a déclaré que les forces policières devraient énumérer activement les documents sur leurs sites Web liés à chaque déploiement de la technologie LFR qui identifient le but de la collaboration, l’identité de l’entreprise privée concernée, ainsi que les types et la quantité de données partagées, avec qui et pendant combien de temps.

L’exemple le plus notable de la collaboration des forces de l’ordre britanniques avec des entités du secteur privé sur LFR est le King’s Cross Estate, qui a été révélé être l’utilisation de la technologie à travers une zone de 67 acres du centre de Londres en août 2019.

Après avoir initialement nié toute implication, le Metropolitan Police Service (MPS) et la Police britannique des transports ont finalement admis en septembre 2019 avoir fourni au King’s Cross Estate des images pour sa base de données.

Un certain nombre de grandes entreprises technologiques ont également fait l’objet d’un examen minutieux pour leurs liens avec les forces de l’ordre à la suite de l’assassinat de George Floyd aux États-Unis le 25 mai 2020, IBM, Amazon et Microsoft acceptant tous d’arrêter temporairement leurs ventes de technologie LFR aux forces de l’ordre américaines en juin 2020.

Le BFEG a noté que les collaborations public-privé avaient le potentiel d’exacerber la discrimination et les préjugés qui existent déjà dans les technologies LFR, « en particulier dans les cas où une autorité publique n’examine pas l’ensemble de données de formation et les tests algorithmiques de l’entité privée ». Elle a déclaré que ces collaborations sont cruciales pour l’évolution rapide de la technologie « parce que les organisations privées étendent et élargissent ce que les pouvoirs publics peuvent en faire ».

Le BFEG a ajouté : « La plupart de ces [use cases] ne pouvait pas être décrite avec précision comme des partenariats, en ce sens qu’il s’agit d’une relation formelle ou contractuelle clairement définie entre deux parties. Toutefois, ils impliquent tous une collaboration, ce qui signifie qu’il existe un flux de données, d’infrastructures informatiques (matériel, logiciels, plates-formes) et de connaissances qui franchissent les frontières public-privé.

En plus d’appeler à la création d’un dossier accessible au public, le BFEG a recommandé qu’en l’absence d’un cadre législatif clair, l’utilisation collaborative du FRL ne se déroule que si un agent du grade de surintendant ou supérieur l’autorise, et qu’un groupe d’éthique indépendant soit mis sur pied pour superviser ces partenariats.

« Pour maintenir la confiance du public, le BFEG recommande la mise en place de mécanismes de surveillance », a-t-il déclaré. « Le BFEG suggère qu’un groupe d’éthique indépendant soit chargé de superviser les déploiements individuels de technologies de reconnaissance biométrique par la police et l’utilisation des technologies de reconnaissance biométrique dans le cadre de collaborations public-privé (PC).

« Ce groupe d’éthique indépendant exigerait que tous les déploiements et PC proposés soient examinés lorsqu’ils sont établis et surveillés à intervalles réguliers pendant leur fonctionnement. »

Parmi les autres recommandations, mentionnons le fait que la police ne devrait être en mesure de partager des données qu’avec des « organisations privées dignes de confiance », dont certains membres devraient également faire l’objet d’un vérification approfondie; que les données ne devraient être partagées ou accessibles qu’au nombre minimum absolu de personnes; et que des dispositions devraient être prises pour le partage et le stockage sûrs et sécurisés des données biométriques.

La note du BFEG a également clairement indiqué que toute collaboration public-privé doit être en mesure de démontrer qu’elles sont nécessaires et que le partage des données entre les organisations est proportionnel.

« Il n’est généralement pas permis à la police de partager des informations sur les membres du public avec des organisations privées », a-t-il déclaré. « Toute dérogation à ce principe éthique fondamental ne peut être justifiée que si elle sert un intérêt public important qui ne pourrait être réalisé sans cette collaboration.

« Si la police ne peut s’acquitter de ses responsabilités sans collaborer avec des organisations privées, est partagée par la police ou, en fait, par des organisations privées avec la police dans ces collaborations, ne devrait être que ce qui est nécessaire pour que la police s’acquitter de son rôle. »

Le BFEG a ajouté : « Les avantages pour la police doivent également être suffisamment importants pour justifier toute perte de vie privée impliquée dans le partage d’informations, soit par la police, soit par des organisations privées avec la police. »

Les éléments de preuve utilisés pour créer la note d’information, qui a été recueillie par le Groupe de travail sur la reconnaissance faciale du BFEG, provenaient d’intervenants de l’industrie, de la réglementation, des libertés civiles et des services de police.

Click to comment

Leave a Reply

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Tendance