Connect with us

Technologie

L’acquisition de technologies d’application de la loi nécessite un examen plus approfondi

Published

on


Un groupe d’experts des États-Unis, de Belgique et de Nouvelle-Zélande a informé la Commission de la justice et des affaires intérieures de la Chambre des Lords des risques liés au fait de permettre aux entreprises technologiques de faire passer la technologie au maintien de l’ordre.

Les députés ont interrogé le panel sur l’utilisation de technologies de surveillance telles que les caméras corporelles et les algorithmes d’application de la loi.

Elizabeth Joh, professeure de droit Martin Luther King Jr à la Davis School of Law de l’Université de Californie, a déclaré au comité qu’il y avait eu une expérimentation pure et simple dans l’utilisation de la technologie pour le maintien de l’ordre aux États-Unis. Elle a mis en garde contre l’influence des entreprises du secteur privé, qui, selon elle, a influencé l’adoption de la technologie dans les forces de police.

« C’est le secteur privé qui a développé la technologie pour l’application de la loi », a déclaré Joh. « Ils ont un énorme intérêt et fournissent des incitations. »

Par exemple, les organismes d’application de la loi sont incités à utiliser des caméras corporelles gratuites pendant un an, a-t-elle déclaré. Mais lorsque le procès est terminé, les forces de police sont alors enfermées dans l’utilisation des logiciels et des services de l’entreprise pour accéder à toutes les données de surveillance qu’elles ont collectées.

Joh a déclaré que les services de police sont obligés d’envoyer les données collectées par les caméras corporelles au magasin de données de l’entreprise, qui n’est accessible qu’à l’aide de son logiciel. « Après un an, de nombreux services de police ont tellement de données de caméra corporelle qu’ils sont obligés d’utiliser le logiciel de l’entreprise », a-t-elle ajouté.

Rosamunde Elise Van Brakel, professeure de recherche en études de surveillance à la Vrije Universiteit de Bruxelles, en Belgique, et codirectrice du Surveillance Studies Network, a déclaré au comité: « Il n’y a pas de transparence sur les règles de passation des marchés. Il n’y a pas d’information publique sur la façon dont les décisions sont prises. »

Van Brakel a déclaré que parmi les défis auxquels les services de police sont confrontés, il y a le fait qu’ils manquent souvent d’expertise suffisante. « Je pense qu’un facteur important est d’avoir l’expertise nécessaire pour comprendre ce que les entreprises technologiques promettent que la technologie fera », a-t-elle déclaré. Dans certains pays européens, certains services de police ont choisi de ne pas acheter de technologie auprès de fournisseurs de technologie américains, a-t-elle ajouté.

Van Brakel a également discuté de la nécessité d’établir des organismes de surveillance et des règlements. Mais certaines lois, comme celles qui couvrent la protection des données, sont trop restrictives, a-t-elle déclaré. « Une réglementation sectorielle pourrait être très utile car la protection des données est très axée sur la protection des données en ligne ou dans le secteur privé. Il existe peu de lignes directrices sur la manière dont le secteur public devrait mettre en œuvre la protection des données. »

Par exemple, les règlements généraux ne peuvent pas saisir les spécificités du crime organisé ou de la protection de l’enfance, a-t-elle déclaré.

Avant d’investir dans la technologie d’application de la loi, a déclaré Van Brakel, il doit y avoir une évaluation de la proportionnalité, qui prend en compte le respect de la réglementation et l’impact du déploiement de la technologie sur la société, la démocratie et les droits des citoyens. « Comment la technologie permet-elle à la police d’atteindre son objectif sociétal ? », a-t-elle déclaré. « Cette question n’est pas assez posée. Il n’y a pas assez de réflexion sur la façon dont cela aide la police. »

Dans le pire des cas, a déclaré Van Brakel, les réglementations et les droits des citoyens seront dilués, ce qui pourrait entraîner la mise en place de la technologie par certains groupes de la société de manière disproportionnée.

Colin Gavaghan, président du comité consultatif sur les technologies émergentes à la police néo-zélandaise et directeur du Centre de la Fondation néo-zélandaise pour le droit et la politique dans les technologies émergentes de l’Université d’Otago, a déclaré que la réduction des biais dans un algorithme ne consiste pas simplement à supprimer un seul point de données, tel que l’ethnicité, car le biais est réparti sur plusieurs ensembles de données.

Lors de la collecte de données sur la criminalité à des fins d’apprentissage automatique, Gavaghan a recommandé que les services de police puisent dans les données des rapports de criminalité du public, « pour briser la boucle de rétroaction ». Cela se produit lorsque l’algorithme indique à la police où un crime est susceptible de se produire. Ils enquêtent, trouvent un crime et leur rapport applique la décision de l’algorithme.

Click to comment

Leave a Reply

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Tendance