Connect with us

Technologie

Les chauffeurs syndiqués demandent à Microsoft de suspendre les licences Face API d’Uber

Published

on


Un syndicat de chauffeurs et de coursiers travaillant dans l’économie gig a appelé Microsoft à suspendre la vente de ses systèmes de vérification faciale à Uber après les allégations des chauffeurs ont eu leurs comptes désactivés à tort à la suite d’une erreur d’identification.

L’App Drivers and Courier’s Union (ADCU) et sa fiducie de données associée Workers Info Exchange (WIE) ont déclaré avoir identifié sept cas de chauffeurs Uber perdant leur emploi et ayant par la suite vu leur permis révoqué par Transport for London (TfL) en raison du système de vérification faciale en temps réel de l’entreprise.

Dans le cadre d’une enquête Câblé depuis le début du mois de mars 2021, 14 autres coursiers Uber Eats ont partagé des témoignages avec le journaliste Andrew Kersley qui ont montré comment la technologie n’avait pas reconnu leur visage, ce qui a entraîné des menaces de résiliation et de fermeture de compte.

Le système de vérification d’identité en temps réel utilise Face API, un logiciel d’appariement du visage développé par Microsoft qui peut être utilisé soit pour la vérification faciale ou la reconnaissance, et agit essentiellement comme un outil de comparaison, la vérification des selfies prises par les coursiers et les chauffeurs comme ils se connectent contre les photos dans la base de données d’Uber pour confirmer leur identité.

Bien que la reconnaissance faciale soit un processus individuel qui ne peut être choisi en raison d’un manque de connaissances sur le moment où elle a lieu, la vérification faciale est un processus individuel par lequel la personne sait que le traitement biométrique a lieu et y participe activement en donnant des renseignements par l’intermédiaire d’un appareil personnel.

« Environ 94 % des chauffeurs de location privés titulaires d’un permis à Londres sont [Black, Asian and Ethic Minority] et Microsoft reconnaît ouvertement que ses systèmes de reconnaissance faciale ont un taux d’échec de jusqu’à 20% lorsqu’ils sont utilisés avec des femmes et des personnes de couleur », a déclaré yaseen Aslam, président de l’ADCU.

« Des milliers d’innocents perdront leur emploi et feront l’affaire d’une action en licence si l’utilisation de ce logiciel raciste par Uber n’est pas arrêtée. Les chauffeurs de location privés au Royaume-Uni ont été suffisamment exploités par Uber sans que Microsoft n’ajoute au problème »

Yaseen Aslam, ADCU

« Sur la base de ces statistiques, et en passant par notre charge de travail actuelle, des milliers d’innocents perdront leur emploi et feront face à des mesures de licence si l’utilisation de ce logiciel raciste par Uber n’est pas arrêté. Les chauffeurs de location privés au Royaume-Uni ont été suffisamment exploités par Uber sans que Microsoft n’ajoute au problème.

Aplanir les défauts d’équité

Commentant les allégations du syndicat, un porte-parole de Microsoft a déclaré que l’entreprise était « déterminée à tester et à améliorer l’API Face, en accordant une attention particulière à l’équité et à son exactitude entre les groupes démographiques ».

« Nous fournissons également à nos clients des conseils détaillés pour obtenir les meilleurs résultats et outils qui les aident à évaluer l’équité dans leur système. »

Un porte-parole d’Uber a ajouté que le système a été conçu pour protéger la sécurité des passagers en s’assurant que le bon chauffeur ou courrier utilise le compte.

« Bien qu’aucune technologie ou processus n’est parfait et qu’il y a toujours place à l’amélioration, nous croyons que la technologie, combinée avec le processus complet en place pour assurer un minimum de deux examens manuels de l’homme avant toute décision de retirer un pilote, est juste et important pour la sécurité de notre plate-forme, ont-ils dit.

En mars 2021, lors d’une procédure judiciaire au cours de laquelle les chauffeurs cherchaient à obtenir un meilleur accès à leurs données personnelles à la suite de la désactivation de comptes par Uber, un tribunal néerlandais a estimé que, bien qu’il y ait eu suffisamment d’intervention humaine pour constater que les décisions de l’entreprise n’étaient pas complètement automatisées, il devrait tout de même donner à deux chauffeurs accusés d’«activité frauduleuse » l’accès aux données qu’il utilisait pour prendre les décisions.

L’ADCU a écrit au maire de Londres pour exiger que toutes les révocations de permis de conduire de location privée de TfL fondées sur les preuves produites par les systèmes d’identification d’Uber soient immédiatement examinées.

Le syndicat a en outre affirmé qu’Uber s’était empressé de mettre en œuvre le système d’identification dans le but de récupérer sa licence d’exploitation à Londres après que TfL a décidé fin 2019 qu’elle ne serait pas renouvelée en raison de problèmes avec les chauffeurs non autorisés utilisant la plate-forme.

Les éléments de preuve présentés à l’organisme de réglementation par Uber lors de son appel de licences en septembre 2020 ont montré qu’en raison de défaillances dans le processus d’identification manuelle de l’entreprise, elle avait commencé à déployer le système de vérification d’identité en temps réel à partir d’avril 2020.

« TfL s’est activement intéressée à [Uber’s] propositions concernant ce produit. Il y a des avantages évidents pour le produit et TfL prend en charge toute technologie qui augmente la sécurité des passagers en s’assurant que le conducteur est titulaire d’un permis de TfL et autorisé à utiliser l’application Uber », a écrit helen Chapman, directrice des licences, de la réglementation et de la facturation de TfL, dans sa déclaration de témoin.

Elle a ajouté que TfL avait reçu une étude d’impact sur la protection des données (DPIA) pour le système de la part d’Uber en mars 2020.

« Je considère l’utilisation de ce produit comme un pas dans la bonne direction, bien qu’il soit clair que sa mise en œuvre n’en est qu’à ses débuts. Je ne peux donc pas commenter de façon significative l’efficacité de celui-ci à ce stade », a déclaré Chapman.

James Farrar, directeur de WIE et co-fondateur de l’ADCU, a déclaré qu’il y avait une « course aux armements technologiques de surveillance dans l’économie gig », en partie par les tentatives des plates-formes de passer à « des formes plus cachées de contrôle algorithmique » et en partie par la pression des régulateurs comme TfL.

« Uber s’est empressé de mettre en œuvre un système défectueux de reconnaissance faciale fourni par Microsoft et l’utilise contre une main-d’œuvre de 70.000 personnes, il est déjà bien connu pour exploiter, mais sans les garanties appropriées en place, at-il dit. « Microsoft ne doit pas avoir de camion avec l’exploitation des travailleurs vulnérables par Uber [and] doit suspendre immédiatement la licence d’Uber pour utiliser cette solution. »

Biais de reconnaissance faciale

En 2018, des recherches du MIT ont indiqué que les systèmes de reconnaissance faciale et de détection de Microsoft – en particulier l’API Face utilisée par Uber – avaient des préjugés sexistes et raciaux, esttant qu’il avait des taux d’erreur beaucoup plus élevés lorsqu’il s’agit d’identifier des femmes ou des personnes ayant la peau plus foncée.

« Les disparités substantielles dans l’exactitude de la classification des femelles plus foncées, des femelles plus claires, des mâles plus foncés et des hommes plus légers dans les systèmes de classification des sexes nécessitent une attention urgente si l’on veut que les entreprises commerciales construisent des algorithmes d’analyse faciale véritablement justes, transparents et responsables », ont déclaré les auteurs Joy Buolamwini et Timnit Gebru.

En juin 2020, Microsoft – aux côtés d’Amazon et d’IBM – a suspendu la vente de ses technologies de reconnaissance faciale aux forces de l’ordre américaines en réponse à plusieurs semaines de manifestations de masse contre l’assassinat de George Floyd par la police le 25 mai.

Brad Smith, président de Microsoft, avait déclaré à l’époque : « Nous ne vendrons pas la technologie de reconnaissance faciale aux services de police des États-Unis tant que nous n’aurons pas mis en place une loi nationale fondée sur les droits de l’homme, qui régira cette technologie. »

Smith a déjà dit Itv en janvier 2019, l’un des défis de la technologie dans sa forme actuelle était qu’« elle ne fonctionne pas aussi bien pour les femmes que pour les hommes, elle ne fonctionne pas aussi bien pour les personnes de couleur », ajoutant qu’elle était plus susceptible de trouver des erreurs, des inadéquations et, en général, de « ne pas identifier » les personnes de ces groupes.

Click to comment

Leave a Reply

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Tendance