Connect with us

Technologie

Comment l’automatisation algorithmique pourrait gérer les travailleurs de manière éthique

Published

on


La gestion par les humains peut être lamentable. « Dans l’ancien monde du taxi, les chauffeurs étaient souvent maltraités », explique James Farrar, directeur de l’organisation à but non lucratif Worker Info Exchange (WIE). Les chauffeurs paieraient les mêmes frais pour conduire pour une compagnie de taxi, mais recevraient des montants d’affaires différents.

« Vous auriez des conducteurs dits « nourris » [fed with work] et des chauffeurs « affamés », avec des chauffeurs privilégiés qui obtiennent tout le beau travail », dit-il, certains répartiteurs qui ont alloué du travail exigeant des pots-de-vin. En conséquence, beaucoup ont accueilli favorablement le remplacement des répartiteurs par des algorithmes: Farrar se souvient d’avoir applaudi cela lors d’une session pour les nouveaux chauffeurs Uber.

Mais la gestion par algorithme et processus automatisé a introduit de nouveaux problèmes. En décembre dernier, WIE, qui aide les travailleurs à obtenir leurs données, a publié son rapport Géré par des bots. Cela inclut les plateformes qui suspendent les travailleurs indépendants sur la base d’un logiciel de reconnaissance faciale décidant à tort qu’elles laissent d’autres personnes utiliser leurs comptes, puis refusant d’autoriser un examen humain de la suspension.

Les logiciels de reconnaissance faciale ont tendance à être moins précis pour les personnes à la peau plus foncée et le rapport WIE, notant que 94% des conducteurs de véhicules de location privés enregistrés auprès de Transport for London sont issus de minorités ethniques, affirme que cela « s’est avéré désastreux pour les travailleurs vulnérables déjà dans un emploi précaire ».

Farrar dit qu’il y a des problèmes plus larges, tels que les plates-formes qui prennent trop de conducteurs, ce qui réduit les temps d’attente mais rend très difficile de gagner sa vie grâce à de tels systèmes, ainsi que la congestion des rues. « Parce que ces entreprises se sont comportées de cette façon, elles sont presque devenues un obstacle à la réalisation de la vision qu’elles ont définie », dit-il. « Je suis un optimiste technologique. Il peut offrir de grandes choses pour les gens, les travailleurs et les entreprises. Mais nous devons tenir les gens responsables de la façon dont ils l’utilisent. »

Farrar affirme que les employeurs devraient faire preuve de transparence quant à l’utilisation de la technologie, en particulier en ce qui concerne l’affectation du travail et la gestion du rendement; ne devraient pas utiliser la sécurité et la prévention de la fraude comme excuses pour cacher ce qu’ils font; et ne devrait pas utiliser l’automatisation seule pour prendre des décisions qui changent la vie.

Rôle des syndicats

Le Trades Union Congress, une association de 48 syndicats, a lancé des appels similaires dans La dignité au travail et la révolution de l’IA, un manifeste publié en mars 2021. Mary Towers, responsable des politiques en matière de droits en matière d’emploi, affirme que les syndicats peuvent jouer un nouveau rôle dans le traitement et l’analyse des données que les employeurs détiennent sur leurs membres, telles que les salaires. « Je pense que sans ce type d’assistance collective, il serait très difficile pour un travailleur individuel de prendre le contrôle de ses propres données sans les mettre en commun », dit-elle.

Un ensemble de données pourrait être utilisé à des fins d’analyse et comme base d’actions telles qu’une demande d’égalité salariale. Un syndicat pourrait agir officiellement en tant que représentant de ses membres en vertu de la loi sur la protection des données ou il pourrait demander aux membres de collecter des données de manière indépendante, par exemple via WeClock, une application conçue par la fédération syndicale internationale Uni qui permet aux utilisateurs de consigner le temps qu’ils passent à travailler et à se déplacer.

Les façons dont l’automatisation et l’intelligence artificielle (IA) sont utilisées avec les données des travailleurs peuvent également être incluses dans les négociations entre les syndicats et les employeurs. Une mise à jour de 2020 de la convention collective entre Royal Mail Group (RMG) et le Syndicat des travailleurs de la communication (CWU) comprend une section sur la technologie qui stipule que « la technologie ne sera pas utilisée pour déshumaniser le lieu de travail ou la prise de décision opérationnelle » et que « l’utilisation de la technologie est conçue pour soutenir des discussions plus éclairées entre RMG et CWU et non les remplacer sous quelque forme que ce soit ».

Towers affirme que les employeurs qui souhaitent bien utiliser la technologie dans la gestion du lieu de travail devraient viser « une approche collaborative et de partenariat social ». Elle ajoute que le personnel n’est souvent pas au courant de ce que font les employeurs, ce qui peut être résolu en publiant un registre facilement accessible des technologies utilisées et en offrant aux travailleurs l’accès automatique à leurs propres données, plutôt que d’exiger une demande d’accès par sujet.

La transparence sur l’automatisation et l’IA a également du sens d’un point de vue juridique, selon Sally Mewies, associée et responsable de la technologie et du numérique chez Walker Morris, cabinet d’avocats d’affaires basé à Leeds. « Il n’est pas souvent possible pour les humains de comprendre comment les décisions sont prises », dit-elle. « C’est la grande préoccupation lorsque vous l’appliquez à la dotation et aux ressources humaines. »

Cela peut soulever des questions de droit du travail, alors que le règlement général sur la protection des données de l’UE, promulgué par le Royaume-Uni en 2018, interdit aux individus d’être soumis à des décisions entièrement automatisées à moins que certaines conditions ne soient remplies. Le gouvernement britannique a suggéré d’abolir cela en septembreLa consultation ember 2021, qui proposait également d’autoriser l’utilisation des données personnelles pour surveiller et détecter les biais dans les systèmes d’IA. Ces mesures n’ont pas encore été officiellement proposées dans un projet de loi.

« Vous devez vous assurer que lorsque vous utilisiez des algorithmes et de l’intelligence artificielle de cette manière, il n’y aurait pas d’impact négatif sur les individus »

Sally Mewies, Walker Morris

Mewies dit que la partialité dans les systèmes automatisés génère des risques importants pour les employeurs qui les utilisent pour sélectionner des personnes pour des emplois ou des promotions, car cela peut contrevenir à la loi anti-discrimination. Pour les projets impliquant un traitement systémique ou potentiellement préjudiciable des données personnelles, les organisations doivent effectuer une évaluation de l’impact sur la vie privée, dit-elle. « Vous devez vous assurer que lorsque vous utilisiez des algorithmes et de l’intelligence artificielle de cette manière, il n’y aurait pas d’impact négatif sur les individus. »

Mais même lorsqu’elle n’est pas requise, entreprendre une évaluation des facteurs relatifs à la vie privée est une bonne idée, dit Mewies, ajoutant : « S’il y avait des critiques de suivi sur la façon dont une technologie a été déployée, vous auriez des preuves que vous avez pris des mesures pour assurer la transparence et l’équité. »

Il existe d’autres façons pour les employeurs de réduire la probabilité de biais dans les processus automatisés de main-d’œuvre. Antony Heljula, directeur de l’innovation chez Peak Indicators, un cabinet de conseil en science des données basé à Chesterfield, affirme que les modèles de données peuvent exclure des attributs sensibles tels que la race, mais c’est loin d’être infaillible, comme Amazon l’a montré il y a quelques années lorsqu’il a construit un système d’évaluation de CV d’IA formé sur une décennie d’applications, pour constater qu’il discriminait les femmes.

Comme cela le suggère, les décisions humaines et automatisées peuvent être biaisées, il peut donc être logique de construire un deuxième modèle qui utilise délibérément des attributs sensibles pour rechercher des biais dans ces décisions, explique Heljula: « Appelez cela la détection d’anomalies ».

D’autres options comprennent : la mise en place d’un comité d’éthique pour valider les utilisations de l’IA; préférer des modèles d’IA relativement explicables tels que les arbres de décision à d’autres tels que les réseaux de neurones; et baser la planification de la main-d’œuvre sur des données résumées sur des groupes de personnes plutôt que sur des individus. Sur le dernier, cependant, les groupes doivent être suffisamment grands – une prédiction selon laquelle toutes les femmes d’une équipe sont susceptibles de partir devient plutôt personnelle si une seule femme travaille dans cette équipe.

Heljula pense que les préoccupations concernant les préjugés et la surveillance devraient forcer à repenser la façon dont l’IA est utilisée dans les ressources humaines. « Nous devons passer de la surveillance ‘Big Brother’ à des choses que les employés et les sous-traitants accueilleraient favorablement », dit-il, comme l’utilisation de la technologie pour vérifier les biais dans les décisions ou pour évaluer les compétences des employés afin d’élaborer des plans de formation personnalisés.

L’IA peut également être utilisée pour les services basés sur le langage naturel pour répondre aux questions de la main-d’œuvre telles que « quel est le salaire moyen dans mon équipe? », dit-il. « Il ne s’agit pas de surveiller ce que vous faites, mais de vous aider à faire votre travail plus efficacement. »

Infosys tente de lutter contre les biais dans les systèmes d’IA

Infosys, un cabinet de conseil en informatique basé en Inde, a développé une approche en cinq étapes pour lutter contre les biais dans l’IA. Il recherche des attributs sensibles dans les données ; fixe des « mesures d’équité », comme un objectif pour le pourcentage de femmes occupant un rôle particulier; met en œuvre un système basé sur l’IA; rend ses résultats explicables, par exemple en indiquant quelles données ont été utilisées pour rejeter quelqu’un pour un emploi; et intègre la gouvernance humaine des résultats. « Il s’agit essentiellement d’un contrôle de santé mentale », explique David Semach, responsable de l’IA et de l’automatisation chez Infosys en Europe, à propos de l’apport humain. « C’est absolument essentiel. »

Semach dit qu’Infosys est en train de mettre en œuvre une telle fonctionnalité anti-biais avec un grand groupe de biens de consommation qui utilise des algorithmes pour filtrer des dizaines de milliers de CV. La société a fixé 30 à 40 mesures d’équité, ce qui, selon Semach, est à peu près le bon nombre, bien qu’il ajoute que « l’un des plus grands défis est de définir les mesures » parce que l’entreprise ne les avait généralement pas déjà en place.

Le fournisseur de logiciels d’analyse de données basé en Israël, Nice, a publié un « cadre robo-éthique » pour ses utilisateurs d’automatisation des processus robotiques (RPA). Cela signifie que les robots doivent être conçus pour avoir un impact positif, pour ne pas tenir compte des identités des groupes et pour minimiser le risque de préjudice individuel. Leurs sources de données doivent être vérifiées, à partir de sources connues et fiables, et elles doivent être conçues en tenant compte de la gouvernance et du contrôle, par exemple en limitant, en surveillant et en authentifiant l’accès et la modification.

Oded Karev, directeur général de Nice pour la RPA, explique qu’il a planifié le cadre principalement sur la base de discussions avec les clients, ainsi que sur la base d’éthiciens et de partenaires universitaires. Les problèmes de main-d’œuvre ont eu un impact significatif, avec « beaucoup de cas d’anxiété d’automatisation » de la part des employés des clients, ainsi que des demandes spécifiques incfaisant l’éloge d’une grande banque américaine qui voulait s’assurer que les robots logiciels ne puissent pas être exploités par du personnel malhonnête pour commettre des fraudes.

La société construit elle-même des robots, mais vend également en utilisant sa plate-forme de développement et bien que le cadre fasse partie de ses termes et conditions, il ne fait pas respecter la conformité. « C’est comme quand vous vendez un couteau », dit Karev. « Quelqu’un peut l’utiliser pour couper de la salade et quelqu’un peut l’utiliser pour menacer quelqu’un. » Le cadre évoluera en fonction de la communication bidirectionnelle avec les clients, ajoute-t-il.

Cependant, de nombreux employeurs sont déjà désireux de faire preuve d’une utilisation éthique. Karev dit que le risque de fraude peut être réduit en exigeant que les étapes de mise en production d’un robot soient effectuées par différentes personnes, car cela nécessiterait plusieurs personnes pour conspirer plutôt qu’un seul fraudeur. Si les robots sont utilisés pour surveiller les employés, ils ne peuvent être configurés que pour utiliser les données des applications métier.

Pour une entreprise technologique mondiale qui utilise un robot pour le filtrage des CV, « nous avons ajouté le garde-fou qu’aucune règle ne peut être créée et appliquée automatiquement », explique Karev, et que tous les changements sont documentés et réversibles.

Karev dit que l’automatisation éthique aide à obtenir des affaires du secteur public, qui est le plus grand marché vertical de Nice au Royaume-Uni. En novembre, il a annoncé qu’une grande organisation gouvernementale britannique utilisait les technologies de l’IA et de la RPA dans le cadre d’une stratégie de transformation numérique, y compris le traitement d’applications en libre-service pour modifier les modalités de paiement et fournir des conseils en temps réel aux conseillers humains.

« Cela s’accompagne d’une réglementation élevée, d’un environnement hautement syndiqué et d’une forte demande de comportement éthique très strict », ajoute-t-il.

Click to comment

Leave a Reply

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Tendance