Connect with us

Technologie

Une nouvelle loi est nécessaire pour freiner la surveillance des lieux de travail alimentée par l’IA

Published

on


L’intelligence artificielle (IA) et les algorithmes sont utilisés pour surveiller et contrôler les travailleurs avec peu de responsabilité ou de transparence, et la pratique doit être contrôlée par une nouvelle législation, selon une enquête parlementaire sur la surveillance des lieux de travail alimentée par l’IA.

Pour faire face à « l’ampleur et à l’utilisation généralisée de l’IA au travail », des députés et des pairs appartenant au Groupe parlementaire multipartite (APPG) pour l’avenir du travail ont appelé à la création d’une loi sur la responsabilité des algorithmes (AAA).

« L’AAA offre un cadre global et axé sur des principes pour gouverner et réglementer l’IA en réponse aux développements rapides de la technologie en milieu de travail que nous avons explorés tout au long de notre enquête », a déclaré l’APPG dans son rapport. La nouvelle frontière : l’intelligence artificielle à l’œuvre, publié cette semaine.

« Il intègre des mises à jour de nos régimes de réglementation existants, les unit et comble leurs lacunes, tout en permettant d’élaborer des règles sectorielles supplémentaires au fil du temps. L’AAA établirait : une orientation claire pour s’assurer que l’IA place les gens au premier plan, des mécanismes de gouvernance pour réaffirmer le libre arbitre humain et stimuler l’excellence en matière d’innovation afin de répondre aux besoins les plus pressants auxquels sont confrontés les travailleurs à travers le pays.

Le groupe multipartite de députés et de pairs a mené son enquête entre mai et juillet 2021 en réponse à l’inquiétude croissante du public concernant l’IA et la surveillance sur le lieu de travail, qui, selon eux, sont devenues plus prononcées avec le début de la pandémie de Covid-19 et le passage au travail à distance.

« L’IA offre des opportunités inestimables pour créer de nouveaux travaux et améliorer la qualité du travail si elle est conçue et déployée avec cet objectif », indique le rapport. « Cependant, nous constatons que ce potentiel ne se concrétise pas actuellement.

« Au lieu de cela, un nombre croissant de preuves indiquent des impacts négatifs importants sur les conditions et la qualité du travail dans tout le pays. Les technologies omniprésentes de surveillance et d’établissement d’objectifs, en particulier, sont associées à des impacts négatifs prononcés sur le bien-être mental et physique, car les travailleurs subissent la pression extrême d’une microgestion constante en temps réel et d’une évaluation automatisée.

Le rapport ajoute que l’une des principales sources d’anxiété des travailleurs concernant la surveillance alimentée par l’IA est un « sentiment prononcé d’injustice et de manque d’agence » autour des décisions automatisées prises à leur sujet.

« Les travailleurs ne comprennent pas comment les informations personnelles et potentiellement sensibles sont utilisées pour prendre des décisions sur le travail qu’ils font, et il y a une absence marquée de voies disponibles pour contester ou demander réparation », a-t-il déclaré. « De faibles niveaux de confiance dans la capacité des technologies d’IA à prendre ou à soutenir des décisions concernant le travail et les travailleurs en découlent. »

Le rapport ajoute qu’il y a des niveaux de confiance encore plus faibles dans la capacité de tenir les développeurs et les utilisateurs de systèmes algorithmiques responsables de la façon dont ils utilisent la technologie.

David Davis, député conservateur et président de l’APPG, a déclaré: « Notre enquête révèle comment les technologies d’IA se sont répandues au-delà de l’économie des petits boulots pour contrôler quoi, qui et comment le travail est effectué. Il est clair que, s’ils ne sont pas correctement réglementés, les systèmes algorithmiques peuvent avoir des effets néfastes sur la santé et la prospérité.

Le député travailliste Clive Lewis a ajouté: « Notre rapport montre pourquoi et comment le gouvernement doit présenter des propositions solides pour la réglementation de l’IA. Il y a des lacunes marquées dans la réglementation au niveau des individus et des entreprises qui nuisent aux personnes et aux communautés partout au pays.

Dans le cadre de l’AAA, l’APPG a recommandé d’établir une obligation pour les organisations publiques et privées d’entreprendre, de divulguer et d’agir sur les évaluations d’impact algorithmiques préventives (AIA), qui devraient s’appliquer dès les premières étapes de la conception d’un système et être menées tout au long de sa durée de vie.

Il a déclaré que les travailleurs devraient également avoir le droit d’être directement impliqués dans la conception et l’utilisation de systèmes algorithmiques de prise de décision.

En mars 2021, sur la base d’un rapport produit par des avocats spécialisés dans les droits de l’emploi, le Trades Union Congress (TUC) a averti que d’énormes lacunes dans la législation britannique concernant l’utilisation de l’IA au travail conduiraient à la discrimination et à un traitement injuste des travailleurs, et a appelé à des changements législatifs urgents.

La secrétaire générale du TUC, Frances O’Grady, a déclaré : « C’est formidable de voir les députés reconnaître le rôle important que les syndicats peuvent jouer pour s’assurer que les travailleurs bénéficient des progrès technologiques. Il y a des recommandations indispensables dans ce rapport, y compris le droit des travailleurs de se déconnecter et le droit des travailleurs d’accéder à des informations claires sur la façon dont l’IA prend des décisions à leur sujet.

O’Grady a également accueilli favorablement la suggestion de l’APPG selon laquelle le gouvernement devrait s’amuserpour le groupe de travail sur la technologie du TUC, ainsi que pour la formation syndicale à l’IA pour les travailleurs en général.

En réponse à la publication de l’APPG, Andrew Pakes, directeur de recherche chez Prospect Union, qui a également témoigné dans le but de l’enquête, a déclaré que les lois britanniques n’avaient pas suivi le rythme de l’accélération de l’IA au travail.

« Il existe des risques réels de discrimination et d’autres décisions erronées causées par la mauvaise application de l’IA dans des processus tels que le recrutement et la promotion – et nous pourrions nous retrouver dans une situation où les travailleurs sont perdants mais n’ont aucun recours pour contester la décision », a déclaré Pakes.

« Au lieu de chercher à affaiblir nos protections en supprimant l’exigence légale de surveillance humaine des décisions en matière d’IA au travail, le gouvernement devrait écouter ce rapport et rafraîchir nos droits afin qu’ils soient adaptés à l’ère de l’IA. »

En juin 2021, le groupe de travail gouvernemental sur l’innovation, la croissance et la réforme réglementaire (TIGRR) a recommandé de supprimer les garanties contre la prise de décision automatisée contenues dans l’article 22 du règlement général sur la protection des données (RGPD), en particulier la nécessité d’examens humains des décisions algorithmiques.

Click to comment

Leave a Reply

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Tendance