Connect with us

Technologie

Les régulateurs britanniques n’ont pas les compétences et l’expertise nécessaires pour faire face à l’utilisation croissante des algorithmes

Published

on


Bon nombre des organismes de réglementation qui supervisent les systèmes algorithmiques et l’utilisation des données dans l’économie britannique devront renforcer leurs compétences numériques, leurs capacités et leur expertise à mesure que l’influence de l’intelligence artificielle et des données augmente, a-t-on appris auprès des députés.

Des témoins experts ont déclaré aux députés siégeant au sous-comité du numérique, de la culture, des médias et du sport (DCMS) sur les méfaits en ligne et la désinformation cette semaine que les cadres existants pour réglementer l’utilisation des données et les algorithmes étaient insuffisants, et ont suggéré que la voie à suivre était de passer à un cadre réglementaire plus fluide dans lequel plusieurs organismes de réglementation sont habilités à prendre des mesures.

Carly Kind, directrice de l’Institut Ada Lovelace, a déclaré que l’autorégulation de l’économie des données par les entreprises qui y opèrent avait échoué, ce qu’elle attribuait en grande partie à la taille et à l’ampleur des plates-formes dominantes, ainsi qu’aux incitations de l’économie des données elle-même.

« Je pense que leur expansivité signifie qu’ils ne sont pas nécessairement incités à respecter le genre de normes que nous pourrions attendre du point de vue de la confiance du public », a-t-elle dit.

« Je pense que cela concerne la question sous-jacente autour de l’économie des données qui encourage l’utilisation des données personnelles à des fins publicitaires, et cela n’incite pas nécessairement à freiner. »

Kind a ajouté que, bien qu’elle pense que de nombreux acteurs de l’économie numérique, y compris les plates-formes telles que Google et Facebook qui ont pris des mesures pour relever les défis de la désinformation et de la désinformation, par exemple, sont bien intentionnés, « l’ampleur du problème est si grande que je pense qu’avoir un mécanisme de responsabilité externe est absolument impératif afin de commencer à créer un espace en ligne qui est plus accueillant pour un large éventail de communautés ».

Jeni Tennison, vice-présidente de l’Open Data Institute, a déclaré que bien que le Bureau du Commissaire à l’information puisse être le régulateur général de l’information, différents régulateurs – y compris l’Autorité de la concurrence et des marchés, Ofqual et Ofgem – auront besoin de l’expertise interne et de la capacité nécessaires pour commencer à interroger comment l’utilisation abusive des données pourrait affecter un secteur, un écosystème ou une communauté particulier.

Kind a dit qu’en plus de développer les compétences techniques pour comprendre divers aspects de l’économie et de la technologie des données en général, ces régulateurs doivent être habilités à exiger l’accès à une gamme de systèmes, d’algorithmes et d’informations, tant dans les secteurs public que privé, pour les examiner efficacement en premier lieu.

« Les compétences techniques seules ne sont pas seulement ce dont les régulateurs ont besoin pour pouvoir inspecter les algorithmes, mais elles auront également besoin d’un cadre juridique – de sorte qu’ils auront besoin des pouvoirs nécessaires pour y entrer et évaluer les algorithmes par rapport à un certain ensemble de normes », a-t-elle déclaré, ajoutant que « les grandes notions d’éthique sont insuffisantes » et que « des seuils et des normes spécifiques » sont nécessaires.

« Je pense qu’ils auront besoin d’une sorte d’infrastructure pour faire correspondre ces capacités techniques avec les pouvoirs, et faire une sorte d’audit que nous aurions pu voir auparavant dans le secteur financier, qu’un véritable examen des systèmes qui ne concerne pas seulement un audit technique, mais aussi l’entrevue d’informations exigeantes », a déclaré M. Kind.

Toutefois, elle a admis qu’en termes de renforcement des compétences techniques et des capacités des organismes de réglementation, les plates-formes technologiques dominantes ont le monopole de l’acquisition de nouveaux talents. « Les régulateurs ne peuvent tout simplement pas offrir les incitations et le salaire pour adhérer à ce qu’un Google ou Facebook peut », a-t-elle dit – et cela devra être abordé.

« L’OIC est effectivement devenu le régulateur de tout parce que les données sont tout, et ils n’ont tout simplement pas le pouvoir des gens pour faire appliquer toutes ces micro-violations, qui sont très importantes dans la vie d’une personne, mais dans le grand schéma des choses, il ya des dizaines de milliers d’entre eux qui se produisent chaque jour, dit-elle.

Des dizaines de cadres, de principes et de lignes directrices de haut niveau en matière d’éthique des données ont été publiés au cours des dernières années, mais ils n’ont pas encore été traduits en pratique et rendus tangibles, a-t-elle dit.

« Je pense que nous nous dirigeons vers un cadre réglementaire agile qui tente d’apporter des considérations éthiques et met en place des processus, plutôt que des règles strictes », a déclaré M. Kind.

« Des choses comme les évaluations d’impact, les évaluations des risques, les vérifications, les inspections, la capacité des gens d’obtenir réparation – ces types d’outils et de processus peuvent nous aider à faire évoluer un cadre réglementaire, sans simplement être un ensemble de règles difficiles et rapides qui seront dépassées lorsque les plates-formes feront leur prochaine mise à jour logicielle. »

Pour Jiahong Chen, chercheur en droit informatique chez Horizon Digital Economy Research de l’Université de Nottingham, un élément clé de cettel’approche axée sur l’enquête est d’avoir un débat et des consultations avant que tout système qui prend des décisions importantes sur la vie d’une personne soit mis en place.

« Nous avons une loi anti-discrimination, sur la base de laquelle il sera illégal de traiter les gens différemment en raison de ces facteurs, mais ce que nous voyons maintenant, c’est que beaucoup de systèmes complexes sont mis en place et que nous n’avons aucune idée des facteurs qui ont été pris en compte, et comment ces facteurs ont été pris en compte », a déclaré Chen.

« Des décisions aussi importantes que, par exemple, d’aller à l’université ou même des décisions financières dans le secteur privé, devraient faire l’objet d’évaluations d’impact antérieures et de consultations avec le grand public, afin qu’ils puissent vraiment réfléchir à « est-il juste de prendre des décisions en fonction du code postal dans lequel je suis ou du nombre de mesures que je prends par jour? »

Interrogé par les députés sur la Stratégie nationale des données du gouvernement, publiée en septembre 2020, et s’il trouve le juste équilibre entre le désir de créer de la croissance et la nécessité de créer un régime de données fiables, Tennison a déclaré qu’il s’agissait d’une fausse dichotomie.

« L’une des choses au sujet de la Stratégie nationale des données, c’est qu’elle semble essayer de mettre en place une dichotomie entre l’innovation et la responsabilité, alors qu’en fait nous pouvons faire les deux et nous devrions faire les deux », a-t-elle dit. « Avoir un traitement responsable des données et des algorithmes responsables n’est pas seulement la bonne chose à faire, mais il est absolument nécessaire pour gagner la confiance, afin d’obtenir l’adoption de ces technologies. »

Le sous-comité du DCMS a été créé en mars 2020 pour examiner un large éventail de questions liées à la désinformation et aux préjudices en ligne, y compris la législation à venir pour réglementer cette dernière.

Click to comment

Leave a Reply

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Tendance