Connect with us

Technologie

BCS appelle le gouvernement à conserver des protections contre l’IA

Published

on


Le droit d’un citoyen de faire réviser les décisions par des systèmes automatisés ou d’intelligence artificielle (IA) par un autre humain ne doit pas être supprimé alors que l’IA en est à ses balbutiements, a averti le BCS, le Chartered Institute for IT.

Ce droit, inscrit dans la loi britannique via l’article 22 du règlement général sur la protection des données (RGPD), n’est qu’un des nombreux aspects de la protection des données britanniques que le gouvernement cherche actuellement à modifier dans une refonte post-Brexit des lois sur les données qui l’a mis sur une autre trajectoire de collision avec ses anciens partenaires de l’Union européenne. Une consultation continue, Les données : une nouvelle direction, a été lancé à cet effet en septembre par le Département du numérique, de la culture, des médias et des sports (DCMS).

Le BCS a déclaré que la consultation suggérait que l’appel humain contre certaines décisions automatisées prises par l’IA – y compris peut-être le recrutement d’emplois ou l’éligibilité à un prêt – pourrait être inutile.

Mais parce que l’IA n’implique pas toujours l’utilisation de données personnelles pour prendre des décisions concernant les personnes, la véritable protection du droit d’un humain à revoir les décisions prises par l’IA doit prendre en compte une réglementation plus large de l’IA, a-t-il déclaré.

« L’article 22 n’est pas une disposition facile à interpréter et il y a un danger à l’interpréter isolément, comme beaucoup l’ont fait », a déclaré Sam De Silva, président du groupe de spécialistes en droit de BCS et associé du cabinet d’avocats CMS.

« Nous avons encore besoin de clarté sur les droits d’une personne dans le scénario où il y a une prise de décision entièrement automatisée qui pourrait avoir un impact significatif sur cette personne.

« Nous serions également heureux de clarifier si l’article 22, paragraphe 1, doit être interprété comme une interdiction générale de tout traitement automatisé de données qui répond aux critères, ou un droit plus limité de contester une décision résultant d’un tel traitement.

« En tant qu’organisme professionnel de l’informatique, BCS n’est pas convaincu que le maintien de l’article 22 dans sa forme actuelle ou sa suppression permette d’obtenir une telle clarté. »

De Silva a déclaré qu’il était également important de considérer que la protection de l’examen humain d’une décision automatisée se trouve actuellement dans un texte de loi qui traite des données personnelles. Si aucune donnée personnelle n’est impliquée, a-t-il suggéré, cette protection ne s’applique pas, mais une décision automatisée pourrait avoir un impact sur la vie.

« Par exemple, disons qu’un algorithme est créé pour décider si vous devriez obtenir un vaccin », a-t-il déclaré. « Les données dont vous avez besoin pour entrer dans le système sont probablement la date de naissance, l’origine ethnique et d’autres choses, mais pas un nom ou quoi que ce soit qui pourrait vous identifier en tant que personne.

« Sur la base des commentaires, la décision pourrait être que vous n’êtes pas éligible à un vaccin. Mais les protections du RGPD ne s’appliqueraient pas car il n’y a pas de données personnelles.

« Donc, si nous pensons que la protection est suffisamment importante, elle ne devrait pas entrer dans le RGPD. Cela soulève la question suivante: devons-nous réglementer l’IA de manière générale et non par la « porte dérobée » via le RGPD?

De Silva a ajouté: « Il est bienvenu que le gouvernement consulte soigneusement avant d’apporter des modifications au droit des gens de faire appel des décisions à leur sujet par des algorithmes et des systèmes automatisés – mais la technologie en est encore à ses balbutiements. »

Le BCS recueille actuellement d’autres points de vue sur cette question, et d’autres soulevés lors de la consultation, de l’ensemble de sa base de membres, avant une réponse plus large.

Toutefois, ce n’est pas la première voix à avoir soulevé des préoccupations quant au maintien, ou non, de l’article 22. Dans sa réponse récemment publiée à la consultation, le Commisseur à l’information a déclaré qu’il se félicitait de l’accent mis sur l’apport de plus de clarté à un domaine complexe en termes éthiques, et a suggéré que les futurs règlements pourraient utilement inclure plus de directives sur le sujet.

« Cependant, résoudre la complexité en supprimant simplement le droit à l’examen humain n’est pas, à notre avis, dans l’intérêt des gens et est susceptible de réduire la confiance dans l’utilisation de l’IA », a déclaré l’ICO.

« Au lieu de cela, nous pensons que le gouvernement devrait envisager l’extension de l’article 22 pour couvrir partiellement, ainsi que la prise de décision entièrement automatisée. Cela protégerait mieux les gens, compte tenu de l’augmentation de la prise de décision lorsqu’un humain est impliqué, mais la décision est encore considérablement façonnée par l’IA ou d’autres systèmes automatisés.

« Nous encourageons également l’examen de la façon dont l’approche actuelle en matière de transparence pourrait être renforcée pour s’assurer que l’examen humain est significatif. »

Click to comment

Leave a Reply

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Tendance