Connect with us

Technologie

Les développeurs ont le devoir moral de créer une IA éthique

Published

on


Les développeurs d’intelligence artificielle (IA), d’apprentissage automatique (ML) et de technologies liées à la biométrie ont « un devoir moral et éthique » de s’assurer que les technologies ne sont utilisées que comme une force pour le bien, selon un rapport rédigé par l’ancien commissaire britannique aux caméras de surveillance.

Les développeurs doivent être conscients à la fois des avantages sociaux et des risques des technologies basées sur l’IA qu’ils produisent, et avoir la responsabilité de s’assurer qu’elles ne sont utilisées que pour le bénéfice de la société, a déclaré le livre blanc, qui a été publié par le fournisseur de reconnaissance faciale Corsight AI en réponse au projet de loi sur l’intelligence artificielle (AIA) de la Commission européenne (CE).

« Les valeurs et les principes organisationnels doivent s’engager de manière irréversible à ne produire que la technologie en tant que force pour le bien », a-t-il déclaré. « La philosophie doit certainement être que nous placions la préservation des normes internationalement reconnues en matière de droits de l’homme, notre respect de l’État de droit, la sécurité des institutions démocratiques et la sécurité des citoyens au cœur de ce que nous faisons. »

Il a ajouté qu’une stratégie de développement « humain dans la boucle » est essentielle pour apaiser les inquiétudes du public concernant l’utilisation de l’IA et des technologies connexes, en particulier la technologie de reconnaissance faciale.

« L’ingrédient le plus important de… [developing facial-recognition systems] est l’humain au centre du processus », a-t-il déclaré. « La formation, la sensibilisation aux préjugés, les politiques lors du déploiement, le respect de la loi, des règles, des règlements et de l’éthique sont des ingrédients clés.

« Les développeurs doivent travailler avec l’humain pour créer un produit qui est intuitif pour l’homme et non l’inverse. L’examen de la fourniture d’un soutien juridique et réglementaire dans l’utilisation de logiciels aussi sophistiqués doit être une considération primordiale pour les développeurs.

Pour rendre la technologie plus centrée sur l’humain, le rapport encourage en outre les développeurs à travailler en étroite collaboration avec sa clientèle pour comprendre les exigences des utilisateurs et la légitimité du projet, ainsi que pour soutenir « le respect des obligations légales et pour construire des garanties appropriées lorsque des vulnérabilités peuvent survenir ».

S’adressant à Computer Weekly, l’auteur du journal Tony Porter – le responsable de la protection de la vie privée de Corsight et ancien commissaire aux caméras de surveillance du Royaume-Uni – a déclaré que lorsqu’il y a eu des cas de technologies liées à l’IA telles que la reconnaissance faciale utilisées illégalement, c’est à cause de la façon dont elles sont déployées dans un contexte particulier plutôt que de la technologie en elle-même.

Il a ajouté qu’une partie de son rôle chez Corsight consiste à expliquer « la puissance de la technologie, mais aussi l’utilisation correcte et judicieuse de celle-ci » aux clients, ce qui pour Porter implique de placer les humains au cœur du développement et de l’exploitation de la technologie.

Avec l’utilisation de la technologie par la police en particulier, Porter a réitéré qu’il est important pour les fournisseurs de « soutenir les utilisateurs finaux de l’obligation positive et durable de suivre » l’obligation d’égalité du secteur public, principalement grâce à une plus grande transparence.

« Mon point de vue est qu’ils [the developers] devraient être ouverts à ce sujet, ils devraient publier les chiffres et les statistiques, ils devraient expliquer où ils pensent qu’il y a un problème et un problème, parce que si nous parlons de confiance, alors comment obtenez-vous la confiance? Si nous remettons la boîte noire et ne laissons personne savoir ce qu’elle contient, vous ne pouvez tout simplement pas », a-t-il déclaré.

Une approche « humaine dans la boucle »

Porter a déclaré que les régulateurs et les législateurs doivent se concentrer davantage sur la garantie qu’il y a un humain dans la boucle tout au long du développement et de l’exploitation de diverses technologies basées sur l’IA.

Il a ajouté que si les algorithmes sont évidemment au cœur du fonctionnement des systèmes de reconnaissance faciale, « la plus grande partie est l’humain, la formation, leur compréhension du logiciel. C’est très, très complexe, donc il faut faire un travail très important à ce sujet.

« J’ai exhorté et encouragé Corsight à prendre de l’avance sur cette courbe, à être dans une position où les clients qui viennent chez nous ont la main tenue par rapport à ce qu’ils doivent faire, quels sont les aspects juridiques, quels sont les pièges et comment maximiser l’utilisation. »

Cependant, un rapport de juillet 2019 du Human Rights, Big Data &Technology Project basé au Centre des droits de l’homme de l’Université d’Essex – qui a marqué le premier examen indépendant des essais de la technologie de reconnaissance faciale en direct (LFR) par la Metropolitan Police – a mis en évidence une « présomption d’intervention » perceptible parmi les policiers utilisant la technologie, ce qui signifie qu’ils avaient tendance à faire confiance aux résultats du système et à engager des personnes qui, selon lui, correspondaient à la liste de surveillance utilisée , même lorsqu’ils ne l’ont pas fait.

Lorsqu’on lui a demandé comment les organisations déployant LFR peuvent éviter cette situation – où les humains en boucle sont incités par la technologie à prendre une mauvaise décision – Porter a déclaré que les développeurs peuvent configurer des processus à highlight où des risques peuvent survenir pour les opérateurs humains.

« L’opérateur humain – dont nous supposons qu’il ne sait pas comment un logiciel est développé ou comment un algorithme est développé – est informé des risques, des écarts, de ce qu’il doit savoir », a-t-il déclaré.

« Si vous travaillez sur la base qu’aucun logiciel n’est 100% sans parti pris, et si je comprends bien, il ne peut jamais l’être, ce que nous pouvons faire est de combler cet écart, de prendre la main de l’humain et de dire: « Regardez, s’il y a un risque, aussi petit soit-il, vous devez le comprendre ».

« Qu’est-ce que cela donnerait à un opérateur humain? Eh bien, cela donne à l’exploitant et à la direction l’occasion de remettre en question les présomptions, de cibler la formation, de permettre à tous les intervenants d’être conscients de la variance, de savoir qu’ils opèrent peut-être dans un monde moins sûr.

Le livre blanc a également noté que, même si la conception d’une technologie est impeccable, elle peut bien sûr être utilisée abusivement lorsqu’elle est « exploitée par un utilisateur final dysfonctionnel ou oppressif », et encourage les développeurs à travailler en collaboration avec les clients pour comprendre leur cas d’utilisation, ses exigences et, en fin de compte, sa légitimité.

« L’inclusion et la diversité doivent être au cœur des efforts des développeurs pour s’assurer que toute possibilité pour la technologie de discriminer les gens ou de nuire à leurs droits humains est éliminée », a-t-il déclaré. « Dans le même but, les entreprises doivent élaborer des politiques qui stipulent clairement qu’elles ne commerceront pas avec des clients qui ne soutiennent pas et ne respectent pas les normes internationalement reconnues en matière de droits de l’homme. »

Le cadre juridique disparate du Royaume-Uni pour la biométrie

En juillet 2019, le Comité des sciences et de la technologie de la Chambre des communes a publié un rapport qui a identifié l’absence de législation entourant le LFR et a demandé un moratoire sur son utilisation jusqu’à ce qu’un cadre soit en place.

Dans sa réponse officielle au rapport, qui a été publié après un retard de près de deux ans en mars 2021, le gouvernement britannique a affirmé qu’il existait « déjà un cadre juridique complet pour la gestion de la biométrie, y compris la reconnaissance faciale ».

Décrivant le cadre, le gouvernement a déclaré qu’il comprenait des pouvoirs de common law de la police pour prévenir et détecter les crimes, la loi de 2018 sur la protection des données (DPA), la loi de 1998 sur les droits de l’homme, la loi de 2010 sur l’égalité, la loi de 1984 sur la police et les preuves criminelles (PACE), la loi de 2012 sur la protection des libertés (POFA) et les propres politiques publiées par les forces de police.

Début juillet 2021, l’ancien commissaire britannique à la biométrie, Paul Wiles, a déclaré au Comité de la science et de la technologie que, bien qu’il existe actuellement un « cadre juridique général » régissant l’utilisation des technologies biométriques, le Parlement doit créer une législation qui traite explicitement de l’utilisation de ces technologies au Royaume-Uni.

Porter a également déclaré à Computer Weekly qu’il était d’accord avec Wiles pour dire que le cadre actuel est trop compliqué et devrait être simplifié.

« Il serait assez simple d’encapsuler cela dans un cadre harmonieux, juridique et législatif qui donne de la clarté aux régulateurs, aux opérateurs, à la police et au simple citoyen », a-t-il ajouté.

Cependant, contrairement au comité européen de la protection des données (CEPD) et au contrôleur européen de la protection des données (CEPD) – qui ont appelé à une interdiction complète de la biométrie dans les espaces publics au motif qu’ils présentent une ingérence inacceptable dans les droits et libertés fondamentaux des personnes – Porter pèche par excès d’avoir un régulateur dédié qui régit l’utilisation de la technologie contre un cadre juridique dédié à la place.

En réponse à la proposition de l’AIA de la CE, des groupes de la société civile et des experts des droits numériques ont précédemment déclaré à Computer Weekly que, bien que la proposition ait été un pas dans la bonne direction, elle ne parvient finalement pas à résoudre les déséquilibres de pouvoir fondamentaux entre ceux qui développent et déploient la technologie et ceux qui y sont soumis.

Pour Porter, reconnaissant que tout le monde n’est pas à bord avec de nombreux cas d’utilisation de l’IA, en particulier la reconnaissance faciale, il s’agit en fin de compte de renforcer la confiance dans la technologie: « Vous pouvez penser que c’est une excellente idée d’arrêter un pédophile lorsque vous le pouvez dans certaines circonstances, mais pas au risque de nuire à des centaines et des centaines de personnes qui ne sont pas ou ne sont pas aimées par le système.

« [Biometrics] doit être supervisé par un organisme qui exige la confiance du public, qui a une réputation irréfutable, irréfragable d’honnêteté, d’intégrité, de capacité… [because marginalised communities] saura si l’État n’a pas un mécanisme approprié autour de lui.

Click to comment

Leave a Reply

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Tendance