Connect with us

Technologie

Top 10 des histoires de technologie et d’éthique de 2021

Published

on


En 2021, la couverture de la technologie et de l’éthique a été façonnée par les pressions visant à réglementer l’intelligence artificielle (IA), en particulier lorsqu’elle est déployée par les organismes d’application de la loi et l’utilisation de technologies d’identification biométrique telles que la reconnaissance faciale.

Dans l’Union européenne (UE), par exemple, les législateurs ont publié un projet de version de la loi sur l’intelligence artificielle, mais les critiques ont averti que, bien qu’il s’agisse d’un pas dans la bonne direction, cela ne ferait pas grand-chose pour mettre fin aux violations des droits de l’homme fondées sur l’IA.

L’utilisation des données par la police – y compris la façon dont les informations sont partagées entre la police et d’autres autorités publiques, à la fois maintenant et historiquement – a également été au centre de la couverture de Computer Weekly en 2021, qui se poursuivra probablement en 2022 avec le prochain projet de loi sur la police, la criminalité, la détermination de la peine et les tribunaux (PCSC) et d’autres sessions de l’enquête policière sous couverture (UCPI).

Le rôle des syndicats dans la contestation des entreprises technologiques a également été une grande priorité tout au long de 2021, à commencer par un jugement de la Cour suprême en février qui a statué que l’application populaire de VTC Uber devait classer ses chauffeurs comme des travailleurs plutôt que des travailleurs indépendants.

Voici les 10 meilleures histoires de technologie et d’éthique de Computer Weekly en 2021:

1. Rejet d’une poursuite pour décès minier contre de grandes entreprises technologiques

En novembre 2021, un juge d’un tribunal de district américain a rejeté l’affaire judiciaire contre cinq grandes entreprises technologiques américaines accusées par les familles d’enfants mineurs de cobalt morts ou mutilés de bénéficier sciemment de violations des droits de l’homme en République démocratique du Congo (RDC), dont Computer Weekly a fait état pour la première fois fin 2019.

Le procès contre Alphabet, Apple, Dell, Microsoft et Tesla a marqué la première contestation judiciaire de ce type contre les entreprises technologiques, dont beaucoup dépendent de leurs chaînes d’approvisionnement en cobalt pour alimenter des produits tels que les voitures électriques, les smartphones et les ordinateurs portables.

Selon le jugement – dont les victimes prévoient de faire appel – il n’y avait pas de lien de causalité suffisamment fort entre la conduite des entreprises et les blessures des mineurs, mais les avocats représentant les familles ont déclaré que « les entreprises ont déclaré au tribunal qu’elles sont de simples acheteurs de cobalt et n’ont rien à voir avec les mines de RDC, alors qu’elles disent aux consommateurs qu’elles ont le contrôle sur leurs chaînes d’approvisionnement et ont adopté des « politiques » qui interdisent le travail des enfants dans les mines de cobalt. ils s’approvisionnent.

« Que les entreprises aient menti au tribunal ou à leurs consommateurs est une question de fait sur laquelle un jury doit décider, et non au tribunal sur une requête procédurale. Nous pensons que la cour d’appel sera d’accord avec nous sur ce point. »

2. Interview: Le chauffeur Uber Yaseen Aslam sur sa bataille à la Cour suprême et ce qui attend les travailleurs à la demande

En février, une décision unanime de la Cour suprême du Royaume-Uni a conclu qu’Uber devait classer ses chauffeurs comme des travailleurs, leur donnant droit à de meilleures conditions de travail et à de meilleures protections pour la première fois.

Avant la décision, Uber classait ses chauffeurs comme des travailleurs indépendants et indépendants au motif que son application ne faisait que mettre en relation des chauffeurs avec des clients potentiels – une position que l’entreprise a maintenue tout au long de quatre années de procédures judiciaires et d’appels qui ont mené l’affaire jusqu’à la Cour suprême.

À la suite de la décision, Yaseen Aslam, président de l’App Drivers and Couriers Union (ADCU) et l’un des deux demandeurs initiaux dans l’affaire Uber, a parlé à Computer Weekly de la façon dont l’affaire a commencé et de ses implications.

À la suite de la décision, les estimations publiées par le syndicat GMB suggèrent que « des dizaines de milliers » de chauffeurs Uber pourraient être en ligne pour recevoir 12 000 £ chacun en compensation. Le cabinet d’avocats Keller Lenkner, qui représente environ 10 000 chauffeurs dans une action collective contre Uber, a calculé de la même manière que chaque chauffeur pourrait réclamer entre 10 000 et 12 000 £.

3. Les victimes de « flics espions » partagent des préoccupations persistantes en matière de protection des données

Créée en 2015 pour enquêter sur les pratiques des unités de police infiltrées – y compris l’escouade spéciale de démonstration, créée en 1968 pour infiltrer les groupes de protestation britanniques dans le cadre de la branche spéciale de la police du Met – l’enquête sur la police sous couverture a commencé sa deuxième phase le 21 avril 2021.

Il a appris que les agents avaient recueilli et diffusé un « volume important de renseignements personnels » sur les militants de gauche, y compris les femmes qu’ils avaient trompées dans des relations sexuelles intimes, dans le cadre d’une surveillance « clairement disproportionnée et inappropriée ».

Les témoins se sont également dits préoccupés par la conservation de leurs renseignements personnels à leur insu et par la mesure dans laquelle cela a affecté et continue d’affecter leur vie. Ils se sont également demandé si des informations les concernant étaient toujours collectées.

4. Sérieux c.L’obligation d’iolence dans le projet de loi PCSC viderait de sa substance les droits sur les données au Royaume-Uni

Les organisations de défense des droits de l’homme tirent la sonnette d’alarme sur l’inclusion de mesures de réduction de la violence dans le prochain projet de loi du gouvernement britannique sur la police, la criminalité, la détermination de la peine et les tribunaux (PCSC).

Les mesures donneront à la police de nouveaux pouvoirs pour recueillir et partager des données sur les personnes qui seraient impliquées dans des « violences graves », mais les défenseurs des droits de l’homme et les groupes de la société civile affirment que cela a le potentiel de saper les droits existants en matière de données et d’enraciner davantage les pratiques policières discriminatoires.

On craint également, en particulier parmi les membres de la profession médicale, que les obligations imposées à une série d’organismes publics, y compris les prestataires de soins de santé, de partager des données avec la police ne ruinent la confiance des gens dans ces organisations et les empêchent d’accéder aux services publics essentiels de peur que les informations ne soient utilisées injustement contre eux.

Présenté pour la première fois au Parlement le 9 mars 2021, le projet de loi PCSC de 308 pages avait déjà suscité d’importantes critiques et suscité d’énormes manifestations dans les villes du Royaume-Uni en raison d’un certain nombre de mesures controversées qui, par exemple, criminaliseraient le mode de vie des communautés tsiganes, roms et des gens du voyage et restreindraient radicalement la capacité des gens à manifester.

5. Le règlement européen sur l’IA ne protège pas les droits

Dans sa proposition de loi sur l’intelligence artificielle (AIA), publiée le 21 avril 2021, la Commission européenne (CE) a adopté une approche résolument basée sur les risques pour réglementer la technologie, en mettant l’accent sur l’établissement de règles concernant l’utilisation de pratiques d’IA « à haut risque » et « interdites ».

S’adressant à Computer Weekly, cependant, les experts et les organisations de droits civils numériques affirment que la proposition réglementaire de la CE est empilée en faveur des organisations – publiques et privées – qui développent et déploient des technologies d’IA, qui sont essentiellement chargées de cocher des cases, tandis que les gens ordinaires se voient offrir peu de protection ou de recours.

Ceci en dépit du fait qu’ils sont soumis à des systèmes d’IA dans un certain nombre de contextes dont ils ne sont pas nécessairement en mesure de se retirer, comme lorsqu’ils sont utilisés par la loi ou les organismes d’application de la loi en matière d’immigration.

6. TfL sous le feu des critiques pour s’être appuyé sur les données de vérification faciale d’Uber dans les décisions de licence

La dépendance de Transport for London (TfL) aux informations du système d’identification des conducteurs basé sur la vérification faciale d’Uber a fait l’objet d’un examen approfondi en juillet, à la suite de multiples cas d’identification erronée ayant conduit les conducteurs syndiqués à perdre leurs licences de location privées.

En conséquence, le régulateur des transports fait face à de nombreux appels juridiques de la part des chauffeurs Uber au motif qu’il n’a pas mené ses propres enquêtes sur les incidents et s’est plutôt appuyé uniquement sur les preuves du logiciel de vérification faciale d’Uber.

Les conducteurs ont également fait valoir que malgré d’autres sanctions disponibles, TfL a opté immédiatement pour la révocation du permis, ce qui peut avoir de graves répercussions sur les moyens de subsistance des conducteurs s’ils ne sont pas en mesure de conduire légalement leur véhicule.

7. Les principales sociétés de capital-risque ne protègent pas les droits de l’homme

Les sociétés de capital-risque et les accélérateurs technologiques de haut niveau ne font pas preuve de diligence raisonnable en matière de droits de l’homme sur leurs investissements, ce qui signifie qu’ils ne peuvent pas être sûrs que les entreprises dans lesquelles ils investissent ne causent pas ou ne contribuent pas à des violations des droits de l’homme.

Dans le cadre de son tout premier examen des responsabilités des investisseurs en capital-risque en matière de droits humains, Amnesty International a interrogé toutes les entreprises figurant sur la liste des 50 plus grandes sociétés de capital-risque du Venture Capital Journal, ainsi que les accélérateurs technologiques de premier plan Y Combinator, 500 Startups et TechStars.

Elle a constaté qu’une seule société de capital-risque avait mis en place des processus de diligence raisonnable qui pourraient potentiellement satisfaire aux normes établies par les Nations Unies.

Le rapport d’Amnesty a noté que les sociétés de capital-risque consacrent généralement des ressources substantielles à la diligence raisonnable sur d’autres aspects de leurs investissements potentiels, la transaction moyenne prenant 83 jours à être conclue et l’entreprise moyenne passant 118 heures à examiner et à évaluer la proposition.

8. Interdire à la police britannique l’utilisation de la reconnaissance faciale, a déclaré la Chambre des Lords

Dans les témoignages présentés à la commission des affaires intérieures et de la justice des Lords sur l’utilisation d’outils algorithmiques avancés par les forces de l’ordre, les experts ont remis en question la proportionnalité et l’efficacité de la manière dont la technologie de reconnaissance faciale a été déployée par la police britannique, ainsi que sa base juridique.

Karen Yeung – professeure interdisciplinaire en droit, éthique et informatique à la faculté de droit de Birmingham – a noté, par exemple, que dans 11 déploiements d’essais effectués par la police du Met, seulement 9 à 10 arrestations ont été effectuées sur la base d’environ 500 000 scans faciaux.

Tout cela signifie le suivi de localisation en temps réelg de beaucoup, plusieurs centaines de milliers de Britanniques vaquant à leurs occupations légales, ne dérangeant personne, a-t-elle déclaré.

9. La surveillance illégale de l’État en Afrique « menée en toute impunité »

Les gouvernements africains effectuent une surveillance numérique illégale de leurs citoyens en toute impunité, bien que le droit à la vie privée soit bien protégé sur le papier, selon une analyse comparative des lois et pratiques de surveillance dans six pays africains publiée en octobre.

L’analyse, menée par l’Institut d’études sur le développement (IDS) et l’African Digital Rights Network, a rassemblé six rapports de recherche distincts examinant comment les gouvernements de l’Égypte, du Kenya, du Nigéria, du Sénégal, de l’Afrique du Sud et du Soudan utilisent et investissent dans les nouvelles technologies numériques pour effectuer une surveillance illégale des citoyens.

S’adressant à Computer Weekly, le rédacteur en chef du rapport et chercheur numérique à l’IDS, Tony Roberts, a déclaré qu’il existe des liens clairs entre la surveillance effectuée sous le colonialisme formel et la surveillance actuellement effectuée. « Sous le régime colonial, la branche spéciale britannique a espionné ses opposants politiques », a-t-il déclaré. « Lorsque ces opposants à la domination coloniale sont arrivés au pouvoir après l’indépendance, certains d’entre eux ont conservé des branches spéciales et développé leurs propres systèmes de surveillance.

« Au fil du temps, de nouvelles technologies de surveillance ont été intégrées. Ils sont fournis par le Royaume-Uni, la France et d’autres pays du Nord. Le Royaume-Uni a continué d’utiliser l’interception de signaux [techniques] d’effectuer une surveillance des anciennes colonies après l’indépendance. Les continuités sont claires.

10. Microsoft EU Data Boundary surnommée « de la fumée et des miroirs »

En mai, Microsoft s’est engagé à stocker et à traiter toutes ses données clients de l’Union européenne (UE) au sein du bloc en créant une « frontière des données de l’UE », mais les experts en protection des données ont critiqué cette décision comme un aveu tacite que les données sont régulièrement traitées ailleurs.

Alexander Hanff, fondateur de Think Privacy et conseiller principal en matière de protection de la vie privée chez Amari.ai, par exemple, a décrit la décision de Microsoft comme de la « fumée et des miroirs », affirmant qu’il n’y avait aucun moyen réalisable de protéger les données des citoyens européens contre le transfert à l’étranger vers les États-Unis, où les normes de protection des données sont inférieures.

Hanff a ajouté qu’il était de notoriété publique que Microsoft faisait l’objet d’un « grand nombre de demandes de la part d’agences de surveillance gouvernementales » aux États-Unis – comme en témoignent ses rapports semestriels sur la transparence – en vertu de la Foreign Intelligence Surveillance Act et de la Cloud Act, et qu’il serait naïf dans ce contexte de penser qu’ils ne faisaient pas de demandes d’accès aux données des Européens.

Plus précisément, l’article 702 de la FISA permet au procureur général américain et au directeur des services de renseignement d’autoriser conjointement la surveillance ciblée de personnes en dehors des États-Unis, tant qu’elles ne sont pas citoyennes américaines, tandis que le Cloud Act donne effectivement au gouvernement américain l’accès à toutes les données, stockées n’importe où, par des sociétés américaines dans le cloud.

Une enquête de Computer Weekly a révélé en décembre 2020 que les forces de police britanniques traitaient illégalement les données personnelles de plus d’un million de personnes sur le service de cloud public hyperscale Microsoft 365, après avoir omis de se conformer aux principales exigences contractuelles et de traitement de la loi sur la protection des données de 2018, telles que les restrictions strictes imposées aux transferts internationaux.

Click to comment

Leave a Reply

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Tendance