Connect with us

Technologie

Twitter étudie l’algorithme de recadrage d’images pour les préjugés raciaux

Published

on


Twitter enquête sur les préjugés raciaux dans son algorithme de recadrage d’image, après que les utilisateurs ont découvert qu’il priorise les visages des Blancs sur les visages des Noirs.

Les utilisateurs ont d’abord remarqué le problème lorsque colin Madland, directeur de l’université de Vancouver, a publié sur la plateforme de médias sociaux au sujet des problèmes de son collègue noir avec l’algorithme de détection faciale de Zoom, qui continuait de lui enlever la tête chaque fois qu’il utilisait un fond virtuel.

En tweetant des photos de l’interaction Zoom, Madden a trouvé l’application mobile Twitter constamment par défaut à son visage au lieu de son collègue dans l’aperçu. Cela s’est produit même quand il a retourné l’ordre des images.

La découverte a suscité une série d’expériences par d’autres utilisateurs de Twitter, qui s’est terminée avec des résultats similaires.

Par exemple, lorsque le visage du chef de la majorité sénatoriale américaine, Mitch McConnell, a été placé sur une image avec l’ancien président américain noir Barack Obama, c’est le visage de l’ancien qui a été prioritaire pour l’avant-première.

Cependant, selon Twitter, l’algorithme avait déjà été testé pour les préjugés raciaux et de genre avant d’aller en direct et n’a trouvé aucune preuve de l’un ou l’autre. « Mais il est clair que nous avons plus d’analyses à faire »,il a dit. « Nous continuerons à partager ce que nous apprenons, les mesures que nous prenons, et nous l’ouvrirons pour que d’autres puissent les examiner et les reproduire. »

Test public

Parag Agrawal, directeur de la technologie de Twitter, a ajouté : « Nous avons fait des analyses sur notre modèle lorsque nous l’avons expédié, mais il a besoin d’une amélioration continue. J’aime ce test public, ouvert et rigoureux – et désireux d’en tirer des leçons.

Dans un fil depuis supprimé, l’utilisateur de Twitter et développeur allemand Bianca Kastl a postulé que l’algorithme pourrait être la culture des images basées sur « salience », qui est décrit dans un billet de janvier 2018 blog de Twitter comme une région d’une image « qu’une personne est susceptible de regarder lors de la libre visualisation de l’image ».

« Les universitaires ont étudié et mesuré la salience à l’aide de traqueurs oculaires, qui enregistrent les pixels que les gens fixent avec leurs yeux. En général, les gens ont tendance à accorder plus d’attention aux visages, au texte, aux animaux, mais aussi à d’autres objets et régions à fort contraste », a déclaré Twitter dans le post.

« Ces données peuvent être utilisées pour former des réseaux neuronaux et d’autres algorithmes afin de prédire ce que les gens pourraient vouloir examiner. L’idée de base est d’utiliser ces prédictions pour centrer une culture autour de la région la plus intéressante.

Le directeur de la conception de Twitter, Dantley Davis, a déclaré que « le contraste peut être problématique » pour l’algorithme dans certaines situations, et que l’entreprise réévalue son modèle en fonction des commentaires qu’elle a reçus des utilisateurs.

« e suis aussi irrité à ce sujet que tout le monde. Cependant, je suis en mesure de le réparer et je le ferai », a-t-il tweeté, ajoutant séparément: « C’est 100% de notre faute. Personne ne devrait dire le contraire. Maintenant, la prochaine étape est de le fixer.

Selon Gemma Galdon Clavell, directrice du cabinet de conseil en audit algorithmique Eticas basé à Barcelone, le cas de l’algorithme de culture d’image de Twitter identifie un certain nombre de problèmes majeurs que son cabinet considère comme critiques lors de l’audit des algorithmes.

La première est que le simple fait de tester les biais à eux seuls ne suffit pas – les résultats devraient être publiés dans le cadre d’un audit, car « ce n’est qu’alors que les utilisateurs peuvent évaluer si les efforts déployés sont suffisants pour s’assurer que les algorithmes atténuent les biais ».

Elle a ajouté que les algorithmes sont également souvent testés dans des environnements de laboratoire, dont les résultats supposent que les développeurs seront reproduits dans des contextes réels. À ce titre, elle a déclaré à Computer Weekly que « l’audit partialité devrait être un exercice continu ».

« Lors de l’utilisation de l’apprentissage automatique, le « test » au début ne suffit pas non plus. Au fur et à mesure que l’algorithme apprend, les biais de la dynamique de la vie réelle et les lacunes technologiques des modèles algorithmiques finissent par être répliqués par le système », a-t-elle déclaré. « l est particulièrement inquiétant que les représentants de Twitter ont eu du mal à expliquer comment l’algorithme apprend biais, et cela indique un problème fondamental: comment protéger les gens dans les systèmes pas même leurs créateurs comprennent ou peuvent tenir responsable?

« Bien que les efforts déployés par Twitter pour au moins identifier les préjugés soient louables, il est de plus en plus clair que l’automatisation soulève de sérieuses préoccupations qui méritent beaucoup plus d’attention, de ressources et de méthodologies spécifiques qui éclairent la boîte noire des processus algorithmiques. »

Pour Charles Radclyffe, spécialiste de la gouvernance et de l’éthique de l’IA chez Fidelity International, la question pertinente est de savoir pourquoi ces erreurs semblent toujours porter préjudice aux personnes de couleur.

« L’industrie de la technologie est structurellement raciste, et nous devons la changer d’urgence », a-t-il déclaré. « Les ensembles de données sont biaisés, les équipes de développeurs ne sont pas diversifiées et les parties prenantess ont tendance à n’avoir nulle part où soulever leurs questions et se faire entendre. Trouver des solutions de contournement techniques à ces problèmes ne va pas résoudre le problème. L’éthique de l’IA doit être considérée comme une question de gouvernance d’entreprise, mesurée et gérée de la même manière.



Click to comment

Leave a Reply

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Tendance