Un algorithme de Twitter accusé de racisme : Il privilégie les visages des Blancs à ceux des Noirs

Rédigé par : Polly Miette, le
Publié dans : Actualites, Monde
Mots clés : ,

La polémique enfle depuis ce week-end sur les réseaux sociaux à propos d’un algorithme de Twitter accusé de racisme.

Selon des internautes, l’algorithme privilégie les visages des personnes blanches par rapport à ceux des Noirs, lors du recadrage automatique de l’image.

Pour beaucoup il s’agit de racisme, car l’algorithme recadre systématiquement l’image sur le visage de la personne blanche. Pour étayer leurs dires, des internautes ont fournit des exemples comme ce test réalisé avec les visages de Mitch McConnell, sénateur blanc de 78 ans, et l’ancien président Barack Obama.

Quelle que soit la disposition de l’image comportant les deux visages, l’algorithme a privilégié la photo de Mitch McConnell.
Twitter se défend mais admet s’intéresser de près à ce sujet.

Dans un billet sur le blog de Twitter, des responsables du réseau social expliquent avoir choisi de miser sur l’apprentissage automatique (machine learning) pour permettre à l’algorithme de choisir la partie la plus « importante » d’une photo. D’où la question : qu’est-ce qui est vraiment « important ?

« Nous avons testé les préjugés avant d’envoyer le modèle et n’avons trouvé aucune preuve de préjugé racial ou sexiste lors de nos tests. Mais il est clair que nous avons encore des analyses à faire », peut-on lire dans un message posté dimanche par le réseau social.

« Nous continuerons à partager ce que nous apprenons, les actions que nous entreprenons et nous ouvrirons le code source afin que d’autres puissent l’examiner et le reproduire », ajoute le message.

Le directeur du design de Twitter, Dantley Davis, explique quant à lui que l’algorithme de recadrage de l’image « se basait sur le taux de contraste. Ce qui expliquerait pourquoi les personnes de couleur blanche sont souvent mises en avant sur les aperçus ».

Ce recadrage automatique a été mis en place en 2018 par Twitter. Auparavant, le réseau social utilisait la reconnaissance faciale pour créer les aperçus. Un système qui montrait ses limites.

Un algorithme peut-il être raciste ?

Ce débat est loin d’être nouveau.
Selon BFMTV, « de plus en plus de problèmes se posent dans la Sillicon Valley ».
Amazon a par exemple annoncé début juin « qu’il interdisait à la police américaine d’utiliser son logiciel de reconnaissance faciale, soupçonné de cibler les personnes de couleur noire », rapporte BFM.

Dès 2018, une étude nommée « Gender Shades », réalisée par le MIT Media Lab, avait également démontré que le taux de réussite des logiciels de reconnaissance faciale était beaucoup plus élevé sur les visages blancs.