Publié

Le documentaire "Coded Bias" révèle la discrimination des algorithmes

L'affiche du documentaire "Coded Bias". [DR]
"Coded Bias", la discrimination par les algorithmes / Vertigo / 5 min. / le 7 avril 2021
A voir sur Netflix, le documentaire "Coded Bias: algorithmes et discrimination" enquête sur les biais algorithmiques dévoilés par la découverte de failles dans la reconnaissance faciale. Une révélation de Joy Buolamwini, chercheuse au MIT Media Lab.

Présenté aux festivals de Sundance, de Zurich ou plus récemment au Festival du film et forum international sur les droits humains de Genève (FIFDH), le documentaire "Coded Bias: algorithmes et discrimination" est désormais disponible sur Netflix. Le film fait lʹinventaire inquiétant de ces programmes informatiques biaisés, de ces algorithmes parfois qualifiés d'intelligence artificielle qui appliquent une vision raciste et misogyne de notre société.

Mais comment une succession de lignes de code pourrait être raciste et sexiste? Comment un programme informatique, une formule mathématique pourrait bien discriminer des noirs? Ou des femmes? Ou des femmes noires?

Des algorithmes pas irréprochables

Dans "Coded Bias", on suit la scientifique afro-américaine Joy Buolamwin de son bureau du MIT Media Lab jusque devant le congrès des Etats-Unis. Un beau jour, Joy Buolamwini est tombée de sa chaise en se rendant compte qu’un logiciel de reconnaissance faciale qu’elle utilise ne détecte son visage, noir, que lorsqu’elle chausse un masque, blanc.

Ses expériences ultérieures le confirment: le programme reconnaît les hommes blancs dans 99% des cas, les femmes blanches dans 92% des cas, les hommes noirs dans 88% des cas et les femmes noires dans 65% des cas. La scientifique décide alors de se battre contre ces algorithmes biaisés, pourtant censés être irréprochables et impartiaux, puisque mathématiques.

Le documentaire déroule un inventaire vertigineux de ces biais algorithmiques. Il y a par exemple l’algorithme utilisé par Amazon pour trier les candidatures qui a rejeté tous les curriculum vitae jugés trop féminins. Il y a aussi celui qui sert à titulariser des enseignants à New York et à virer un prof métis à Houston.

Y figurent encore l’algorithme qui propose des meilleurs soins de santé aux blancs qu’aux noirs, l’algorithme qui rallonge votre période de probation si votre peau n’est pas assez claire ou que vous n’êtes pas du bon quartier, celui qui vous accorde ou pas un crédit immobilier, celui qui qualifie ou pas vos enfants pour l’université ou celui utilisé à Londres par la police qui se trompe de suspect noir...

Une intelligence artificielle raciste et sexiste

Mais comment ces algorithmes sont-ils devenus racistes et sexistes? D’abord parce que ceux qui ont écrit ces programmes informatiques, c’est-à-dire des hommes blancs, l’ont fait avec leurs propres biais. Et puis ensuite parce qu’un ordinateur, c’est bête évidemment. Une intelligence artificielle, c’est aussi idiot qu'un manche à balai: ça ne fait que reproduire le monde tel qu’on le lui décrit. Joy Buolamwini découvre ainsi un monde raciste et sexiste en apprenant d’elle-même sur le web.

Mais "Coded Basis" ne parle pas que de racisme ou de sexisme, puisque les intelligences artificielles passent leur temps à affiner tous les profils connectés. Le documentaire jette aussi une lumière crue sur le fait que ces programmes ne servent aujourd’hui qu’à deux choses: soit à surveiller la population, soit à générer du bénéfice. Jamais en tout cas à élever les idéaux de nos démocraties. Des démocraties complètement larguées: il n’existe pas de loi sur les algorithmes, apprend-on dans le film.

Les "biais du code" concernent déjà tout le monde

A travers le monde, neuf entreprises posent actuellement les bases du futur de l’humanité. Six sont américaines, trois sont chinoises. Toutes gardent le mode d’emploi de leurs algorithmes secret. Et pour cause: les humains qui les ont écrits ne savent même pas exactement comment fonctionnent ces programmes qui apprennent tout seuls. On parle de "black box", ces boîtes noires opaques avalent des données 24 heures sur 24 en parcourant le réseau de nos vies connectées.

Elles écoutent. Elles apprennent. En ce moment, elles font des prédictions sur nos vies. Inquiétant? Terrifiant même! Surtout que ces intelligences artificielles sont déjà actives, dans nos poches et nos maisons. Qu’il s’agisse de déverrouiller un téléphone avec son visage ou d’une recommandation sur Netflix, les "biais du code" concernent déjà tout le monde.

Antoine Droux/olhor

Publié