Racisme anti-blanc: le journal “l’immonde” compte le nombre de blanc dans l’intelligence artificielle

Le secteur de l’IA est composé en grande partie d’hommes blancs, ce qui contribue aux biais de certaines technologies.

« A l’université, un de mes bons amis est venu me voir et m’a dit que je faisais disjoncter son logiciel de reconnaissance faciale. Parce que, apparemment, toutes les images qu’il avait utilisées [pour l’entraîner] montraient des personnes avec beaucoup moins de mélanine que moi. » Le 14 février, Charles Isbell, chercheur en intelligence artificielle (IA) à Georgia Tech (Atlanta), et noir, témoignait devant les députés américains lors d’une audition consacrée à ces technologies. Il a parfaitement résumé, en quelques mots, l’un des principaux problèmes de son secteur : le manque de diversité des personnes qui le composent et l’impact que cela peut avoir sur les technologies elles-mêmes.

« Ces algorithmes échouent plus souvent pour les femmes, les migrants, les personnes qui ne savent pas lire »

Que ce soit dans les universités ou dans les grandes entreprises du numérique, les chercheurs et ingénieurs en IA sont principalement des hommes blancs — même si la Chine est devenue un acteur majeur du secteur. Et cela n’est pas sans conséquence. « Ces algorithmes échouent plus souvent pour les femmes, les migrants, les personnes qui ne savent pas lire… Il ne faut pas qu’ils fonctionnent seulement pour ceux qui les ont conçus, mais pour tout le monde », expliquait la mathématicienne Cathy O’Neil, auteure d’un livre très critique sur l’impact sociétal des algorithmes, lors du sommet sur l’intelligence artificielle organisé par le gouvernement français à Paris, le 29 mars.

Les exemples sont légion. Il a été démontré que des programmes de reconnaissance faciale étaient moins efficaces sur les femmes et les personnes non blanches. Que des technologies effectuaient des associations de mots sexistes, liant par exemple « femmes » à « foyer ». Que d’autres considéraient les personnes blanches comme plus belles que les autres, etc.  (…)