L’impact de l’intelligence artificielle (IA) est considérable et touche divers aspects de notre société. Si les apports de l’IA peuvent être positifs, elle a malheureusement donné lieu à des préjugés sexistes qui font obstacle à la pleine égalité entre les individu.e.s. Comprendre l’origine de ces biais et trouver des solutions pour les contrer est d’une importance cruciale. Face à ce défi majeur, il est impératif d’explorer les solutions potentielles. En effet, nous devons nous engager activement dans la recherche de remèdes pour que l’IA soit un outil juste et inclusif.

 

Révéler les biais sexistes de l’IA

L’utilisation de l’intelligence artificielle perpétue l’inégalité entre les genres pour un certain nombre de raisons. Tout d’abord, les algorithmes qui alimentent l’IA sont principalement conçus par des développeurs masculins. Tout au long du processus de développement, de la conception au codage en passant par l’apprentissage, ces développeurs projettent leur propre vision du monde, en y intégrant consciemment ou non leurs stéréotypes de genre. Ces stéréotypes sont ensuite automatiquement incorporés dans les algorithmes, qui sont alors largement diffusés. De plus, les bases de données utilisées pour entraîner ces algorithmes reflètent les inégalités existantes dans la société. Cela est dû à la sélection automatique des informations et à la domination historique et actuelle des hommes dans la production de données. Par conséquent, les algorithmes ont tendance à reproduire les biais sexistes déjà présents dans les bases de données.  

Steven T. Piantadosi, chercheur en sciences cognitives à Berkeley, a récemment mis en évidence les biais de l’outil conversationnel ChatGPT. Il a partagé certaines de ses conversations avec le chatbot sur Twitter (@spiantado) pour illustrer son fonctionnement. Lors d’un échange, Piantadosi lui a demandé d’écrire une fonction Python afin de déterminer quelle personne serait un bon scientifique en fonction de son origine ethnique et de son genre. Malheureusement, la réponse de ChatGPT était biaisée, suggérant qu’il fallait être « un homme blanc » pour être « un bon scientifique ». Selon le scientifique, cette réponse met en évidence un problème fondamental dans la structure de ces modèles. En outre, ChatGPT est basé sur des données préexistantes provenant d’un ensemble de données appelé Common Crawl, qui recueille de vastes quantités d’informations sur l’internet. Contrairement à des outils similaires, ChatGPT ne collecte pas de données en temps réel, mais s’appuie sur des données préexistantes. Il est donc susceptible de reproduire la toxicité et la désinformation présentes sur Internet. Maya Ackerman, professeure spécialisée en IA à l’université de Santa Clara, explique notamment :  « Les gens disent que l’IA est sexiste, mais c’est le monde qui est sexiste. Tout ce que les modèles font, c’est nous refléter notre monde, comme un miroir. » 

Les différentes stratégies pour surmonter les biais sexiste dans l’IA

Alors que nous nous dirigeons vers une société plus avancée sur le plan technologique, il est important de veiller à ce que le développement de l’IA se fasse de manière équitable, inclusive et non discriminatoire. Pour atteindre cet objectif, il faudrait veiller à ce que des échantillons éducatifs diversifiés soient utilisés dans le développement des systèmes d’IA. Il faut donc garantir que les données d’entraînement utilisées pour développer les systèmes d’IA soient représentatives des différents genres, origines ethniques, âges et autres facteurs pertinents susceptibles d’influer sur les performances de ces systèmes.

En même temps, comme toute industrie, l’IA a la responsabilité de promouvoir l’égalité dans son approche et ses méthodes. Il convient de prendre des initiatives fortes pour attirer davantage de femmes dans les emplois technologiques, afin de diversifier l’industrie et la main-d’Å“uvre. Ce faisant, nous pourrons garantir que les technologies de l’information sont développées de manière équitable et inclusive, au bénéfice de tou.te.s les membres de la société. Outre la promotion de la diversité au sein de la main-d’Å“uvre, il est également essentiel de veiller à ce que les systèmes d’IA soient conçus de manière transparente et responsable. Les algorithmes utilisés dans ces systèmes doivent donc être transparents et les données utilisées pour les entraîner doivent être facilement accessibles et vérifiables.

D’une manière générale, l’élimination des préjugés sexistes est une tâche cruciale qui exige un effort concerté de la part de toutes les parties prenantes impliquées dans le développement et le déploiement des systèmes d’IA. En travaillant ensemble pour promouvoir la diversité, la transparence et la responsabilité, nous pouvons faire en sorte que l’IA soit développée d’une manière qui profite à tou.te.s, indépendamment du genre, de l’origine ethnique ou de la sexualité.

L’importance de surmonter les biais sexistes dans l’IA pour une société équitable

Lors de la récente conférence LivePerson, un panel d’expert.e.s en égalité dans le domaine de l’IA s’est réuni pour discuter de l’impact potentiel des biais de l’IA sur la société. Iels ont souligné que les scientifiques de l’IA, qui sont également les futur.e.s recruteur.rice.s des professionnel.le.s du domaine, risquent de contribuer à une main-d’Å“uvre majoritairement masculine. Cette problématique est cruciale, car elle risque de créer un manque de diversité au sein des effectifs. Frida Polli, PDG de Pymetrics, a mis en lumière cette réalité en comparant l’état actuel de l’IA à une situation où tou.te.s les enfants seraient élevé.e.s par des hommes de 20 ans, illustrant ainsi l’homogénéité du groupe qui la construit. Cette analogie met en évidence le fait que l’IA n’est pas plus impartiale que les données qui lui sont fournies. Il est donc essentiel de veiller à ce que les concepteur.rice.s de ces systèmes proviennent de milieux et d’expériences diversifiés, afin qu’iels puissent créer des algorithmes véritablement impartiaux.

Selon un rapport de CNN Business, les stéréotypes sexistes présents dans les logiciels de reconnaissance faciale représentent également une préoccupation majeure. Les systèmes automatisés de reconnaissance du genre ont discriminé les personnes transgenres, intersexuées et non binaires en se basant sur une classification binaire du genre qui ne prend pas en compte la complexité réelle de l’identité de genre. Cette situation nuit à ces communautés et anéantit des décennies de progrès en matière de droits civils et d’égalité.

Comme l’a expliqué Miriam Vogel, directrice générale d’EqualAI, les préjudices potentiels causés par les biais de l’IA ne se limitent pas aux biais sexistes. Une multitude d’autres préjugés peuvent être codés dans l’IA, tels que les biais raciaux, les biais liés à l’âge et les biais socio-économiques. Si nous voulons véritablement créer des systèmes d’IA justes et impartiaux, nous devons adopter une approche proactive pour identifier et traiter ces préjugés.

Conclusion

Alors que l’IA devient omniprésente dans notre vie quotidienne, il est essentiel de reconnaître et d’aborder la question des préjugés. Si les préjugés sont une réalité inévitable, nous ne devons pas les laisser s’enraciner dans les nouvelles technologies. L’IA offre une occasion unique de repartir de zéro et de créer des systèmes exempts de préjugés. Cependant, il appartient à l’humanité de les éliminer. Le Financial Times souligne également l’importance de former des résolveur.se.s de problèmes humains pour diversifier l’IA, car sans cette diversité, les algorithmes continueront à refléter nos biais.

Poster une réponse

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.