Les gens sont plus susceptibles d’exploiter les partenaires féminines de l’IA que les hommes, ce qui montre que la discrimination fondée sur le genre a un impact au-delà des interactions humaines.
Une étude récente, publiée le 2 novembre dans la revue iSciencea examiné comment les gens variaient dans leur volonté de coopérer lorsque des partenaires humains ou IA recevaient des étiquettes de sexe féminin, non binaire, masculin et sans genre.
Les chercheurs ont demandé aux participants de jouer à une expérience de pensée bien connue appelée «Le dilemme du prisonnier« , un jeu dans lequel deux joueurs choisissent de coopérer l’un avec l’autre ou de travailler indépendamment. S’ils coopèrent, les deux obtiennent le meilleur résultat.
Mais si l’un choisit de coopérer et que l’autre ne le fait pas, le joueur qui n’a pas coopéré obtient de meilleurs résultats, ce qui incite l’un à « exploiter » l’autre. S’ils choisissent tous les deux de ne pas coopérer, les deux joueurs obtiennent un score faible.
Les gens étaient environ 10 % plus susceptibles d’exploiter un partenaire IA qu’un humain, selon l’étude. Elle a également révélé que les participants étaient plus susceptibles de coopérer avec des partenaires féminins, non binaires et sans genre qu’avec des partenaires masculins, car ils s’attendaient à ce que l’autre joueur coopère également.
Selon l’étude, les gens étaient moins susceptibles de coopérer avec des partenaires masculins parce qu’ils ne leur faisaient pas confiance pour choisir de coopérer, en particulier les participantes, qui étaient plus susceptibles de coopérer avec d’autres agents « féminins » qu’avec des agents identifiés comme des hommes, un effet connu sous le nom d’« homophilie ».
« Les biais observés dans les interactions humaines avec les agents d’IA sont susceptibles d’avoir un impact sur leur conception, par exemple pour maximiser l’engagement des gens et renforcer la confiance dans leurs interactions avec les systèmes automatisés », ont déclaré les chercheurs dans l’étude. « Les concepteurs de ces systèmes doivent être conscients des préjugés indésirables dans les interactions humaines et travailler activement à les atténuer dans la conception d’agents d’IA interactifs. »
Les risques d’anthropomorphisation des agents d’IA
Lorsque les participants ne coopéraient pas, c’était pour l’une des deux raisons suivantes. Premièrement, ils s’attendaient à ce que l’autre joueur ne coopère pas et ne voulaient pas un score inférieur. La deuxième possibilité est qu’ils pensaient que l’autre personne coopérerait et que le fait de jouer seul réduirait leur risque d’obtenir un score inférieur – au détriment de l’autre joueur. Les chercheurs ont défini cette deuxième option comme une exploitation.
Les participants étaient plus susceptibles d’« exploiter » leurs partenaires lorsqu’ils portaient des étiquettes féminines, non binaires ou sans genre plutôt que des étiquettes masculines. Si leur partenaire était AI, la probabilité d’exploitation augmentait. Les hommes étaient plus susceptibles d’exploiter leurs partenaires et de coopérer avec des partenaires humains que l’IA. Les femmes étaient plus susceptibles de coopérer que les hommes et ne faisaient aucune discrimination entre un partenaire humain ou IA.
L’étude ne comptait pas suffisamment de participants s’identifiant comme un genre autre que féminin ou masculin pour tirer des conclusions sur la façon dont les autres genres interagissent avec des partenaires humains et IA de genre.
Selon l’étude, de plus en plus d’outils d’IA sont anthropomorphisés (en leur attribuant des caractéristiques humaines telles que le sexe et le nom) pour encourager les gens à leur faire confiance et à s’engager avec eux.
Anthropomorphiser l’IA sans tenir compte de la manière dont la discrimination fondée sur le sexe affecte les interactions des personnes pourrait cependant renforcer les préjugés existants, aggravant ainsi la discrimination.
Alors que de nombreux systèmes d’IA actuels sont des chatbots en ligne, dans un avenir proche, les gens pourraient partager régulièrement la route avec des voitures autonomes ou laisser l’IA gérer leurs horaires de travail. Cela signifie que nous devrons peut-être coopérer avec l’IA de la même manière que nous sommes actuellement censés coopérer avec d’autres humains, ce qui rend la prise de conscience des préjugés sexistes de l’IA encore plus critique.
« Bien qu’afficher des attitudes discriminatoires à l’égard des agents d’IA sexistes ne représente pas en soi un défi éthique majeur, cela pourrait favoriser des habitudes néfastes et exacerber la discrimination fondée sur le genre existante au sein de nos sociétés », ont ajouté les chercheurs.
« En comprenant les modèles sous-jacents de préjugés et de perceptions des utilisateurs, les concepteurs peuvent travailler à la création de systèmes d’IA efficaces et fiables, capables de répondre aux besoins de leurs utilisateurs tout en promouvant et en préservant des valeurs sociétales positives telles que l’équité et la justice. »

