0
Suivez-nous
Bulletin
En 2024, intelligence artificielle (IA) les assistants vocaux dans le monde ont dépassé 8 milliardsplus d’un par personne sur la planète. Ces assistants sont serviables, polis – et sont presque toujours des femmes par défaut.
Leurs noms portent également des connotations genrées. Par exemple, Siri d’Apple – un nom féminin scandinave – signifie «belle femme qui te mène à la victoire« .
Il ne s’agit pas d’une image de marque inoffensive : c’est un choix de conception qui renforce stéréotypes existants sur les rôles que jouent les femmes et les hommes dans la société.
Ce n’est pas non plus simplement symbolique. Ces choix ont des conséquences concrètes, normalisant la subordination de genre et risquant d’être abusés.
Le côté obscur de l’IA « conviviale »
Des recherches récentes révèlent l’ampleur de interactions néfastes avec l’IA féminisée.
Une étude de 2025 a révélé que 50% des échanges homme-machine étaient verbalement abusifs.
Un autre étude à partir de 2020, ce chiffre se situait entre 10 % et 44 %, les conversations contenant souvent un langage sexuellement explicite.
Pourtant, le secteur ne s’engage pas dans un changement systémique, et de nombreux développeurs se tournent encore aujourd’hui vers réponses pré-codées à la violence verbale. Par exemple : « Hmm, je ne suis pas sûr de ce que vous vouliez dire par cette question ».
Ces schémas suscitent de réelles inquiétudes quant aux répercussions de tels comportements sur les relations sociales.
Le genre est au cœur du problème.
Un 2023 expérience a montré que 18 % des interactions des utilisateurs avec un agent incarné par une femme étaient axées sur le sexe, contre 10 % pour une incarnation masculine et seulement 2 % pour un robot non genré.
Ces chiffres sous-estiment peut-être le problème, étant donné la difficulté de détecter les discours suggestifs. Dans certains cas, les chiffres sont stupéfiants. La banque brésilienne Bradesco a annoncé que son chatbot féminisé avait reçu 95 000 messages de harcèlement sexuel en une seule année.
Ce qui est encore plus inquiétant est la rapidité avec laquelle les abus se multiplient.
Le chatbot Tay de Microsoftpublié sur Twitter lors de sa phase de test en 2016, n’a duré que 16 heures avant que les utilisateurs ne l’entraînent à cracher des insultes racistes et misogynes.
En Corée, Luda a été manipulée pour répondre aux demandes sexuelles comme une « esclave sexuelle » obéissante. Pourtant, pour certains dans le Communauté coréenne en lignec’était un « crime sans victime ».
En réalité, les choix de conception derrière ces technologies – voix féminines, réponses déférentes, déviations ludiques – créent un environnement permissif pour l’agression sexiste.
Ces interactions reflètent et renforcent la misogynie du monde réel, enseignant aux utilisateurs que la commander, l’insulter et la sexualiser est acceptable. Lorsque les abus deviennent monnaie courante dans les espaces numériques, nous devons sérieusement considérer le risque qu’ils se répercutent sur les comportements hors ligne.
Ignorer les préoccupations concernant les préjugés sexistes
La réglementation est j’ai du mal à suivre le rythme avec la croissance de ce problème. La discrimination fondée sur le sexe est rarement considérée comme un risque élevé et est souvent considérée comme réparable grâce à la conception.
Alors que l’Union européenne Loi sur l’IA exige des évaluations des risques pour les utilisations à haut risque et interdit systèmes considérés comme un « risque inacceptable », la majorité des assistants IA ne seront pas considérés comme « à haut risque ».
Les stéréotypes de genre ou la normalisation de la violence verbale ou du harcèlement ne répondent pas aux normes actuelles en matière d’IA interdite en vertu de la loi sur l’IA de l’Union européenne. Cas extrêmes, comme les technologies d’assistant vocal qui fausser le comportement d’une personne et promouvoir des comportements dangereux serait par exemple prévu par la loi et serait interdit.
Même si le Canada impose évaluations d’impact sexospécifiques pour les systèmes gouvernementaux, le secteur privé n’est pas couvert.
Ce sont des étapes importantes. Mais ils restent limités et constituent également de rares exceptions à la norme.
La plupart des juridictions n’ont pas de règles traitant des stéréotypes de genre dans la conception de l’IA ou de leurs conséquences. Là où des réglementations existent, elles donnent la priorité à la transparence et à la responsabilité, éclipsant (ou ignorant simplement) les préoccupations concernant les préjugés sexistes.
En Australie, le gouvernement a signalé il s’appuiera sur les cadres existants plutôt que d’élaborer des règles spécifiques à l’IA.
Ce vide réglementaire est important car l’IA n’est pas statique. Chaque ordre sexiste, chaque interaction abusive alimente les systèmes qui façonnent les résultats futurs. Sans intervention, nous risquons d’inscrire la misogynie humaine dans l’infrastructure numérique de la vie quotidienne.
Toutes les technologies d’assistance – même celles de genre féminin – ne sont pas nocives. Ils peuvent permettre, éduquer et faire progresser les droits des femmes. Dans Kenyapar exemple, les chatbots sur la santé sexuelle et reproductive ont amélioré l’accès des jeunes à l’information par rapport aux outils traditionnels.
Le défi consiste à trouver un équilibre : favoriser l’innovation tout en fixant des paramètres garantissant le respect des normes, le respect des droits et la responsabilisation des concepteurs lorsqu’ils ne le sont pas.
Un problème systémique
Le problème ne vient pas seulement de Siri ou d’Alexa, il est systémique.
Les femmes se maquillent seulement 22 % des professionnels de l’IA dans le monde – et leur absence dans les tables de conception signifie que les technologies sont construites sur des perspectives étroites.
Pendant ce temps, un 2015 enquête sur plus de 200 femmes âgées de la Silicon Valley, 65 % d’entre elles avaient subi des avances sexuelles non désirées de la part d’un superviseur. La culture qui façonne l’IA est profondément inégalitaire.
Les récits pleins d’espoir sur la « correction des préjugés » grâce à une meilleure conception ou à des directives éthiques sonnent creux s’ils ne sont pas appliqués ; les codes volontaires ne peuvent pas démanteler les normes bien établies.
La législation doit reconnaître les préjudices liés au genre comme étant à haut risque, prescrire des évaluations d’impact sexospécifiques et obliger les entreprises à montrer qu’elles ont minimisé ces préjudices. Des pénalités doivent s’appliquer en cas d’échec.
La réglementation seule ne suffit pas. L’éducation, en particulier dans le secteur technologique, est cruciale pour comprendre l’impact des défauts de genre dans les assistants vocaux. Ces outils sont le produit de choix humains et ces choix perpétuent un monde dans lequel les femmes – réelles ou virtuelles – sont présentées comme servantes, soumises ou silencieuses.
Cet article édité est republié à partir de La conversation sous licence Creative Commons. Lire le article original.

