Closeup of a human eye made by dots.

Certaines personnes aiment l’IA, d’autres la détestent. Voici pourquoi.

Par Anissa Chauvin

Des e-mails de création ChatGPT à IA systèmes recommandant des émissions de télévision et aidant même à diagnostiquer des maladies, la présence de l’intelligence artificielle dans la vie quotidienne n’est plus de la science-fiction.

Et pourtant, malgré toutes les promesses de rapidité, de précision et d’optimisation, un inconfort persiste. Certaines personnes aiment en utilisant des outils d’IA. D’autres se sentent anxieux, méfiants, voire trahis par eux. Pourquoi?

Mais de nombreux systèmes d’IA fonctionnent comme des boîtes noires : vous tapez quelque chose et une décision apparaît. La logique intermédiaire est cachée. Psychologiquement, c’est déconcertant. Nous aimons voir les causes et les effets, et nous aimons pouvoir remettre en question les décisions. Lorsque nous n’y parvenons pas, nous nous sentons impuissants.

C’est l’une des raisons de ce qu’on appelle l’aversion pour les algorithmes. C’est un terme popularisé par le chercheur en marketing Berkeley Dietvorst et ses collègues, dont les recherches ont montré que les gens préfèrent souvent un jugement humain erroné à une prise de décision algorithmique, en particulier après avoir été témoins d’une seule erreur algorithmique.

Nous savons, rationnellement, que les systèmes d’IA n’ont ni émotions ni agendas. Mais cela ne nous empêche pas de les projeter sur des systèmes d’IA. Lorsque ChatGPT répond « trop poliment », certains utilisateurs trouvent cela étrange. Lorsqu’un moteur de recommandation devient un peu trop précis, il semble intrusif. On commence à soupçonner une manipulation, même si le système n’a pas de soi.

Il s’agit d’une forme d’anthropomorphisme, c’est-à-dire l’attribution d’intentions humaines à des systèmes non humains. Professeurs de communication Clifford Nass et Byron Reeves, entre autres ont démontré que nous réagissons socialement aux machines, même en sachant qu’elles ne sont pas humaines.

Une découverte curieuse de la science du comportement est que nous pardonnons souvent plus les erreurs humaines que les erreurs des machines. Lorsqu’un humain fait une erreur, nous la comprenons. Nous pourrions même faire preuve d’empathie. Mais lorsqu’un algorithme commet une erreur, surtout s’il est présenté comme objectif ou basé sur des données, nous nous sentons trahis.

Ceci renvoie à des recherches sur violation des attenteslorsque nos hypothèses sur la façon dont quelque chose « devrait » se comporter sont perturbées. Cela provoque un inconfort et une perte de confiance. Nous faisons confiance aux machines pour qu’elles soient logiques et impartiales. Ainsi, lorsqu’ils échouent, par exemple en classifiant mal une image, en fournissant des résultats biaisés ou en recommandant quelque chose de totalement inapproprié, notre réaction est plus vive. Nous nous attendions à plus.

L’ironie ? Les humains prennent tout le temps des décisions erronées. Mais au moins, nous pouvons leur demander « pourquoi ? »

Nous détestons quand l’IA se trompe

Pour certains, l’IA n’est pas seulement inconnue, elle est aussi troublante sur le plan existentiel. Les enseignants, les écrivains, les avocats et les designers se retrouvent soudain confrontés à des outils qui reproduisent des parties de leur travail. Il ne s’agit pas seulement d’automatisation, il s’agit également de ce qui donne de la valeur à nos compétences et de ce que signifie être humain.

Cela peut activer une forme de menace identitaire, un concept exploré par le psychologue social Claude Steele et d’autres. Il décrit la crainte que l’expertise ou le caractère unique d’une personne soit diminué. Le résultat ? Résistance, attitude défensive ou rejet pur et simple de la technologie. La méfiance, dans ce cas, n’est pas un bug – c’est un mécanisme de défense psychologique.

Envie de signaux émotionnels

La confiance humaine ne repose pas seulement sur la logique. Nous lisons le ton, les expressions faciales, les hésitations et le contact visuel. L’IA n’a rien de tout cela. Cela peut être fluide, voire charmant. Mais cela ne nous rassure pas comme une autre personne peut le faire.

Ceci est similaire à l’inconfort de l’étrange vallée, un terme inventé par le roboticien japonais Masahiro Mori pour décrire le sentiment étrange lorsque quelque chose est presque humain, mais pas tout à fait. Cela semble correct, mais quelque chose ne va pas. Cette absence émotionnelle peut être interprétée comme de la froideur, voire de la tromperie.

Dans un monde plein de deepfakes et de décisions algorithmiques, cette résonance émotionnelle manquante devient un problème. Non pas parce que l’IA fait quelque chose de mal, mais parce que nous ne savons pas quoi en penser.

Il est important de le dire : tout soupçon à l’égard de l’IA n’est pas irrationnel. Il a été démontré que les algorithmes refléter et renforcer les préjugésen particulier dans des domaines tels que le recrutement, le maintien de l’ordre et la notation de crédit. Si vous avez déjà été lésé ou désavantagé par les systèmes de données, vous n’êtes pas paranoïaque, vous êtes prudent.

Cela renvoie à une idée psychologique plus large : la méfiance apprise. Lorsque des institutions ou des systèmes échouent de manière répétée envers certains groupes, le scepticisme devient non seulement raisonnable, mais protecteur.

Dire aux gens de « faire confiance au système » fonctionne rarement. La confiance doit être gagnée. Cela signifie concevoir des outils d’IA transparents, interrogeables et responsables. Cela signifie donner aux utilisateurs une liberté d’agir, pas seulement une commodité. Psychologiquement, nous faisons confiance à ce que nous comprenons, à ce que nous pouvons remettre en question et à ce qui nous traite avec respect.

Si nous voulons que l’IA soit acceptée, elle doit ressembler moins à une boîte noire qu’à une conversation à laquelle nous sommes invités à nous joindre.

Cet article édité est republié à partir de La conversation sous licence Creative Commons. Lire le article original.

Anissa Chauvin