Bien que les humains et intelligence artificielle (IA) Systèmes « Pensez » très différemmentde nouvelles recherches ont révélé que les AIS prennent parfois des décisions aussi irrationnelles que nous.
Dans près de la moitié des scénarios examinés dans une nouvelle étude, Chatgpt a présenté bon nombre des biais de prise de décision humaine les plus courants. Publié le 8 avril. Dans la revue Gestion des opérations de fabrication et de serviceles résultats sont les premiers à évaluer le comportement de Chatgpt à travers 18 biais cognitifs bien connus trouvés en psychologie humaine.
Les auteurs du journal, de cinq institutions universitaires à travers le Canada et l’Australie, ont testé GPT-3.5 et GPT-4 d’OpenAI – les deux modèles de grande langue (LLMS) alimentant Chatgpt – et ont découvert qu’en dépit d’être « de manière impressionnante » dans leur raisonnement, ils sont loin d’être immunisés à des défauts humains.
De plus, une telle cohérence elle-même a des effets positifs et négatifs, ont déclaré les auteurs.
« Les gestionnaires bénéficieront le plus en utilisant ces outils pour des problèmes qui ont une solution claire et formule », auditeur d’étude Yang Chenprofesseur adjoint de gestion des opérations à la Ivey Business School, a déclaré dans un déclaration. « Mais si vous les utilisez pour des décisions subjectives ou axées sur les préférences, marchez avec soin. »
L’étude a pris des biais humains communément connus, notamment l’aversion au risque, la confiance excessive et l’effet de dotation (où nous attribuons plus de valeur aux choses que nous possédons) et les appliquons aux invites données à Chatgpt pour voir si elle tomberait dans les mêmes pièges que les humains.
Décisions rationnelles – parfois
Les scientifiques ont posé les questions hypothétiques du LLMS tirées de la psychologie traditionnelle et dans le contexte de l’applicabilité commerciale du monde réel, dans des domaines tels que la gestion des stocks ou les négociations des fournisseurs. L’objectif était de voir non seulement si l’IA imiterait les préjugés humains, mais si cela le ferait quand on le ferait lorsqu’on lui a posé des questions dans différents domaines commerciaux.
GPT-4 a surperformé le GPT-3.5 lors de la réponse aux problèmes avec des solutions mathématiques claires, montrant moins d’erreurs dans les scénarios de probabilité et de logique. Mais dans les simulations subjectives, comme si vous devez choisir une option risquée pour réaliser un gain, le chatbot reflétait souvent les préférences irrationnelles que les humains ont tendance à montrer.
« Le GPT-4 montre une préférence plus forte pour la certitude que même les humains », ont écrit les chercheurs dans l’article, se référant à la tendance de l’IA à tendre vers des résultats plus sûrs et plus prévisibles lorsqu’on lui donne des tâches ambiguës.
Plus important encore, les comportements des chatbots sont restés principalement stables, que les questions aient été formulées comme des problèmes psychologiques abstraits ou des processus commerciaux opérationnels. L’étude a conclu que les biais montrés n’étaient pas seulement un produit d’exemples mémorisés – mais une partie de la façon dont les raisons de l’IA.
L’un des résultats surprenants de l’étude était la façon dont GPT-4 amplifiait parfois les erreurs humaines. « Dans la tâche du biais de confirmation, GPT-4 a toujours donné des réponses biaisées », ont écrit les auteurs dans l’étude. Il a également montré une tendance plus prononcée pour l’erreur de main chaude (le biais à s’attendre à des modèles dans le hasard) que GPT 3.5.
À l’inverse, Chatgpt a réussi à éviter certains préjugés humains courants, y compris la négligence de taux de base (où nous ignorons les faits statistiques en faveur d’informations anecdotiques ou spécifiques à des cas) et l’erreur de coût recouvert (où la prise de décision est influencée par un coût qui a déjà été maintenu, permettant aux informations non conformes à un jugement de nuage).
Selon les auteurs, les biais humains de Chatgpt proviennent de données de formation qui contient les biais cognitifs et l’heuristique que les humains présentent. Ces tendances sont renforcées lors du réglage fin, en particulier lorsque la rétroaction humaine favorise encore les réponses plausibles par rapport aux réponses rationnelles. Lorsqu’ils se heurtent à des tâches plus ambiguës, l’IA se faufile plus vers les modèles de raisonnement humain que la logique directe.
« Si vous voulez une aide à la décision précise et impartiale, utilisez GPT dans des domaines où vous feriez déjà confiance à une calculatrice », a déclaré Chen. Cependant, lorsque le résultat dépend davantage des entrées subjectives ou stratégiques, la surveillance humaine est plus importante, même si elle ajuste les invites utilisateur à corriger les biais connus.
« L’IA doit être traitée comme un employé qui prend des décisions importantes – elle a besoin de surveillance et de directives éthiques », co-auteur Meena Andiappanun professeur agrégé de ressources humaines et de gestion à l’Université McMaster, au Canada, dans le communiqué. « Sinon, nous risquons d’automatiser la pensée erronée au lieu de l’améliorer. »