Intelligence artificielle (AI) pourrait éroder les compétences de pensée critique de ses utilisateurs et les rendre plus stupides, a averti une nouvelle étude.
La recherche – une enquête auprès des travailleurs en affaires, en éducation, en arts, en administration et en informatique réalisées par Microsoft et Carnegie Mellon University – a révélé que ceux qui faisaient le plus confiance à l’exactitude des assistants de l’IA pensaient de manière moins critique aux conclusions de ces outils.
En soi, ce n’est pas vraiment surprenant, mais cela révèle un piège à cacher dans la présence croissante de l’IA dans nos vies: comme les outils d’apprentissage automatique gagnent plus de confiance, ils pourraient produire un contenu dangereux qui glisse inaperçu. Les chercheurs présenteront leurs résultats au Conférence du CHI sur les facteurs humains dans les systèmes informatiques Plus tard ce mois-ci, et a publié un papierqui n’a pas encore été évalué par des pairs, sur le site Web de Microsoft.
« Utilisé à mal, les technologies peuvent et entraînent la détérioration des facultés cognitives qui devraient être préservées », ont écrit les chercheurs dans l’étude. « Une ironie clé de l’automatisation est qu’en mécanisant les tâches de routine et en laissant la manipulation des exceptions à l’utilisateur humain, vous privez l’utilisateur des opportunités de routine pour pratiquer leur jugement et renforcer leur musculature cognitive, en les laissant atrophiés et non préparés lorsque les exceptions se produisent. »
Pour mener l’étude, les chercheurs ont contacté 319 travailleurs du savoir (professionnels qui génèrent de la valeur grâce à leur expertise) grâce à la plateforme de crowdsourcing prolifique.
Les répondants – dont les rôles d’emploi allaient du travail social au codage – ont été invités à partager trois exemples de la façon dont ils ont utilisé des outils d’IA généraux, tels que Chatgpt, dans leur travail. On leur a alors demandé s’ils avaient engagé des compétences de pensée critique pour accomplir chaque tâche et (si oui) comment ils l’ont fait. Ils ont également été interrogés sur l’effort d’achèvement de la tâche sans l’IA aurait pris et sur leur confiance dans le travail.
Les résultats ont révélé une diminution frappante du contrôle autodéclaré appliqué à la production d’IA, les participants indiquant que pour 40% de leurs tâches, ils n’ont utilisé aucune pensée critique.
Ces problèmes semblent être plus proéminent chez les jeunesparmi lesquels l’adoption de l’IA est plus répanduavec l’IA couramment utilisée comme moyen de écrire des essais et contourner la nécessité de raisonner de manière critique.
Ce n’est pas un nouveau problème – L’effet Googlepar lequel les utilisateurs externalisent leurs connaissances au moteur de recherche, a été noté depuis des décennies maintenant – mais cela met en évidence l’importance d’exercer un discernement sur les tâches mentales auxquelles nous dédommager Machines sujets aux hallucinationsde peur que nous perdons la capacité de les effectuer complètement.
« Les données montrent un changement dans l’effort cognitif alors que les travailleurs du savoir passent de plus en plus de l’exécution des tâches à la surveillance lors de l’utilisation du Genai », ont écrit les chercheurs. « Étonnamment, bien que l’IA puisse améliorer l’efficacité, cela peut également réduire l’engagement critique, en particulier dans les tâches de routine ou de basse enjeux dans lesquelles les utilisateurs comptent simplement sur l’IA, ce qui soulève des préoccupations concernant la dépendance à long terme et la résolution indépendante de problèmes indépendants. »