Nous savons que l’intelligence artificielle (IA) ne peut pas penser de la même manière qu’une personne, mais de nouvelles recherches ont révélé comment cette différence pourrait affecter la prise de décision de l’IA, conduisant à des ramifications réelles que les humains pourraient être non préparées.
L’étude, publiée en février 2025 dans la revue Transactions sur la recherche sur l’apprentissage automatiqueexaminé dans quelle mesure les grands modèles de langage (LLMS) peuvent former des analogies.
Ils ont constaté que dans les analogies de cordes de lettres simples et les problèmes de matrice numérique – où la tâche était de terminer une matrice en identifiant le chiffre manquant – les humains ont bien fonctionné mais les performances de l’IA ont fortement diminué.
Tout en testant la robustesse des humains et des modèles d’IA sur des problèmes d’analogie basés sur l’histoire, l’étude a révélé que les modèles étaient sensibles aux effets de l’ordre des réponses – des différences dans les réponses dues à l’ordre des traitements dans une expérience – et peuvent également être plus susceptibles de se paraphraser.
Dans l’ensemble, l’étude a conclu que les modèles d’IA manquent de capacités d’apprentissage «zéro», où un apprenant observe des échantillons de classes qui n’étaient pas présents pendant la formation et font des prédictions sur la classe à laquelle il appartient selon la question.
Co-auteur de l’étude Martha Lewisprofesseur adjoint d’IA neurosymbolique à l’Université d’Amsterdam, a donné un exemple de la façon dont l’IA ne peut pas effectuer un raisonnement analogique ainsi que des humains dans des problèmes de chaîne de lettres.
« Les analogies des chaînes de lettres ont la forme de » Si ABCD va à ABCE, à quoi ijkl va-t-il? » La plupart des humains répondront à «IJKM» et (AI) a tendance à donner cette réponse », a déclaré Lewis à Live Science. « Mais un autre problème pourrait être » si ABBCD va à ABCD, à quoi ijkkl?
Pourquoi c’est important que l’IA ne puisse pas penser comme les humains
Lewis a déclaré que même si nous pouvons abstraire des modèles spécifiques à des règles plus générales, les LLM n’ont pas cette capacité. « Ils sont bons pour identifier et faire correspondre les modèles, mais pas pour généraliser ces modèles. »
La plupart des applications d’IA reposent dans une certaine mesure sur le volume – plus les données de formation sont disponibles, plus les modèles sont identifiés. Mais Lewis a stressé la correspondance et l’abstraction des modèles ne sont pas la même chose. « Il s’agit moins de ce qu’il y a dans les données, et plus de la façon dont les données sont utilisées », a-t-elle ajouté.
Pour donner une idée des implications, l’IA est de plus en plus utilisée dans la sphère juridique pour la recherche, l’analyse de la jurisprudence et les recommandations de détermination de la peine. Mais avec une capacité inférieure à faire des analogies, il peut ne pas reconnaître comment les précédents juridiques s’appliquent à des cas légèrement différents lorsqu’ils surviennent.
Étant donné que ce manque de robustesse pourrait affecter les résultats du monde réel, l’étude a souligné que cela a servi de preuve que nous devons évaluer soigneusement les systèmes d’IA non seulement pour la précision mais aussi pour la robustesse de leurs capacités cognitives.