0
Suivez-nous
Quand intelligence artificielle (L’IA) peut se comporter davantage comme un communicateur humain, elle devient un partenaire de débat plus efficace qui parvient à des conclusions plus précises, ont découvert les scientifiques.
La communication humaine est pleine d’arrêts et de démarrages, d’interruptions passionnées, de silences incertains et d’ambiguïtés. L’IA, quant à elle, adhère au style de communication formel des ordinateurs : traiter une commande, formuler une réponse, fournir le résultat et attendre patiemment la commande suivante.
Sei et ses collègues ont proposé un cadre dans lequel les grands modèles de langage (LLM) n’étaient pas obligés d’adhérer à la nature de va-et-vient et d’attente de votre tour de la communication informatisée. Au lieu de cela, un LLM pourrait se voir attribuer une personnalité qui lui permettrait de parler à contretemps, de couper les autres orateurs ou de garder le silence.
Au-delà de la création de méthodes de communication IA plus humaines, les chercheurs ont découvert qu’une telle flexibilité conduisait à une plus grande précision sur des tâches complexes par rapport à celle des LLM standard.
Une foule de personnalités
L’équipe a commencé par intégrer des traits dans les LLM selon les « cinq grands » types de personnalité de la psychologie classique : ouverture, conscience, extraversion, agrément et névrosisme.
L’étape suivante consistait à reprogrammer les LLM basés sur du texte pour traiter les réponses phrase par phrase plutôt que de générer une réponse complète avant le début de la suivante, ce qui a permis aux chercheurs de contrôler soigneusement le flux de la discussion. Ils ont également comparé les résultats entre trois paramètres de conversation : ordre de parole fixe, ordre de parole dynamique et ordre de parole dynamique avec interruption activée. Ce dernier a permis au modèle de calculer un « score d’urgence » qui leur a permis de saisir et de traiter la conversation en temps réel.
Le score d’urgence s’est exprimé de plusieurs manières dans la conversation. S’il augmentait parce que le modèle avait repéré une erreur ou un point qu’il considérait comme critique pour la discussion, il pourrait le soulever immédiatement, quel que soit le tour de parler. Si le score d’urgence était faible, le modèle interprétait cela comme n’ayant rien de concret à ajouter, ce qui réduisait le « fouillis » de la conversation en soi.
Sei a déclaré à Live Science que l’équipe avait évalué les performances à l’aide de 1 000 questions posées par le Compréhension massive du langage multitâche (MMLU) – un test de raisonnement d’IA englobant des questions de différents domaines, notamment les sciences et les sciences humaines.
« Lorsqu’un agent donnait initialement une réponse incorrecte, la précision globale était de 68,7 % avec une discussion dans un ordre fixe, de 73,8 % avec un ordre dynamique et de 79,2 % lorsque l’interruption était autorisée », a déclaré Sei. « Dans un contexte plus difficile où deux agents ont initialement donné des réponses incorrectes, la précision était de 37,2 % avec un ordre fixe, 43,7 % avec un ordre dynamique et 49,5 % avec une interruption activée. »
Après avoir montré que les modèles basés sur la personnalité étaient plus précis que les chatbots IA traditionnels, Sei souhaite maintenant explorer comment ces nouvelles découvertes peuvent être appliquées dans la pratique. L’équipe prévoit d’appliquer ses découvertes à divers domaines comportant une collaboration créative pour comprendre la dynamique autour de la façon dont les « personnalités numériques » peuvent jouer dans la prise de décision au sein d’un groupe.
« À l’avenir, les agents d’IA interagiront de plus en plus entre eux et avec les humains dans des contextes collaboratifs », a déclaré Sei. « Nos résultats suggèrent que les discussions façonnées par la personnalité, y compris la capacité d’interrompre si nécessaire, peuvent parfois produire de meilleurs résultats que des échanges strictement au tour par tour et uniformément polis. »

