Le rôle de intelligence artificielle L’influence de l’IA sur la façon dont nous utilisons le Web semble vouée à augmenter inexorablement, en particulier avec OpenAI — la société à l’origine de ChatGPT — taquinerie SearchGPTIl s’agit d’un outil de recherche basé sur l’IA, conçu pour fournir des réponses directes à vos requêtes plutôt que des pages de résultats « optimisés ».
Si vous ressentez une soudaine impression de déjà-vu, c’est parce que Google a déjà essayé quelque chose de similaire. IA Gemini Google a testé son outil « AI Overviews » qui, comme SearchGPT, est conçu pour parcourir le Web et fournir des réponses synthétiques aux requêtes de recherche. L’idée simple était que cet outil vous fournirait un résumé des informations essentielles que vous souhaitiez sans que vous ayez à parcourir une multitude de résultats de recherche.
Mais cela n’a pas vraiment fonctionné, du moins au début. Dans certains cas flagrants, L’IA de Google a demandé aux utilisateurs d’ajouter de la colle à leur sauce à pizza pour lui donner « plus de collant », il a suggéré de laver les vêtements avec du chlore, un gaz toxique, et a même noté qu’une solution au sentiment de dépression serait sauter du Golden Gate BridgeLe problème ici était que même si les aperçus d’IA pouvaient extraire des informations d’une masse de sources, ils ne semblaient pas être efficaces pour séparer les informations satiriques, incorrectes ou malveillantes des informations utiles et correctes.
SearchGPT s’appuie sur ChatGPT, qui est sans doute un modèle d’IA plus mature que Gemini, et pourrait donc produire de meilleurs résultats avec des réponses moins odieuses. Cependant, l’outil est au stade du prototype, donc personne ne sait comment il fonctionnera une fois rendu public.
Mais cela soulève la question de l’efficacité du rôle de l’IA à l’avenir : si elle est peaufinée, l’IA est-elle susceptible de tuer les moteurs de recherche traditionnels, ou la précision de la recherche par l’IA restera-t-elle décevante ?
Robuste et non rampant
« L’IA actuelle présente de nombreuses incohérences car elle n’est pas très cohérente. Les schémas de pensée peuvent prendre des directions étranges et disparates. Cependant, les recherches montrent qu’il est possible de concevoir des modèles permettant de penser beaucoup plus efficacement. » Nell Watsona déclaré à Live Science un chercheur en IA à l’Institut des ingénieurs électriciens et électroniciens (IEEE). Certains modèles peuvent être associés à des langages de programmation logiques tels que Prologue pour augmenter considérablement leurs capacités de raisonnement, a-t-elle déclaré, ce qui signifie que les processus mathématiques peuvent être dignes de confiance.
« Cela permet également aux modèles d’être beaucoup plus réactifs, de comprendre une situation, d’élaborer des plans et de prendre des mesures indépendantes en réponse. Cependant, sans un tel échafaudage en place, les systèmes d’IA seront extrêmement limités dans leur capacité à fournir des informations précises et fiables, et à maintenir une concentration suffisante sur un contexte souhaité », a déclaré Watson.
C’est là que réside le problème entre l’IA et la recherche : l’absence potentielle d’un cadre solide derrière ces systèmes pour garantir leur précision et leur fiabilité. Et il semblerait que le désir de frapper vite, alors que l’intérêt pour l’IA est en plein essor, pourrait être la cause des résultats médiocres qu’ils produisent. Watson a déclaré : « Il est clair que certaines fonctionnalités de l’IA ont été déployées bien trop tôt, sans tests adéquats. » Au-delà de cela, ils manquent de contexte utilisateur.
Mais ces problèmes ne se limitent pas aux modèles d’IA. La faute peut également être imputée à l’état de la recherche sur le Web via certains des plus grands moteurs de recherche, notamment Google Search.
« Au-delà de l’inutilité du système d’IA, il y a les problèmes plus vastes que pose la recherche elle-même aujourd’hui, avec les changements apportés pour faciliter les résultats de recherche payante qui rendent la recherche de contenu beaucoup plus difficile », a déclaré Watson. « Sans parler du problème de biais de l’infrastructure d’IA pour empêcher le contenu « indésirable » de remonter en haut, ce qui, encore une fois, ne respecte pas fondamentalement les désirs des utilisateurs. Il est important de se rappeler qu’il s’agit d’une fonctionnalité conçue pour l’utilisation des clients, et la résolution de ces problèmes ne fera qu’améliorer leur expérience d’optimisation des moteurs de recherche. »
Agents de précision et de confiance
Dans ce cas, que nous réserve l’avenir ? Watson a noté que l’état actuel de la recherche en IA dépend modèles d’agents — des modèles d’IA autonomes conçus pour exécuter des actions définies et résoudre des problèmes sans surveillance humaine constante de manière orientée vers un objectif. Cela diffère de IA générative des modèles qui créent du contenu. De plus, ces modèles d’agents ne feront que gagner en sophistication.
« Les systèmes d’IA agentiques seront utilisés pour effectuer des recherches et des analyses approfondies bien plus sophistiquées qu’une simple recherche par mot-clé. Ils peuvent trouver des réponses à des questions que les utilisateurs ne savaient même pas comment poser », a expliqué Watson, tout en ajoutant que ces IA devront comprendre les valeurs humaines, les limites et le contexte essentiel.
« Nous confions la responsabilité de l’alignement de ces modèles aux citoyens ordinaires, ce qui est un désastre en devenir. Il faut beaucoup d’éducation publique pour nous assurer de tirer le meilleur parti de cette nouvelle vague d’IA, au lieu de la voir tourner en rond autour de nous. »
Bien que les inquiétudes concernant l’efficacité et la précision des systèmes d’IA dans la recherche soulèvent des questions, il existe un grand potentiel pour bouleverser la façon dont nous trouvons des informations sur le Web – ou du moins offrir une alternative aux moteurs de recherche classiques.
« À mesure que le « pouvoir d’agent » des systèmes d’IA augmente, les agents d’IA agiront probablement un jour comme nos ambassadeurs, recherchant activement des produits, des services et des expériences susceptibles de nous surprendre et de nous ravir, et qui s’harmonisent avec nos plans existants », a déclaré Watson. « Cela transcendera le marché primitif optimisé par la recherche, les utilisateurs n’ayant même pas besoin de rechercher le produit pour le leur vendre. Cela signifie également que le marketing auprès des robots peut avoir plus de valeur que le marketing auprès des humains. De plus, il est prouvé que les systèmes d’IA trouvent le contenu écrit par d’autres systèmes d’IA plus stimulant », a ajouté Watson.
Cette perspective plus positive s’accompagne toutefois d’une mise en garde, et elle est liée à la confiance, comme l’a conclu Watson : « Proposer trop de produits aux consommateurs d’IA risque de diminuer la confiance et de provoquer de la frustration. Les futurs successeurs doivent chercher à maintenir la confiance de leurs clients. »