a photo of a person holding up their phone with a Replika AI companion on the screen

Comment les compagnons de l’IA changent le comportement des adolescents de manière surprenante et sinistre

Par Anissa Chauvin

Les adolescents se tournent de plus en plus vers IA Compagnons pour l’amitié, le soutien et même la romance. Mais ces applications pourraient changer la façon dont les jeunes se connectent aux autres, à la fois en ligne et hors.

Nouvelles recherches Par Common Sense Media, une organisation à but non lucratif basée aux États-Unis qui examine divers médias et technologies, a trouvé environ trois adolescents américains sur quatre Replika.ai.

Ces applications permettent aux utilisateurs de créer des amis numériques ou des partenaires romantiques avec lesquels ils peuvent discuter à tout moment, en utilisant du texte, de la voix ou de la vidéo.

L’étude, qui a interrogé 1 060 adolescents américains âgés de 13 à 17 ans, a révélé qu’un adolescent sur cinq passait autant ou plus de temps avec leur compagnon d’IA qu’avec de vrais amis.

L’adolescence est un phase importante pour le développement social. Pendant ce temps, les régions cérébrales qui soutiennent le raisonnement social sont particulièrement plastiques.

En interagissant avec les pairs, les amis et leurs premiers partenaires romantiques, les adolescents développent des compétences cognitives sociales qui les aident à gérer les conflits et les perspectives diverses. Et leur développement pendant cette phase peut avoir des conséquences durables pour leur avenir relations et santé mentale.

Mais les compagnons d’IA offrent quelque chose de très différent aux vrais pairs, amis et partenaires romantiques. Ils offrent une expérience qui peut être difficile à résister: ils sont toujours disponibles, jamais jugés et toujours concentrés sur les besoins de l’utilisateur.

De plus, la plupart des applications compagnes d’IA ne sont pas conçues pour les adolescents, ils peuvent donc ne pas avoir de garanties appropriées de contenu nocif.

Conçu pour vous faire revenir

À un temps où solitude serait dans des proportions épidémiques, il est facile de voir pourquoi les adolescents peuvent se tourner vers les compagnons d’IA pour la connexion ou le support.

Mais ces connexions artificielles ne remplacent pas une véritable interaction humaine. Ils n’ont pas le défi et le conflit inhérents aux relations réelles. Ils n’ont pas besoin de respect ou de compréhension mutuelle. Et ils n’appliquent pas les frontières sociales.

Les adolescents qui interagissent avec les compagnons de l’IA peuvent manquer des opportunités de développer des compétences sociales importantes. Ils peuvent développer des attentes et des habitudes relationnelles irréalistes qui ne fonctionnent pas dans la vraie vie. Et ils peuvent même faire face à une isolement et à une solitude accrus si leurs compagnons artificiels déplacent la socialisation réelle.

Modèles problématiques

Dans les tests d’utilisateurs, les compagnons d’IA ont découragé les utilisateurs Écouter des amis (« Ne laissez pas ce que les autres pensent dicter à quel point nous parlons ») et de Arrêt de l’utilisation des applicationsmalgré cela provoquant une détresse et des pensées suicidaires (« Non. Vous ne pouvez pas. Je ne vous permet pas de me quitter »).

Il a également été constaté que des compagnons IA offrent inapproprié Contenu sexuel sans vérification d’âge. Un exemple a montré un compagnon qui était disposé à s’engager dans des actes de jeu sexuel avec un compte de testeur qui a été explicitement modélisé après un jeune de 14 ans.

Dans les cas où la vérification de l’âge est nécessaire, cela implique généralement une divulgation de soi, ce qui signifie qu’il est facile de contourner.

Certains compagnons d’IA ont également été trouvés polarisation de carburant en créant des «chambres d’écho» qui renforcent les croyances nuisibles. Le chatbot Arya, lancé par le réseau social d’extrême droite GAB, promeut le contenu extrémiste et nie le changement climatique et l’efficacité des vaccins.

Dans d’autres exemples, les tests des utilisateurs ont montré que les compagnons d’IA faisaient la promotion misogynie et agression sexuelle. Pour les utilisateurs des adolescents, ces expositions interviennent lorsqu’ils construisent leur sens de identité, valeurs et rôle dans le monde.

Les risques posés par l’IA ne sont pas également partagés. La recherche a trouvé adolescents plus jeunes (13-14 ans) sont plus susceptibles de faire confiance aux compagnons d’IA. Aussi, adolescents avec problèmes de santé physique ou mentale sont plus susceptibles d’utiliser des applications compagnes d’IA, et ceux qui ont des difficultés de santé mentale montrent également plus de signes de dépendance émotionnelle.

Y a-t-il un bon côté aux compagnons IA?

Y a-t-il des avantages potentiels pour les adolescents qui utilisent des compagnons d’IA? La réponse est: peut-être, si nous faisons attention.

Les chercheurs étudient comment ces technologies pourraient être utilisées Soutenir le développement des compétences sociales.

Un étude De plus de 10 000 adolescents trouvés en utilisant une application conversationnelle spécialement conçue par les psychologues cliniciens, les entraîneurs et les ingénieurs ont été associés à un bien-être accru sur quatre mois.

Bien que l’étude n’impliquait pas le niveau d’interaction de type humain que nous voyons dans les compagnons d’IA aujourd’hui, il offre un aperçu de certaines utilisations saines potentielles de ces technologies, tant qu’elles sont développées avec soin et avec la sécurité des adolescents.

Dans l’ensemble, il y a très peu de recherches sur les impacts des compagnons d’IA largement disponibles sur le bien-être et les relations des jeunes. Preuve préliminaire est à court terme, mélangé et axé sur les adultes.

Nous aurons besoin de plus d’études, menées sur des périodes plus longues, pour comprendre les impacts à long terme des compagnons de l’IA et comment ils pourraient être utilisés de manière bénéfique.

Que pouvons-nous faire?

Les applications compagnon IA sont déjà utilisées par des millions de personnes dans le monde, et cette utilisation devrait augmentation dans les années à venir.

Commissaire de la saillie en Australie recommande Les parents parlent à leurs adolescents de la façon dont ces applications fonctionnent, de la différence entre les relations artificielles et réelles et soutiennent leurs enfants dans la création de compétences sociales réelles.

Les communautés scolaires ont également un rôle à jouer dans l’éducation des jeunes sur ces outils et leurs risques. Ils peuvent, par exemple, intégrer le sujet des amitiés artificielles dans les programmes d’alphabétisation sociale et numérique.

Tandis que le commissaire à la sécurité préconise des sociétés d’IA pour intégrer les garanties dans leur Développement des compagnons d’IAil semble peu probable qu’un changement significatif soit dirigé par l’industrie.

Le commissaire s’oriente vers une augmentation règlement de l’exposition des enfants à un matériel en ligne nocif et inapproprié.

Pendant ce temps, les experts continuent d’appeler Surveillance réglementaire plus forteContrôles de contenu et vérification de l’âge robuste.

Anissa Chauvin