A woman standing in an abstract artificially constructed environment

L’IA « peut retarder les compétences nécessaires à l’auto-création indépendante » : s’appuyer sur des algorithmes pourrait remodeler toute votre identité sans que vous vous en rendiez compte

Par Anissa Chauvin



La montée de intelligence artificielle (IA) pose des questions non seulement sur la technologie et la pléthore élargie de possibilités qu’elle apporte, mais aussi sur la moralité, l’éthique et la philosophie. L’introduction de cette nouvelle technologie a des implications sur la santé, le droit, l’armée, la nature du travail, la politique et même sur notre propre identité – ce qui nous rend humains et comment nous parvenons à nous identifier.

« Moralité de l’IA » (Oxford University Press, 2024), édité par le philosophe britannique David Edmondsest un recueil d’essais d’un « groupe de travail philosophique » explorant comment l’IA va révolutionner nos vies et les dilemmes moraux qu’elle déclenchera, dressant un tableau immersif des raisons d’être joyeux et des raisons de s’inquiéter. Dans cet extrait, Muriel Leuenbergerchercheur postdoctoral en éthique de la technologie et de l’IA à l’Université de Zurich, se concentre sur la manière dont l’IA façonne déjà nos identités.

Son essai, intitulé « Devriez-vous laisser l’IA vous dire qui vous êtes et ce que vous devriez faire ? » explique comment les algorithmes d’apprentissage automatique qui dominent les plateformes numériques d’aujourd’hui – des médias sociaux aux applications de rencontres – peuvent en savoir plus sur nous que nous-mêmes. Mais, postule-t-elle, pouvons-nous leur faire confiance pour prendre les meilleures décisions pour nous, et qu’est-ce que cela signifie pour notre agence ?


Votre téléphone et ses applications en savent beaucoup sur vous. Avec qui parlez-vous et passez-vous du temps, où vous allez, quelle musique, quels jeux et quels films vous aimez, à quoi vous ressemblez, quels articles de presse vous lisez, qui vous trouvez attirant, ce que vous achetez avec votre carte de crédit et combien les mesures que vous prenez. Ces informations sont déjà exploitées pour nous vendre des produits, des services ou des politiciens. Les traces en ligne permettent à des entreprises comme Google ou Facebook de déduire vos opinions politiques, vos préférences de consommation, si vous êtes un amateur de sensations fortes, un amoureux des animaux ou un petit employeur, quelle est la probabilité que vous deveniez bientôt parent, ou même si vous sont susceptibles de souffrir de dépression ou d’insomnie.

Avec l’utilisation de l’intelligence artificielle et la numérisation croissante des vies humaines, il n’est plus impensable que l’IA puisse vous connaître mieux que vous-même. Les profils d’utilisateurs personnels générés par les systèmes d’IA pourraient devenir plus précis dans la description de leurs valeurs, intérêts, traits de caractère, préjugés ou troubles mentaux que l’utilisateur lui-même. La technologie peut déjà fournir des informations personnelles que les individus ne connaissent pas eux-mêmes. Yuval Harari exagère mais fait valoir un point similaire lorsqu’il affirme qu’il deviendra rationnel et naturel de choisir les partenaires, les amis, les emplois, les fêtes et les foyers suggérés par l’IA. L’IA sera capable de combiner les vastes informations personnelles vous concernant avec des informations générales sur la psychologie, les relations, l’emploi, la politique et la géographie, et elle sera plus à même de simuler des scénarios possibles concernant ces choix.

Il pourrait donc sembler qu’une IA qui vous permette de savoir qui vous êtes et ce que vous devez faire serait formidable, pas seulement dans les cas extrêmes, à la Harari, mais plus prosaïquement pour les systèmes de recommandation courants et le profilage numérique. Je voudrais évoquer deux raisons pour lesquelles ce n’est pas le cas.

Confiance

Comment savoir si vous pouvez faire confiance à un système d’IA ? Comment être sûr qu’il vous connaît vraiment et qu’il vous fasse de bonnes recommandations ? Imaginez un ami vous disant que vous devriez sortir avec son cousin Alex parce que vous seriez tous les deux parfaitement assortis. Lorsque vous décidez de rencontrer Alex, vous réfléchissez à la fiabilité de votre ami. Vous pouvez prendre en compte la fiabilité de votre ami (est-il actuellement ivre et ne pense pas clairement ?), sa compétence (dans quelle mesure vous connaît-il vous et Alex, dans quelle mesure est-il doué pour porter des jugements sur la compatibilité amoureuse ?) et ses intentions (veut-il que vous le fassiez être heureux, vous tromper ou abandonner son ennuyeux cousin pour une soirée ?). Pour savoir si vous devez suivre les conseils de votre ami, vous pouvez l’interroger gentiment : pourquoi pense-t-il que vous aimeriez Alex, qu’est-ce qu’il pense que vous avez en commun ?

C’est déjà assez compliqué. Mais les jugements de confiance dans l’IA sont encore plus compliqués. Il est difficile de comprendre ce qu’une IA sait réellement de vous et à quel point ses informations sont fiables. De nombreux systèmes d’IA se sont révélés biaisés – ils ont, par exemple, reproduit des préjugés raciaux et sexistes à partir de leurs données d’entraînement – ​​nous ferions donc bien de ne pas leur faire aveuglément confiance. En règle générale, nous ne pouvons pas demander à une IA d’expliquer sa recommandation, et il est difficile d’évaluer sa fiabilité, ses compétences et les intentions du développeur. Les algorithmes derrière les prédictions, les caractérisations et les décisions de l’IA sont généralement la propriété de l’entreprise et ne sont pas accessibles à l’utilisateur. Et même si ces informations étaient disponibles, il faudrait un haut degré d’expertise pour les comprendre. Comment ces enregistrements d’achat et ces publications sur les réseaux sociaux se traduisent-ils en traits de caractère et préférences politiques ? En raison de l’opacité très discutée, ou de la nature de « boîte noire » de certains systèmes d’IA, même ceux qui maîtrisent l’informatique peuvent ne pas être en mesure de comprendre pleinement un système d’IA. Le processus par lequel l’IA génère un résultat est en grande partie autodirigé (ce qui signifie qu’elle génère ses propres stratégies sans suivre de règles strictes conçues par les développeurs) et difficile, voire presque impossible, à interpréter.

Créez-vous !

Même si nous disposions d’une IA raisonnablement fiable, une deuxième préoccupation éthique demeurerait. Une IA qui vous dit qui vous êtes et ce que vous devez faire repose sur l’idée que votre identité est quelque chose que vous pouvez découvrir – des informations auxquelles vous ou une IA pouvez accéder. Qui vous êtes vraiment et ce que vous devriez faire de votre vie est accessible grâce à l’analyse statistique, à certaines données personnelles et à des faits sur la psychologie, les institutions sociales, les relations, la biologie et l’économie. Mais cette vision oublie un point important : nous choisissons également qui nous sommes. Vous n’êtes pas un sujet passif vis-à-vis de votre identité – c’est quelque chose que vous créez activement et dynamiquement. Vous développez, entretenez et façonnez votre identité. Cette facette auto-créationniste de l’identité a été au centre de la philosophie existentialiste, comme l’illustre Jean-Paul Sartre. Les existentialistes nient que les humains soient définis par une nature ou une « essence » prédéterminée. Exister sans essence, c’est toujours devenir autre que celui que l’on est aujourd’hui. Nous nous créons continuellement et devrions le faire librement et indépendamment. Dans les limites de certains faits – où vous êtes né, quelle est votre taille, ce que vous avez dit à votre ami hier – vous êtes radicalement libre et moralement tenu de construire votre propre identité et de définir ce qui a du sens pour vous. Fondamentalement, l’objectif n’est pas de découvrir la seule et unique bonne façon d’être, mais de choisir sa propre identité individuelle et d’en assumer la responsabilité.

L’IA peut vous donner une perspective externe et quantifiée qui peut agir comme un miroir et suggérer des lignes de conduite. Mais vous devez rester aux commandes et vous assurer que vous assumez la responsabilité de qui vous êtes et de la façon dont vous vivez votre vie. Une IA peut énoncer de nombreux faits sur vous, mais il est de votre devoir de découvrir ce qu’ils signifient pour vous et comment vous les laissez vous définir. Il en va de même pour les actions. Vos actions ne sont pas seulement une manière de rechercher le bien-être. Par vos actions, vous choisissez quel genre de personne vous êtes. Suivre aveuglément l’IA implique de renoncer à la liberté de se créer soi-même et de renoncer à la responsabilité de qui on est. Cela équivaudrait à un échec moral.

En fin de compte, compter sur l’IA pour vous dire qui vous êtes et ce que vous devez faire peut retarder les compétences nécessaires à l’auto-création indépendante. Si vous utilisez constamment une IA pour trouver la musique, la carrière ou le candidat politique que vous aimez, vous pourriez éventuellement oublier comment le faire vous-même. L’IA peut vous déqualifier non seulement au niveau professionnel, mais aussi dans la quête intime et personnelle de l’auto-création. Bien choisir dans la vie et construire une identité qui a du sens et qui vous rend heureux est un accomplissement. En sous-traitant ce pouvoir à une IA, vous perdez progressivement la responsabilité de votre vie et in fine de qui vous êtes.

Une crise d’identité très moderne

Vous souhaiterez peut-être parfois que quelqu’un vous dise quoi faire ou qui vous êtes. Mais comme nous l’avons vu, cela a un coût. Il est difficile de savoir si et quand faire confiance aux systèmes de profilage et de recommandation d’IA. Plus important encore, en sous-traitant les décisions à l’IA, vous risquez de ne pas répondre à l’exigence morale de vous créer et d’assumer la responsabilité de qui vous êtes. Ce faisant, vous risquez de perdre vos compétences d’auto-création, de calcifier votre identité et de céder le pouvoir sur votre identité aux entreprises et au gouvernement. Ces préoccupations pèsent particulièrement lourd dans les cas impliquant les décisions et les caractéristiques les plus importantes de votre identité. Mais même dans des cas plus banals, il serait bon de mettre de temps en temps de côté les systèmes de recommandation et d’être plus actif et créatif dans la sélection de films, de musique, de livres ou d’actualités. Cela nécessite à son tour de la recherche, du risque et une introspection.

Bien sûr, nous faisons souvent de mauvais choix. Mais cela a un avantage. En vous exposant à des influences et à des environnements qui ne sont pas parfaitement alignés avec qui vous êtes actuellement, vous vous développez. Déménager dans une ville qui vous rend malheureux pourrait perturber vos rythmes de vie habituels et vous pousser, par exemple, à rechercher un nouveau passe-temps. S’appuyer constamment sur les systèmes de recommandation d’IA peut calcifier votre identité. Il ne s’agit cependant pas d’une caractéristique nécessaire des systèmes de recommandation. En théorie, ils pourraient être conçus pour élargir l’horizon de l’utilisateur, au lieu de maximiser l’engagement en montrant aux clients ce qu’ils aiment déjà. En pratique, ce n’est pas ainsi qu’ils fonctionnent.

Cet effet calcifiant est renforcé lorsque le profilage de l’IA devient une prophétie auto-réalisatrice. Cela peut lentement vous transformer en ce que l’IA a prédit que vous serez et perpétuer les caractéristiques que l’IA a acquises. En recommandant des produits et en diffusant des publicités, des actualités et d’autres contenus, vous devenez plus susceptible de consommer, de penser et d’agir de la manière que le système d’IA a initialement jugée appropriée pour vous. La technologie peut progressivement vous influencer de telle sorte que vous devenez celui qu’il vous a fallu pour être à l’origine.

Clause de non-responsabilité

Cet extrait, écrit par Muriel Leuenberger, a été édité pour des raisons de style et de longueur. Reproduit avec la permission de « AI Ethics » édité par David Edmonds, publié par Oxford University Press. © 2024. Tous droits réservés.


Moralité de l’IA : 18,75 $ sur Amazon États-Unis

Il n’y a pas de question plus importante à l’heure actuelle que celle de l’IA. Elle a commencé à pénétrer presque toutes les sphères de l’activité humaine. Cela va complètement bouleverser nos vies. David Edmonds rassemble une équipe d’éminents philosophes pour explorer certaines des préoccupations morales urgentes que nous devrions avoir à propos de cette révolution. Les chapitres traitent de soi et de l’identité, de la santé et de l’assurance, de la politique et de la manipulation, de l’environnement, du travail, du droit, du maintien de l’ordre et de la défense. Chacun d’eux explique le problème de manière vivante et éclairante, et donne son avis sur la façon dont nous devrions penser et agir en réponse. Quiconque s’interroge sur les défis éthiques que l’avenir nous réserve peut commencer ici.

Anissa Chauvin