0
Suivez-nous
Si vous savez quoi écouter, la voix d’une personne peut vous renseigner sur son niveau d’éducation, son état émotionnel et même sa profession et ses finances, bien plus que vous ne pourriez l’imaginer. Aujourd’hui, les scientifiques affirment que la technologie sous forme d’enregistrements voix-texte peut être utilisée à des fins de prix abusifs, de profilage injuste, de harcèlement ou de traque.
Même si les humains peuvent être sensibles à des signaux plus évidents tels que la fatigue, la nervosité, le bonheur, etc., ordinateurs peut faire la même chose, mais avec beaucoup plus d’informations et beaucoup plus rapidement. Une nouvelle étude affirme que les modèles d’intonation ou votre choix de mots peuvent tout révéler, de vos opinions personnelles à la présence de problèmes de santé ou de problèmes médicaux.
Alors que la technologie de traitement et de reconnaissance vocale présente des opportunités, le professeur agrégé de technologie vocale et linguistique de l’Université Aalto Tom Backströmauteur principal de l’étude, voit le potentiel de risques et de préjudices graves. Si une entreprise comprend votre situation économique ou vos besoins grâce à votre voix, par exemple, elle ouvre la porte à des prix abusifs, comme des primes d’assurance discriminatoires.
Et lorsque les voix peuvent révéler des détails tels que la vulnérabilité émotionnelle, le sexe et d’autres détails personnels, les cybercriminels ou les harceleurs peuvent identifier et suivre les victimes sur toutes les plateformes et les exposer à l’extorsion ou au harcèlement. Ce sont tous des détails que nous transmettons inconsciemment lorsque nous parlons et auxquels nous réagissons inconsciemment avant toute autre chose.
Jennalyn Ponraj, fondatrice de Delaire, futuriste travaillant dans la régulation du système nerveux humain au milieu des technologies émergentes, a déclaré à Live Science : « Très peu d’attention est accordée à la physiologie de l’écoute.
Surveillez votre ton
Même si Bäckström a déclaré à Live Science que la technologie n’était pas encore utilisée, les graines ont été semées.
« La détection automatique de la colère et de la toxicité dans les jeux en ligne et les centres d’appels est ouvertement évoquée. Ce sont des objectifs utiles et éthiquement solides », a-t-il déclaré. « Mais l’adaptation croissante des interfaces vocales aux clients, par exemple – de sorte que le style de parole de la réponse automatisée serait similaire à celui du client – me dit que des objectifs plus suspects ou malveillants sur le plan éthique sont réalisables. »
Il a ajouté que même s’il n’a entendu parler de personne surprise en train de faire quelque chose d’inapproprié avec la technologie, il ne sait pas si c’est parce que personne ne l’a fait ou parce que nous n’avons tout simplement pas cherché.
La raison pour laquelle j’en parle est que je constate que de nombreux outils d’apprentissage automatique pour l’analyse des atteintes à la vie privée sont déjà disponibles et que leur utilisation néfaste n’est pas farfelue.
Tom Bäckström, professeur adjoint à l’Université Aalto
Nous devons également nous rappeler que nos voix sont partout. Entre chaque message vocal que nous laissons et chaque fois qu’une ligne de service client nous indique que l’appel est enregistré à des fins de formation et de qualité, un enregistrement numérique de nos voix existe dans des volumes comparables à notre empreinte numérique, comprenant des publications, des achats et d’autres activités en ligne.
Si, ou quand, un grand assureur se rend compte qu’il peut augmenter ses bénéfices en fixant de manière sélective la couverture en fonction des informations nous concernant glanées grâce à nos voix grâce à l’IA, qu’est-ce qui l’arrêtera ?
Bäckström a déclaré que le simple fait de parler de cette question pourrait ouvrir la boîte de Pandore, sensibilisant à la fois le public et les « adversaires » à la nouvelle technologie. « La raison pour laquelle j’en parle est parce que je constate que de nombreux outils d’apprentissage automatique pour l’analyse des atteintes à la vie privée sont déjà disponibles et que leur utilisation néfaste n’est pas farfelue », a-t-il déclaré. « Si quelqu’un a déjà compris, il pourrait avoir une grande longueur d’avance. »
Il insiste donc sur le fait que le public doit être conscient des dangers potentiels. Dans le cas contraire, « les grandes entreprises et les États de surveillance ont déjà gagné », ajoute-t-il. « Cela semble très sombre, mais j’ai choisi d’espérer pouvoir faire quelque chose à ce sujet. »
Protéger votre voix
Heureusement, il existe des approches techniques potentielles qui peuvent nous aider à nous protéger. La première étape consiste à mesurer exactement ce que nos voix révèlent. Comme le disait Bäckström dans un déclarationil est difficile de créer des outils quand on ne sait pas ce que l’on protège.
Cette idée a conduit à la création du Groupe d’intérêt sur la sécurité et la confidentialité dans la communication vocalequi fournit un forum interdisciplinaire de recherche et un cadre pour quantifier les informations contenues dans la parole.
À partir de là, il est possible de transmettre uniquement les informations strictement nécessaires à la transaction envisagée. Imaginez le système pertinent convertissant la parole en texte pour obtenir les informations brutes nécessaires ; soit l’opérateur de votre fournisseur saisit les informations dans son système (sans enregistrer l’appel réel), soit votre téléphone convertit vos mots en flux de texte pour la transmission.
Comme l’a déclaré Bäckström dans une interview à Live Science : « Les informations transmises au service seraient la plus petite quantité nécessaire pour accomplir la tâche souhaitée. »
Au-delà de cela, a-t-il déclaré, si nous mettons en place l’éthique et les garde-fous de la technologie, elle s’avérera très prometteuse. « Je suis convaincu que les interfaces vocales et la technologie vocale peuvent être utilisées de manière très positive. Une grande partie de nos recherches portent sur le développement d’une technologie vocale qui s’adapte aux utilisateurs afin qu’elle soit plus naturelle à utiliser. »
« La confidentialité devient une préoccupation car une telle adaptation signifie que nous analysons les informations privées – les compétences linguistiques – sur les utilisateurs. Il ne s’agit donc pas nécessairement de supprimer les informations privées, mais plutôt de savoir quelles informations privées sont extraites et à quoi elles servent. »

Voir votre vie privée violée est un sentiment horrible, qu’il s’agisse d’un piratage ou de la diffusion de publicités en ligne sur les réseaux sociaux qui vous font penser qu’une conversation privée n’était pas si privée. Des études comme celle-ci montrent cependant que nous avons à peine effleuré la surface lorsqu’il s’agit de savoir comment nous pouvons être ciblés – en particulier avec quelque chose d’aussi intime et personnel que notre propre voix.
Avec l’amélioration de l’IA et d’autres technologies devenant beaucoup plus sophistiquées, cela met en évidence le fait que nous ne comprenons pas vraiment comment cela nous affectera réellement – en particulier comment la technologie pourrait être utilisée à mauvais escient par certaines forces pour nous exploiter. Bien que la vie privée des consommateurs ait été massivement compromise au cours des dernières décennies, il reste encore beaucoup de place pour utiliser ce que nous détenons près de nous pour le transformer en marchandise, au mieux, ou dans le pire des cas, en une arme contre nous.
Sources des articles
Confidentialité dans la technologie vocale. (2025, 1er juillet). Journaux et magazines IEEE | IEEE Xplore. https://ieeexplore.ieee.org/document/11261339






