Intelligence artificielle (IA) pourrait détenir la clé pour cacher vos photos personnelles aux logiciels de reconnaissance faciale indésirables et aux fraudeurs, le tout sans détruire la qualité de l’image.
Une nouvelle étude de l’université Georgia Tech, publiée le 19 juillet en pré-impression arXiv base de données, détaille comment les chercheurs ont créé un modèle d’IA appelé « Chameleon », qui peut produire un « masque numérique unique et personnalisé de protection de la vie privée (P-3) » pour les photos personnelles qui empêche l’analyse faciale indésirable de détecter le visage d’une personne. Chameleon fera en sorte que les scanners de reconnaissance faciale reconnaissent les photos comme étant celles de quelqu’un d’autre.
« Le partage de données et les analyses préservant la confidentialité comme Chameleon contribueront à faire progresser la gouvernance et l’adoption responsable de la technologie de l’IA et à stimuler une science et une innovation responsables », a déclaré l’auteur principal de l’étude. Ling Liuprofesseur d’informatique basée sur les données et l’intelligence à la School of Computer Science de Georgia Tech (qui a développé le modèle Chameleon aux côtés d’autres chercheurs), dans une déclaration.
Les systèmes de reconnaissance faciale sont désormais monnaie courante dans la vie quotidienne, des caméras de police au Face ID des iPhones. Mais une analyse indésirable ou non autorisée peut amener les cybercriminels à collecter des images à des fins d’escroquerie, de fraude ou de harcèlement. Ils peuvent même collecter des images pour constituer des bases de données à utiliser pour le ciblage publicitaire indésirable et les cyberattaques.
Fabriquer des masques
Même si le masquage des images n’a rien de nouveau, les systèmes existants masquent souvent des détails clés de la photo d’une personne ou ne parviennent pas à préserver une image de qualité réelle en introduisant des artefacts numériques. Pour surmonter ce problème, les chercheurs ont déclaré que Chameleon possède trois caractéristiques spécifiques.
La première est l’utilisation de l’optimisation inter-images qui permet à Chameleon de créer un masque P3 par utilisateur, plutôt qu’un nouveau masque pour chaque image. Cela signifie que le système d’IA peut offrir une protection instantanée à un utilisateur et permet également une utilisation plus efficace de ressources informatiques limitées ; ce dernier serait probablement utile si Chameleon devait être adopté pour être utilisé dans des appareils tels que les smartphones.
Deuxièmement, Chameleon intègre « une optimisation de la perceptibilité » — cela fait référence à la façon dont une image est rendue automatiquement, sans intervention manuelle ni réglage de paramètres — pour garantir que la qualité visuelle d’une image faciale protégée est préservée.
La troisième caractéristique est le renforcement d’un masque P3 afin qu’il soit suffisamment robuste pour déjouer les modèles de reconnaissance faciale inconnus. Cela se fait en intégrant une diversité focale optimisée apprentissage d’ensemble dans le processus de génération de masques. En d’autres termes, il utilise une technique d’apprentissage automatique qui combine les prédictions de plusieurs modèles pour améliorer la précision de l’algorithme.
À terme, les chercheurs souhaiteraient appliquer les méthodes d’obscurcissement de Chameleon au-delà de la protection des images personnelles des utilisateurs individuels.
« Nous aimerions utiliser ces techniques pour protéger les images contre leur utilisation pour former des modèles génératifs d’intelligence artificielle. Nous pourrions protéger les informations sur les images contre leur utilisation sans consentement », a déclaré un doctorant de Georgia Tech. Tiansheng Huangqui a également participé au développement de Chameleon.