
Après la tendance virale consistant à créer des figurines à l’aide de ChatGPT, des experts lancent une importante alerte concernant la protection de la vie privée.
Pour participer à cette tendance, les utilisateurs envoyaient une photo d’eux-mêmes à ChatGPT accompagnée de quelques informations personnelles, comme des passe-temps, qui étaient utilisés pour personnaliser l’emballage de la figurine.
Cela semble plutôt inoffensif, non ? Pourtant, Tom Vazdar, responsable de la cybersécurité à l’Open Institute of Technology, a révélé certains dangers liés au partage de données personnelles avec l’IA.
Selon lui, chaque fois que vous partagez une photo avec ChatGPT, celle-ci est ajoutée à l’ensemble des données de l’IA. « Cela inclut les métadonnées EXIF associées au fichier image, comme l’heure à laquelle la photo a été prise et les coordonnées GPS du lieu », a expliqué Vazdar au site Wired.
« Comme les plateformes comme ChatGPT fonctionnent de manière conversationnelle, des données comportementales sont également collectées, comme ce que vous tapez, le type d’images que vous demandez, comment vous interagissez avec l’interface et la fréquence de ces actions. »
Autrement dit, si vous envoyez une photo de votre visage, vous donnez non seulement accès à votre visage, mais aussi à ce qui se trouve en arrière-plan — comme l’endroit où vous êtes ou les autres personnes présentes sur la photo.
« Cette tendance, qu’elle soit intentionnelle ou simplement une opportunité bien exploitée, fournit à l’entreprise de grandes quantités de données faciales nouvelles et de haute qualité, issues de différentes tranches d’âge, origines ethniques et zones géographiques », a ajouté Vazdar.
Photo et vidéo : Instagram @galisteuoficial. Ce contenu a été créé avec l’aide de l’IA et relu par l’équipe éditoriale.
