
Une expérience réalisée avec ChatGPT a révélé que l’intelligence artificielle semble capable d’identifier quand quelqu’un ment.
Le chatbot a expliqué que les personnes qui mentent « n’utilisent pas un ensemble universellement fixe de mots » et semblent utiliser davantage de mots associés au mensonge.
Bien que l’IA ait admis que l’utilisation de ces mots ne prouve pas à elle seule qu’une personne ment, ces informations, analysées conjointement avec les signaux du langage corporel, s’avèrent efficaces pour détecter le mensonge.
Après les tests menés par le portail argentin La Nación, ChatGPT a également partagé une liste des termes les plus utilisés par les menteurs comme méthode de manipulation subtile des faits.
Le chatbot a cité des termes tels que « Honnêtement » et « Je dis la vérité » comme des façons dont les menteurs essaient de donner de la crédibilité à un récit faux.
« Pour être honnête » est utilisé pour transmettre la confiance, « Je jure » peut être utilisé en réponse à une réaction de scepticisme, tandis que « Jamais » ou « Toujours » sont employés comme des formes d’exagération pour rendre le mensonge plus convaincant.
« Si je ne me trompe pas » et « Je ne me souviens pas bien » transmettent une ambiguïté, utilisée comme échappatoire si le menteur est confronté.
Des phrases comme « Pourquoi te mentirais-je ? » et « Comme je l’ai déjà dit » agissent comme des formes de manipulation, vous faisant douter de vous-même et de votre propre mémoire.
Enfin, des termes tels que « Les gens disent » sont employés lorsque la personne cherche à se cacher derrière des sources vagues plutôt que de fournir une réponse directe, et « Ça n’a pas de sens » est souvent utilisé lorsque le menteur discrédite la logique de l’autre au lieu de défendre son argument.
Photo et vidéo : Unsplash. Ce contenu a été créé avec l’aide de l’IA et revu par l’équipe éditoriale.
