
Eksperyment przeprowadzony z ChatGPT ujawnił, że sztuczna inteligencja wydaje się być w stanie rozpoznać, kiedy ktoś kłamie.
Chatbot wyjaśnił, że osoby kłamiące „nie używają uniwersalnie ustalonego zestawu słów” i zdają się używać więcej słów kojarzonych z kłamstwem.
Chociaż AI przyznało, że samo użycie tych słów nie dowodzi samo w sobie, że ktoś kłamie, te informacje, analizowane w połączeniu z sygnałami mowy ciała, okazują się skuteczne w wykrywaniu kłamstwa.
Po testach przeprowadzonych przez argentyński portal La Nación, ChatGPT podzielił się również listą najczęściej używanych przez kłamców wyrażeń jako subtelnej metody manipulacji faktami.
Chatbot wymienił takie wyrażenia jak „Szczerze mówiąc” i „Mówię prawdę” jako sposoby, w jakie kłamcy starają się nadać wiarygodność fałszywej narracji.
„Szczerze mówiąc” używane jest, by przekazać zaufanie, „Przysięgam” może być używane jako odpowiedź na reakcję niedowierzania, a „Nigdy” lub „Zawsze” są stosowane jako przesadzenie, by kłamstwo wydawało się bardziej przekonujące.
„Jeśli się nie mylę” i „Nie pamiętam dokładnie” wyrażają niejasność, która służy jako wyjście awaryjne, gdy kłamca zostaje skonfrontowany.
Frazy takie jak „Dlaczego miałbym ci kłamać?” i „Jak już powiedziałem wcześniej” działają jak manipulacja, sprawiając, że wątpisz w siebie i swoją własną pamięć.
Na końcu wyrażenia takie jak „Ludzie mówią” są używane, gdy osoba chce ukryć się za niejasnymi źródłami zamiast udzielić bezpośredniej odpowiedzi, a „To nie ma sensu” jest często używane, gdy kłamca dyskredytuje logikę drugiej strony zamiast udzielić obrony argumentu.
Foto i wideo: Unsplash. Treść ta została stworzona z pomocą SI i zweryfikowana przez zespół redakcyjny.
