Eksperci ostrzegają przed zagrożeniami dla prywatności po viralowym trendzie z lalkami ChatGPT

Especialistas fazem alerta de privacidade após trend viral de bonecos do ChatGPT
Eksperci ostrzegają przed zagrożeniami dla prywatności po viralowym trendzie z lalkami ChatGPT (Foto: Instagram)

Po viralowym trendzie tworzenia lalek z pomocą ChatGPT, eksperci wystosowali poważne ostrzeżenie dotyczące prywatności.

Aby wziąć udział w trendzie, użytkownicy przesyłali swoje zdjęcie do ChatGPT wraz z kilkoma informacjami o sobie, np. hobby, które wykorzystywano jako element opakowania zabawki.

Brzmi niewinnie, prawda? Jednak Tom Vazdar, szef działu cyberbezpieczeństwa w Open Institute of Technology, ujawnił pewne zagrożenia związane z udostępnianiem danych osobowych sztucznej inteligencji.

Według niego, każde zdjęcie przesłane do ChatGPT trafia do zbioru danych AI. „Obejmuje to dane EXIF dołączone do pliku zdjęcia, takie jak data wykonania i współrzędne GPS miejsca, w którym je zrobiono,” wyjaśnił Vazdar w rozmowie z Wired.

„Ponieważ platformy takie jak ChatGPT działają konwersacyjnie, gromadzą również dane behawioralne — np. co wpisywałeś, jakiego rodzaju obrazy zamawiałeś, jak korzystałeś z interfejsu i jak często to robiłeś.”

Innymi słowy, wysyłając zdjęcie swojej twarzy, dajesz AI dostęp nie tylko do swojego wizerunku, ale również do tego, co znajduje się w tle — jak lokalizacja czy inne osoby na zdjęciu.

„Ten trend — celowo lub jako wygodna okazja — dostarcza firmie ogromnych ilości nowych, wysokiej jakości danych twarzy, pochodzących z różnych grup wiekowych, etnicznych i geograficznych,” dodał Vazdar.

Zdjęcie i wideo: Instagram @galisteuoficial. Treść została stworzona przy wsparciu AI i zredagowana przez zespół redakcyjny.

Back to top