
Po viralowym trendzie tworzenia lalek z pomocą ChatGPT, eksperci wystosowali poważne ostrzeżenie dotyczące prywatności.
Aby wziąć udział w trendzie, użytkownicy przesyłali swoje zdjęcie do ChatGPT wraz z kilkoma informacjami o sobie, np. hobby, które wykorzystywano jako element opakowania zabawki.
Brzmi niewinnie, prawda? Jednak Tom Vazdar, szef działu cyberbezpieczeństwa w Open Institute of Technology, ujawnił pewne zagrożenia związane z udostępnianiem danych osobowych sztucznej inteligencji.
Według niego, każde zdjęcie przesłane do ChatGPT trafia do zbioru danych AI. „Obejmuje to dane EXIF dołączone do pliku zdjęcia, takie jak data wykonania i współrzędne GPS miejsca, w którym je zrobiono,” wyjaśnił Vazdar w rozmowie z Wired.
„Ponieważ platformy takie jak ChatGPT działają konwersacyjnie, gromadzą również dane behawioralne — np. co wpisywałeś, jakiego rodzaju obrazy zamawiałeś, jak korzystałeś z interfejsu i jak często to robiłeś.”
Innymi słowy, wysyłając zdjęcie swojej twarzy, dajesz AI dostęp nie tylko do swojego wizerunku, ale również do tego, co znajduje się w tle — jak lokalizacja czy inne osoby na zdjęciu.
„Ten trend — celowo lub jako wygodna okazja — dostarcza firmie ogromnych ilości nowych, wysokiej jakości danych twarzy, pochodzących z różnych grup wiekowych, etnicznych i geograficznych,” dodał Vazdar.
Zdjęcie i wideo: Instagram @galisteuoficial. Treść została stworzona przy wsparciu AI i zredagowana przez zespół redakcyjny.
