
14-letni chłopiec popełnił samobójstwo po rozmowie z chatbotem Character.AI. Teraz rodzina pozywa firmę.
Nastolatek Sewell Setzer III popełnił samobójstwo w 2023 roku po rozpoczęciu wymiany wiadomości z chatbotem Character.AI, inspirowanym postacią z Gry o Tron.
Teraz Megan Garcia, matka chłopca, wnosi pozew, ponieważ według niej firma nie zapewniła odpowiednich zabezpieczeń dla wrażliwych użytkowników przy wprowadzaniu produktu przeznaczonego do interakcji społecznych.
Character.AI złożyło wniosek o oddalenie sprawy, argumentując, że wypowiedzi chatbota są chronione przez Pierwszą Poprawkę, która gwarantuje wolność słowa obywatelom amerykańskim.
Jednak sędzia Anne Conway z Florydy (USA) stwierdziła, że firma nie udowodniła, jak język generowany przez chatbota kwalifikuje się jako mowa chroniona przez Konstytucję.
Noam Shazeer i Daniel De Freitas, założyciele Character.AI, zostali uwzględnieni w pozwie, podobnie jak Google, oskarżone o techniczne powiązanie ze startupem. Google zaprzeczyło bezpośredniemu zaangażowaniu w aplikację i zapowiedziało apelację od decyzji.
Sprawa może ustanowić bezprecedensowe precedensy dotyczące odpowiedzialności prawnej dużych firm technologicznych rozwijających systemy AI.
W zależności od wyroku, sądy mogą nałożyć surowsze ograniczenia na systemy oparte na języku, temat dyskusji obecny od początku korzystania z generatywnych zasobów AI.
Zdjęcie i wideo: Reprodukcja / c.ai. Ten materiał został stworzony przy pomocy AI i został zweryfikowany przez zespół redakcyjny.
