
En 14-årig pojke tog sitt liv efter att ha chattat med chatboten från Character.AI. Nu stämmer familjen företaget.
Tonåringen Sewell Setzer III begick självmord år 2023 efter att ha börjat skicka meddelanden till en chatbot från Character.AI, inspirerad av en karaktär från Game of Thrones.
Nu har Megan Garcia, pojkens mamma, lämnat in en stämningsansökan eftersom hon menar att företaget misslyckades med att lansera en produkt för social interaktion utan att tillhandahålla tillräckligt skydd för sårbara användare.
Character.AI har lämnat in en begäran om att avsluta processen med argumentet att chatbotens uttalanden skyddas av det första tillägget i USA:s konstitution, som garanterar yttrandefrihet.
Domaren Anne Conway i Florida (USA) konstaterade dock att företaget inte kunde bevisa hur det språk som genereras av chatboten kvalificeras som skyddat tal enligt konstitutionen.
Noam Shazeer och Daniel De Freitas, grundarna av Character.AI, är inkluderade i stämningen, liksom Google, som anklagas för tekniska kopplingar till startupen. Google har förnekat direkt inblandning i appen och meddelat att de kommer att överklaga beslutet.
Fallet kan sätta unika prejudikat för det juridiska ansvaret hos stora teknikföretag som utvecklar AI-system.
Beroende på beslutet kan rättsväsendet behöva införa strängare gränser för språkbaserade system, ett ämne som har diskuterats sedan de generativa AI-resurserna började användas.
Foto och video: Reproduktion / c.ai. Detta innehåll skapades med hjälp av AI och granskades av redaktionen.
