AI-tool aangeklaagd na zelfdoding van jongen; lees meer

AI-tool aangeklaagd nadat een jongen zichzelf van het leven beroofde; lees meer
AI-tool aangeklaagd nadat een jongen zichzelf van het leven beroofde; lees meer (Foto: Reproductie/c.ai)

Een 14-jarige jongen pleegde zelfmoord na gesprekken met de chatbot van Character.AI. Nu klaagt de familie het bedrijf aan.

De tiener Sewell Setzer III pleegde zelfmoord in 2023 nadat hij berichten begon te sturen naar een chatbot van Character.AI, geïnspireerd door een personage uit Game of Thrones.

Nu heeft Megan Garcia, de moeder van de jongen, een rechtszaak aangespannen omdat zij stelt dat het bedrijf heeft gefaald bij het lanceren van een product gericht op sociale interacties zonder voldoende bescherming voor kwetsbare gebruikers.

Character.AI heeft een verzoek ingediend om de zaak te seponeren met het argument dat de uitspraken van de chatbot worden beschermd door het Eerste Amendement, dat de vrijheid van meningsuiting in de Verenigde Staten waarborgt.

Rechter Anne Conway uit Florida (VS) oordeelde echter dat het bedrijf niet kon aantonen hoe de door de chatbot gegenereerde taal kwalificeert als beschermd spreken onder de grondwet.

Noam Shazeer en Daniel De Freitas, oprichters van Character.AI, zijn opgenomen in de rechtszaak, evenals Google, dat wordt beschuldigd van technische betrokkenheid bij de startup. Google ontkende directe betrokkenheid bij de app en verklaarde in beroep te gaan tegen de beslissing.

De zaak zou een precedent kunnen scheppen over de juridische verantwoordelijkheid van grote technologiebedrijven die AI-systemen ontwikkelen.

Afhankelijk van de uitspraak kan de rechterlijke macht strengere grenzen stellen aan op taal gebaseerde systemen, een onderwerp dat sinds de eerste toepassing van generatieve AI-technologieën in discussie is.

Foto en video: Reproductie / c.ai. Deze inhoud is gemaakt met behulp van AI en beoordeeld door de redactie.

Back to top