
Ένα 14χρονο αγόρι αυτοκτόνησε μετά από συνομιλία με το chatbot της Character.AI. Τώρα, η οικογένεια του προσφεύγει δικαστικά κατά της εταιρείας.
Ο έφηβος Sewell Setzer III αυτοκτόνησε το 2023 αφού άρχισε να ανταλλάσσει μηνύματα με ένα chatbot της Character.AI εμπνευσμένο από χαρακτήρα της σειράς Game of Thrones.
Τώρα, η Megan Garcia, μητέρα του αγοριού, κινεί νομικές διαδικασίες ισχυριζόμενη ότι η εταιρεία απέτυχε να κυκλοφορήσει ένα προϊόν για κοινωνικές αλληλεπιδράσεις χωρίς επαρκή προστασία για ευάλωτους χρήστες.
Η Character.AI κατέθεσε αίτηση απόρριψης της υπόθεσης με το επιχείρημα ότι οι δηλώσεις του chatbot προστατεύονται από την Πρώτη Τροπολογία του αμερικανικού Συντάγματος, η οποία εγγυάται την ελευθερία του λόγου.
Ωστόσο, η δικαστής Anne Conway από τη Φλόριντα (ΗΠΑ) δήλωσε ότι η εταιρεία δεν απέδειξε πώς η γλώσσα που παράγεται από το chatbot εμπίπτει στον προστατευόμενο λόγο του Συντάγματος.
Οι Noam Shazeer και Daniel De Freitas, ιδρυτές της Character.AI, συμπεριλήφθηκαν στη δίκη, μαζί με την Google, η οποία κατηγορείται για τεχνική σύνδεση με τη νεοσύστατη εταιρεία. Η Google αρνήθηκε άμεση εμπλοκή στην εφαρμογή και δήλωσε ότι θα ασκήσει έφεση στην απόφαση.
Η υπόθεση μπορεί να θέσει πρωτοφανή νομικά προηγούμενα σχετικά με την ευθύνη των μεγάλων τεχνολογικών εταιρειών που αναπτύσσουν συστήματα τεχνητής νοημοσύνης.
Ανάλογα με την απόφαση, τα δικαστήρια ενδέχεται να επιβάλουν αυστηρότερους περιορισμούς στα συστήματα βασισμένα στη γλώσσα, ένα θέμα που συζητείται από την αρχή της χρήσης των γενετικών πόρων τεχνητής νοημοσύνης.
Φωτογραφία και βίντεο: Αναπαραγωγή / c.ai. Αυτό το περιεχόμενο δημιουργήθηκε με τη βοήθεια τεχνητής νοημοσύνης και επιθεωρήθηκε από την επιτελική ομάδα.
