Outil d’IA poursuivi en justice après le suicide d’un garçon; découvrez les détails

Un outil d'IA poursuivi après le suicide d'un garçon ; découvrez l'histoire
Un outil d’IA poursuivi après le suicide d’un garçon ; découvrez l’histoire (Photo : Reproduction/c.ai)

Un garçon de 14 ans s’est suicidé après avoir discuté avec le chatbot de Character.AI. Maintenant, sa famille poursuit l’entreprise.

L’adolescent Sewell Setzer III s’est donné la mort en 2023 après avoir commencé à échanger des messages avec un chatbot de Character.AI, inspiré d’un personnage de Game of Thrones.

Désormais, Megan Garcia, la mère du garçon, a intenté une action en justice, affirmant que l’entreprise a échoué à lancer un produit destiné aux interactions sociales sans mettre en place des protections adéquates pour les utilisateurs vulnérables.

Character.AI a déposé une demande de rejet de l’affaire, arguant que les propos du chatbot sont protégés par le Premier Amendement de la Constitution américaine, garantissant la liberté d’expression.

Cependant, la juge Anne Conway, de Floride (États-Unis), a déclaré que l’entreprise n’a pas réussi à prouver en quoi le langage généré par le chatbot peut être considéré comme un discours protégé par la Constitution.

Noam Shazeer et Daniel De Freitas, les fondateurs de Character.AI, ont été inclus dans le procès, ainsi que Google, accusé de liens techniques avec la startup. Google a nié toute implication directe dans l’application et a annoncé qu’il ferait appel de la décision.

L’affaire pourrait établir un précédent inédit concernant la responsabilité légale des grandes entreprises technologiques qui développent des systèmes d’IA.

En fonction du verdict, la justice pourrait imposer des limites plus strictes aux systèmes basés sur le langage, un sujet de discussion qui a émergé depuis les premières utilisations des ressources d’IA générative.

Photo et vidéo : Reproduction / c.ai. Ce contenu a été créé à l’aide d’une IA et révisé par l’équipe éditoriale.

Back to top