Anewone
Elite
Exemple récent de ce que je disais l'année dernière. Pour résumé, un ado s'est suicidé récemment, il correspondait régulièrement avec une AI (de la platforme character.ai), il lui a confessé son envie d'en finir. La mère de cet ado poursuit maintenant l'entreprise en justice. Plus d'infos iciSi tu es sophistiqué assez que pour distinguer le bug d'une feature, d'autres utilisateurs - puisque ça sera accessible mondialement - ne le sont pas et prendront ces directives personnellement. Exemple en tête, cet ingénieur de chez Google qui est tombé amoureux de Bard.
Cette minorité d'utilisateurs va contraindre Microsoft a prendre des précautions - aux yeux de la loi ils n'auront pas d'autres choix si ils ne veulent pas crouler sous des class actions.
Mother says AI chatbot led her son to kill himself in lawsuit against its maker
Megan Garcia said Sewell, 14, used Character.ai obsessively before his death and alleges negligence and wrongful death
www.theguardian.com