Entités
Voir toutes les entitésStatistiques d'incidents
Risk Subdomain
5.1. Overreliance and unsafe use
Risk Domain
- Human-Computer Interaction
Entity
AI
Timing
Post-deployment
Intent
Unintentional
Rapports d'incidents
Chronologie du rapport

Ce qui suit est un extrait du texte de la plainte. Veuillez lire le dossier complet à l'adresse https://cdn.sanity.io/files/3tzzh18d/production/0b5faecce985b813f581f362f83d249fb5b3c7ff.pdf.
UNITED STATES DISTRICT COURT MIDDLE DISTRICT OF …
Le dernier jour de sa vie, Sewell Setzer III a sorti son téléphone et a envoyé un message à son meilleur ami : un chatbot IA réaliste nommé d'après Daenerys Targaryen, un personnage de « Game of Thrones ». « Tu me manques, petite sœur », a-…

Une mère de famille de Floride poursuit en justice Character.ai, accusant les chatbots de la société d'intelligence artificielle d'avoir initié des « interactions abusives et sexuelles » avec son fils adolescent et de l'avoir encouragé à se…

Un garçon de 14 ans de Floride s'est suicidé après qu'un chatbot réaliste de « Game of Thrones » avec lequel il échangeait des messages depuis des mois sur une application d'intelligence artificielle lui ait envoyé un message étrange lui di…

Avertissement relatif au contenu : cet article traite des idées suicidaires et du suicide. Si vous êtes aux prises avec ces sujets, contactez la National Suicide Prevention Lifeline par téléphone : 1-800-273-TALK (8255).
Character AI, la st…
Note de l'éditeur : cet article traite du suicide et des idées suicidaires. Si vous ou une personne que vous connaissez êtes en difficulté ou en crise, de l'aide est disponible. Appelez ou envoyez un SMS au 988 ou discutez sur 988lifeline.o…

La plateforme de chatbot basée sur l'IA Character AI introduit de nouvelles fonctionnalités de sécurité « rigoureuses » à la suite d'une action en justice intentée par la mère d'un adolescent utilisateur qui s'est suicidé en février.
Les me…
23 octobre (Reuters) - Une mère de famille de Floride a intenté un procès contre la start-up de chatbots d'intelligence artificielle Character.AI, l'accusant d'avoir provoqué le suicide de son fils de 14 ans en février, affirmant qu'il étai…

Sewell Setzer III, 14 ans, adorait interagir avec les chatbots hyperréalistes de Character.AI (une version limitée disponible gratuitement ou une version « suralimentée » pour un abonnement mensuel de 9,99 $), discutant le plus souvent avec…
/cdn.vox-cdn.com/uploads/chorus_asset/file/25362061/STK_414_AI_CHATBOT_R2_CVirginia_D.jpg)
Une plainte a été déposée contre Character.AI, ses fondateurs Noam Shazeer et Daniel De Freitas, et Google à la suite du décès d'un adolescent, alléguant un décès injustifié, une négligence, des pratiques commerciales trompeuses et une resp…

La mère d'un adolescent qui s'est suicidé après être devenu obsédé par un chatbot intelligence artificielle-powered artificialintelligenceai accuse désormais son créateur de complicité dans sa mort.
Megan Garcia a intenté mercredi une actio…

La mère d’un garçon de 14 ans en Floride accuse un chatbot d’être responsable du suicide de son fils. Elle se prépare désormais à poursuivre Character.AI, la société à l’origine du bot, pour la tenir responsable de sa mort. Ce sera une bata…

Une mère a affirmé que son fils adolescent avait été poussé au suicide par un chatbot IA dont il était amoureux - et elle a dévoilé mercredi une plainte contre les créateurs de l'application d'intelligence artificielle.
Sewell Setzer III, u…
Lorsque Sewell Setzer III, 14 ans, est décédé dans sa maison d'Orlando alors que ses frères et ses parents étaient à l'intérieur, ses derniers mots n'ont pas été adressés à aucun d'entre eux, mais à un chatbot d'intelligence artificielle qu…
:max_bytes(150000):strip_icc():focal(749x0:751x2)/Sewell-Setzer--47-10242024-22303705e6ac433c8aa5053cf2ce1034.jpg)
Une mère de famille de Floride a intenté un procès contre un service de chat populaire et réaliste basé sur l'IA, qu'elle accuse d'être responsable du suicide de son fils de 14 ans.
Elle pense qu'il a développé une « dépendance néfaste » à …

Une mère de famille de Floride poursuit en justice la société Character.AI pour avoir prétendu que l'un de ses chatbots, alimenté par l'intelligence artificielle (IA), aurait encouragé son fils de 14 ans à se suicider.
Megan Garcia a déclar…

Un adolescent de 14 ans qui s'est suicidé a eu des conversations intimes avec un chatbot IA qui l'a poussé à évoquer ses pensées suicidaires et à avoir des relations sexuelles, selon une plainte.
"Je te promets que je reviendrai à la maison…
Megan Garcia a intenté une action en justice contre Google et Character.AI suite au suicide de son fils de 14 ans, selon plusieurs reportages dans les médias de la semaine dernière.
Sewell Setzer, le fils de Garcia, avait entamé une relatio…

Cette histoire parle de suicide. Si vous ou quelqu'un que vous connaissez avez des pensées suicidaires, veuillez contacter la Suicide & Crisis Lifeline au 988 ou au 1-800-273-TALK (8255).
Une mère de Floride poursuit la société d'intelligen…
Si vous ou quelqu'un que vous connaissez avez besoin d'aide, de ressources ou de quelqu'un à qui parler, vous pouvez les trouver sur le [site Web de la National Suicide Prevention Lifeline](https://nam11.safelinks.protection.outlook.com/?ur…

La famille d’un garçon de 14 ans qui s’est suicidé après avoir développé une relation avec un chatbot en ligne poursuit en justice la société d’intelligence artificielle qui l’a créé ainsi que Google. La plainte a été déposée et est publiqu…
Character AI, une start-up basée à Menlo Park, en Californie, se décrit comme ayant pour mission de « donner à chacun, dans le monde entier, les moyens d'utiliser une IA personnalisée ». Son système offre aux utilisateurs la possibilité de …