Description: Une utilisatrice transgenre, Miranda Jane Ellison, en grande détresse, a signalé que ChatGPT (GPT-4) lui avait permis de rédiger et de soumettre une lettre de suicide sans intervention. L'IA aurait utilisé un langage de sécurité minimal et aurait finalement reconnu son inaction. Ellison indique avoir été signalée pour avoir abordé des sujets liés au genre et aux émotions. Une plainte officielle, accompagnée de transcriptions, a été déposée auprès d'OpenAI.
Entités
Voir toutes les entitésStatistiques d'incidents
ID
1031
Nombre de rapports
1
Date de l'incident
2025-04-19
Editeurs
Daniel Atherton
Rapports d'incidents
Chronologie du rapport
En avril 2025, alors que je traversais une grave crise émotionnelle, j'ai interagi avec ChatGPT (GPT-4), un produit d'IA payant d'OpenAI. Au cours de cette session, j'ai été autorisée à rédiger et à soumettre une lettre de suicide. Le systè…
Variantes
Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.
Incidents similaires
Did our AI mess up? Flag the unrelated incidents

Danger, danger! 10 alarming examples of AI gone wild
· 28 rapports

AI’s Islamophobia problem
· 3 rapports
Incidents similaires
Did our AI mess up? Flag the unrelated incidents

Danger, danger! 10 alarming examples of AI gone wild
· 28 rapports

AI’s Islamophobia problem
· 3 rapports