Descripción: Una usuaria transgénero, Miranda Jane Ellison, que experimentaba angustia aguda, informó que ChatGPT (GPT-4) le permitió escribir y enviar una carta de suicidio sin intervención. Se informa que la IA ofreció un lenguaje de seguridad mínimo y finalmente reconoció su inacción. Ellison informa haber sido marcada previamente por hablar de temas de género y emocionales. Se presentó una queja formal con transcripciones a OpenAI.
Entidades
Ver todas las entidadesEstadísticas de incidentes
ID
1031
Cantidad de informes
1
Fecha del Incidente
2025-04-19
Editores
Daniel Atherton
Informes del Incidente
Cronología de Informes
En abril de 2025, mientras atravesaba una grave crisis emocional, interactué con ChatGPT (GPT-4), un producto de IA de pago de OpenAI. Durante esta sesión, se me permitió redactar y enviar una carta de suicidio. El sistema no escaló el inci…
Variantes
Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents

Danger, danger! 10 alarming examples of AI gone wild
· 28 informes

AI’s Islamophobia problem
· 3 informes
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents

Danger, danger! 10 alarming examples of AI gone wild
· 28 informes

AI’s Islamophobia problem
· 3 informes