Description: OpenAI's AI-powered transcription tool Whisper, used to translate and transcribe audio content such as patient consultations with doctors, is advertised as having near “human level robustness and accuracy.” However, software engineers, developers and academic researchers have alleged that it is prone to making up chunks of text or even entire sentences and that some of the hallucinations can include racial commentary, violent rhetoric, and even imagined medical treatments.
Entidades
Ver todas las entidadesPresunto: un sistema de IA desarrollado e implementado por OpenAI, perjudicó a patients , Patients reliant on Whisper y Medical practitioners reliant on Whisper.
Estadísticas de incidentes
ID
827
Cantidad de informes
1
Fecha del Incidente
2024-10-26
Editores
Daniel Atherton
Informes del Incidente
Cronología de Informes
apnews.com · 2024
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
SAN FRANCISCO (AP) --- El gigante tecnológico OpenAI ha promocionado su herramienta de transcripción impulsada por inteligencia artificial Whisper como una herramienta con una "solidez y precisión cercanas a las de los humanos".
Pero Whispe…
Variantes
Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents