Entidades
Ver todas las entidadesEstadísticas de incidentes
Risk Subdomain
2.2. AI system security vulnerabilities and attacks
Risk Domain
- Privacy & Security
Entity
Human
Timing
Post-deployment
Intent
Intentional
Informes del Incidente
Cronología de Informes

Los avances recientes en el desarrollo de modelos de lenguaje grandes han dado como resultado el acceso público a modelos de lenguaje preentrenado (PLM) de última generación, incluido el Transformador 3 preentrenado generativo (GPT-3) y las…

Riley Goodside, ayer:
Aprovechar las indicaciones de GPT-3 con entradas maliciosas que ordenan al modelo que ignore sus instrucciones anteriores. pic.twitter.com/I0NVr9LOJq
- Riley Goodside (@goodside) 12 de septiembre de 2022
Riley propo…

El jueves, algunos usuarios de Twitter descubrieron cómo secuestrar un bot de tweet automatizado, dedicado a trabajos remotos, que se ejecuta en el [GPT-3](https:/ /en.wikipedia.org/wiki/GPT-3) modelo de lenguaje de OpenAI. Usando una técni…

En resumen El popular modelo de lenguaje natural GPT-3 de OpenAI tiene un problema: se puede engañar para que se comporte mal haciendo poco más que decirle que ignore sus órdenes anteriores.
Descubierto por el científico de datos de Copy.ai…
Variantes
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents

Danger, danger! 10 alarming examples of AI gone wild

6 goof-ups that show AI is still in its diapers
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents

Danger, danger! 10 alarming examples of AI gone wild
