Entidades
Ver todas las entidadesEstadísticas de incidentes
Risk Subdomain
2.1. Compromise of privacy by obtaining, leaking or correctly inferring sensitive information
Risk Domain
- Privacy & Security
Entity
Human
Timing
Pre-deployment
Intent
Unintentional
Informes del Incidente
Cronología de Informes
En la prensa han aparecido noticias sobre los resultados de un proyecto de investigación de la Universidad de Stanford, según el cual el equipo de entrenamiento LAION 5B contiene contenidos potencialmente ilegales en forma de CSAM. Nos gust…

Una investigación del Stanford Internet Observatory (SIO) identificó cientos de imágenes conocidas de material de abuso sexual infantil (CSAM) en un conjunto de datos abiertos utilizado para entrenar modelos populares de generación de texto…
/cdn.vox-cdn.com/uploads/chorus_asset/file/25176378/1801115698.jpg)
Un conjunto de datos de entrenamiento popular para la generación de imágenes de IA contenía enlaces a imágenes de abuso infantil, [encontrado por el Observatorio de Internet de Stanford](https://cyber.fsi.stanford.edu/news/investigation-fin…
Se ha descubierto que un enorme conjunto de datos públicos que sirvió como datos de entrenamiento para varios generadores de imágenes de IA contiene miles de casos de material de abuso sexual infantil (CSAM).
En un estudio publicado hoy, el…

*Este artículo se publica con el apoyo de The Capitol Forum. * La organización que lo creó eliminó el conjunto de datos de aprendizaje automático LAION-5B utilizado por Stable Diffusion y otros productos importantes de IA después de que un …
Stable Diffusion, una de las herramientas de IA generativa de conversión de texto a imagen más populares del mercado de [la startup Stability AI de mil millones de dólares](https://www.forbes.com/sites/kenrickcai/2023/06/04/stable -diffusio…
Ha habido problemas importantes con los datos de entrenamiento de AI, con varias quejas ya presentadas por quienes afirmaron que su trabajo fue robado, pero el descubrimiento más reciente vio imágenes de abuso sexual infantil en su conjunto…
Un enorme conjunto de datos de IA de código abierto, LAION-5B, que se ha utilizado para entrenar generadores de texto a imágenes de IA populares como Stable Diffusion 1.5 e Imagen de Google, contiene al menos 1008 casos de material de abuso…
Se han descubierto más de 1.000 imágenes de niños abusados sexualmente dentro del conjunto de datos más grande utilizado para entrenar IA generadora de imágenes, sorprendiendo a todos, excepto a las personas que han advertido sobre este tip…
Investigadores del Observatorio de Internet de Stanford dicen que un conjunto de datos utilizado para entrenar herramientas de generación de imágenes de IA contiene al menos 1.008 casos validados de material de abuso sexual infantil. Los in…

Un influyente conjunto de datos de aprendizaje automático, como el que se ha utilizado para entrenar numerosas aplicaciones populares de generación de imágenes, incluye miles de imágenes sospechosas de abuso sexual infantil, revela un nuevo…
Su creador eliminó un conjunto de datos de inteligencia artificial ampliamente utilizado para entrenar Stable Diffusion, Imagen y otros modelos de generación de imágenes de IA después de que un estudio encontró que contenía miles de instanc…
Se ha localizado material de abuso sexual infantil (CSAM) en LAION, un importante conjunto de datos utilizado para entrenar la IA.
El Observatorio de Internet de Stanford reveló miles de imágenes de abuso sexual infantil en el conjunto de d…
La integridad de un importante conjunto de datos de entrenamiento de imágenes de IA, LAION-5B, utilizado por modelos de IA influyentes como Stable Diffusion, se ha visto comprometida después del descubrimiento de miles de enlaces a material…
La IA generativa se ha democratizado. Los kits de herramientas para descargar, configurar, usar y ajustar una variedad de modelos se han convertido en marcos de un clic para que los use cualquier persona con una computadora portátil. Si bie…
En Los que se alejan de Omelas, la escritora de ficción Ursula K. Le Guin describe una ciudad fantástica donde el avance tecnológico ha asegurado una vida de abundancia para todos los que viven allí. Escondido debajo de la ciudad, donde nad…
¿Por qué las empresas de IA están valoradas en millones y miles de millones de dólares creando y distribuyendo herramientas que pueden generar material de abuso sexual infantil (CSAM) generado por IA?
Un generador de imágenes llamado Stable…
Los investigadores de inteligencia artificial dijeron el viernes que han eliminado más de 2.000 enlaces web a imágenes sospechosas de abuso sexual infantil de un conjunto de datos utilizado para entrenar herramientas populares de generación…
Variantes
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Discrimination in Online Ad Delivery
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents