Description: Google reported to Australia's eSafety Commission that it received 258 complaints globally about AI-generated deepfake terrorism content and 86 about child abuse material made with its Gemini AI. The regulator called this a "world-first insight" into AI misuse. While Google uses hash-matching to detect child abuse content, it lacks a similar system for extremist material.
Editor Notes: Timeline note: Google's reporting period for this data was April 2023 to February 2024. The information was widely reported on March 5, 2025.
Entidades
Ver todas las entidadesPresunto: un sistema de IA desarrollado e implementado por Google y Gemini, perjudicó a General public , General public of Australia , Google Gemini users , Victims of deepfake terrorism content , Victims of deepfake child abuse y Victims of online radicalization.
Sistema de IA presuntamente implicado: Gemini
Estadísticas de incidentes
ID
963
Cantidad de informes
1
Fecha del Incidente
2025-03-05
Editores
Daniel Atherton
Informes del Incidente
Cronología de Informes
SÍDNEY, 6 de marzo (Reuters) - Google informó a las autoridades australianas de que recibió más de 250 denuncias en todo el mundo durante casi un año de que su software de inteligencia artificial se utilizó para crear material de terrorismo…
Variantes
Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents