Deepfakes terroristes: Google annonce que Gemini a été utilisé dans au moins 250 cas

Google a annoncé avoir reçu 250 plaintes pour l'utilisation de son IA Gemini afin de créer du contenu terroriste. L'entreprise l'a indiqué dans un rapport remis aux autorités australiennes, et dont Reuters a pu prendre connaissance.
Ce chiffre représente le nombre de signalements sur un an dans le monde.
La nécessité de créer des mesures de protection
Pour la Commission australienne de sécurité en ligne, "cela souligne à quel point il est essentiel pour les entreprises développant des produits IA d'intégrer et de tester l'efficacité des mesures de protection pour empêcher ce type de contenu d'être généré."
Dans le même rapport, que les entreprises de la tech sont tenues de fournir périodiquement, comme le prévoit la loi australienne, on apprend que 86 contenus pédopornographiques ont pu être réalisés avec Gemini et ont été signalé.
Le géant de la recherche précise utiliser un système de métadonnées pour repérer les images pédopornographiques, via une base mondiale et commune. Il n'en est toutefois pas de même pour le contenu à caractère terroriste.
A la pointe face aux grandes entreprises de la tech, l'Australie veut faire en sorte de rendre les réseaux et plateformes plus sûres. Elle s'est d'ailleurs plainte du manque de barrières mises en place par les réseaux sociaux pour se rendre inaccessibles aux jeunes de moins de 13 ans, qui n'ont pas droit de s'y inscrire.
Le pays-continent a en outre interdit certaines applications, dont l'IA chinoise Deepsearch, en raison de l'utilisation des données personnelles non conforme au droit local.