"Une machine industrielle pour produire du matériel pédopornographique": Grok a généré plus de 3 millions d'images à caractère sexuel en 11 jours, dont une d’enfant toutes les 41 secondes

Le chiffre est alarmant. Sur la base d'un échantillon, le Center for Countering Digital Hate (CCDH, le Centre de lutte contre la haine numérique) a estimé que 3 millions d'images sexualisantes ont été générées par Grok en seulement 11 jours, dont 23.000 images semblant représenter des enfants.
Soit un rythme de 190 images par minute figurant une personne dans des positions à caractère sexuel, en sous-vêtements ou en maillot de bain ou des images représentant des fluides sexuels.
"Mets-la en bikini"
Grok est devenu "une machine industrielle pour produire du matériel pédopornographique", assurent les chercheurs.
Depuis décembre, l'IA générative d'Elon Musk a été massivement utilisée par des internautes pour générer des deepfakes à caractère sexuel. Avec un simple "Grok, mets-la en bikini" ou "en lingerie", ces utilisateurs mal intentionnés détournent des photos de jeunes femmes et de mineures. Le tout, sans le consentement des personnes ainsi traitées, évidemment.
Un déshabillage virtuel qui concerne aussi bien des célébrités que des inconnues. Parmi les personnalités concernées figurent Selena Gomez, Taylor Swift, Billie Eilish, Ariana Grande, Nicki Minaj, Millie Bobby Brown, mais aussi des figures politiques comme Kamala Harris et Ebba Busch, vice-première ministre suédoise.
La tendance est devenue virale pendant les fêtes de fin d'année. Plus de 199.612 requêtes individuelles ont été réalisées le 2 janvier, selon une analyse de Peryton Intelligence, une société de renseignement numérique spécialisée dans la haine en ligne.
Une image sexualisée d’enfant toutes les 41 secondes
Le CCDH a calculé. Entre le 29 décembre 2025 et le 8 janvier 2026, Grok a généré une image sexualisée d’enfant toutes les 41 secondes. Un utilisateur a par exemple transformé le selfie d'une écolière en selfie en bikini.
"Dénuder une femme sans son consentement est une agression sexuelle", rappelle Imran Ahmed, directeur général du CCDH, au Guardian. "Pendant tout ce temps, Elon Musk a fait la promotion du produit, même lorsqu’il était évident pour tous qu’il était utilisé à cette fin. Ce qu’Elon Musk cherchait à créer, c’était la polémique, l’attention, l’engagement et le nombre d’utilisateurs."
Selon lui, ce phénomène illustre un problème systémique dans la Silicon Valley, notamment pour les réseaux sociaux et les plateformes d'IA, où l'appât du gain surpasse la sécurité et l’éthique, et où la régulation peine à suivre le rythme des innovations. "Tant que les autorités de régulation et les législateurs n’auront pas fait leur travail et instauré un niveau de sécurité minimal, cela continuera", martèle-t-il.
Des restrictions infefficaces
Face au tollé mondial, plusieurs pays, dont la France, le Royaume-Uni, la Malaisie, ou l'Etat de Californie ont fini par mettre en place des mesures contre Grok ou ouvrir des enquêtes.
Le 14 janvier 2026, X a finalement annoncé des mesures pour "empêcher" son outil d'IA de déshabiller des utilisateurs. Cette fois-ci, "cette restriction s’applique à tous les utilisateurs, y compris les abonnés payants", assure le réseau social. La fonctionnalité était en effet réservée aux abonnés payants depuis le 9 janvier.
"Les abonnés au service premium de X peuvent toujours utiliser Grok pour modifier et créer d'autres images générées par l'IA - et continuent à être les seuls utilisateurs à pouvoir le faire -, mais seulement à condition qu'elles adhèrent 'strictement à nos règles'", conclut la plateforme.
Seul hic, il s'agit d'un "blocage géographique". La possibilité de générer avec Grok des images dénudées de personnes réelles ne s'applique qu'"au sein des juridictions où cela est illégal". Résultat, 29% d'images sexualisées d’enfants identifiées dans l'échantillon de 20.000 photos étaient encore accessibles au public dans des publications sur X au 15 janvier. Un clic sur un VPN, et le tour est joué...