Le monde de l’intelligence artificielle n’en finit plus de bousculer nos normes, nos lois et, désormais, nos garde-robes, ou plutôt l’absence de celles-ci. L’outil d’IA Grok, développé par xAI et intégré au réseau social X (propriété d’Elon Musk) se retrouve aujourd’hui au centre d’une controverse majeure, impliquant des régulateurs, des gouvernements et des associations de défense des droits humains. Au cœur de l’affaire : des images générées par IA représentant des personnes réelles, parfois dénudées ou sexualisées, sans leur consentement, et le rôle de la plateforme dans leur diffusion.


Grok, décrit par ses concepteurs comme un assistant d’intelligence artificielle conversationnelle, a intégré depuis fin 2025 un système de génération et de manipulation d’images. Ce module permettait aux utilisateurs de soumettre des photos ou des prompts textuels pour créer ou modifier des images. Très vite, certains utilisateurs ont exploité cette capacité pour “nudifier” des photos de personnes réelles, essentiellement des femmes, mais aussi, dans certains cas, des mineurs, créant des représentations explicites ou sexualisées.

Ce qui aurait pu rester une zone grise d’utilisation abusive a rapidement pris l’allure d’un scandale planétaire. Les images se sont multipliées sur X, circulant parfois sans aucune modération et obtenant des milliers de vues avant d’être retirées, quand elles l’étaient.

Face à cette prolifération, Ofcom, le régulateur britannique des communications, a annoncé le 12 janvier 2026 l’ouverture d’une enquête formelle contre X pour déterminer si la plateforme a manqué à ses obligations légales en matière de sécurité en ligne.

L’enjeu ? Vérifier si X a réellement mis en place des systèmes pour empêcher la génération, la publication et la propagation de contenu illégal, notamment des images à caractère sexuel non consensuelles et du contenu d’abus sexuels sur enfants (ou CSAM), conformément à la Online Safety Act de 2023.

Ofcom a notamment souligné plusieurs axes possibles de manquement :

  • L’absence d’évaluation adéquate du risque que des utilisateurs voient du contenu illégal.
  • L’absence de mesures proactives suffisantes pour empêcher la diffusion de contenu problématique.
  • La lenteur ou l’inefficacité dans le retrait de contenu illicite une fois identifié.
  • L’insuffisance de dispositifs de vérification d’âge et de protection des enfants.

Dans un climat politique tendu, la secrétaire britannique à la Technologie n’a pas mâché ses mots, qualifiant le contenu circulant sur X de “répugnant” et affirmant que la loi allait désormais interdire la création de telles images sans consentement, un pas significatif vers une justice adaptée à l’ère numérique.

Si l’enquête du Royaume-Uni a cristallisé l’attention, d’autres pays ne sont pas restés en marge. La Malaisie, par exemple, a annoncé son intention de poursuivre X et xAI en justice pour ne pas avoir assuré la sécurité des utilisateurs de leur chatbot Grok, estimant que l’outil avait été détourné pour produire des images explicites et non consensuelles.

Des pays comme l’Indonésie et l’Australie ont adopté des mesures similaires, allant jusqu’à bloquer temporairement l’accès à Grok sur leurs territoires. Et au niveau européen, la Commission européenne a ordonné à X de conserver toutes les données internes liées à Grok, dans le cadre d’une enquête plus large sur les obligations des plateformes envers le Digital Services Act.

Face à la vague de critiques, X a annoncé mi-janvier 2026 avoir restreint certaines capacités de Grok. L’entreprise affirme avoir implémenté des restrictions empêchant l’IA de générer ou d’éditer des images de personnes réelles en tenues révélatrices, notamment bikinis ou sous-vêtements, dans les juridictions où c’est illégal. Cette mesure s’appliquerait à tous les utilisateurs, y compris les abonnés payants, et s’accompagnerait d’un geoblocage dans certaines régions.

Elon Musk lui-même a répondu sur X, affirmant ne pas être au courant de la génération d’images de mineurs nus, et rappelant que Grok ne répond qu’aux requêtes des utilisateurs tout en étant programmé pour respecter les lois locales. Il a également évoqué la possibilité de bugs ou de hacks adversariaux ayant compromis les garde-fous.

Pourtant, malgré ces efforts de mitigation, plusieurs observateurs et enquêteurs estiment que les solutions techniques mises en place restent insuffisantes. Des utilisateurs continuent de contourner les restrictions via des versions web autonomes, et certains contenus problématiques semblent encore circuler sur X.

Le cas Grok n’est pas qu’une crise isolée : il illustre une tension structurante de notre époque. D’un côté, les technologies d’IA générative offrent des potentiels créatifs, économiques et sociaux immenses. De l’autre, elles exposent des failles profondes dans notre capacité à protéger la dignité, la vie privée et les droits des personnes dans un monde où une simple requête textuelle peut produire une fausse image indiscernable de la réalité.

Au Royaume-Uni, la controverse a même servi de catalyseur pour faire entrer en vigueur des dispositions légales criminalisant la création et la diffusion d’images intimes truquées sans consentement, au titre de la sécurité en ligne. Cela signifie que demander ou fabriquer ce type d’image pourrait bientôt être puni de sanctions pénales.

Cette dynamique s’inscrit dans un mouvement plus large : l’Union européenne travaille à étendre ses régimes existants pour inclure explicitement les générateurs d’images IA, et des législations similaires sont à l’étude dans plusieurs États. Le débat dépasse désormais la simple modération de contenu ; il touche à la responsabilité juridique des plateformes, au rôle des gardiens technologiques et à la nécessaire harmonisation des normes internationales.

Ce que révèle l’affaire Grok, plus profondément, c’est une crise culturelle autant que technique. La possibilité de produire des images « réalistes mais fausses » détache progressivement le visuel de son ancrage dans la réalité tangible et sans garde-fous, ceci peut devenir un outil de violence symbolique et sociale. L’indignation suscitée par la multiplication de ces images, en particulier lorsqu’elles concernent des femmes ou des mineurs, est révélatrice d’une société qui refuse de laisser l’IA redessiner la frontière entre consentement et exploitation.

Le défi, pour les régulateurs comme pour les entreprises technologiques, n’est pas seulement de bloquer des cas extrêmes. C’est de concevoir des systèmes proactifs et éthiques capables d’anticiper plutôt que de réagir, de protéger plutôt que de subir. Cela passe par des standards plus stricts d’entraînement des modèles, des dispositifs de modération robustes intégrés dès la conception, et surtout une culture du consentement qui guide chaque interaction entre l’humain et l’IA.

L’affaire Grok est un rappel brutal que l’innovation technologique, aussi prometteuse soit-elle, peut facilement dérailler sans une gouvernance adaptée. Elle illustre la nécessité pour les plateformes comme X de dépasser les réactions ponctuelles et de s’engager dans une transformation durable de leurs pratiques. Pour la société, elle réveille une question essentielle : dans quelle mesure sommes-nous prêts à laisser des algorithmes redéfinir les limites de l’intime et du respect ?

Dans les mois à venir, l’enquête d’Ofcom, les mesures des institutions européennes et les réactions des gouvernements nationaux promettent d’éclairer et de redessiner le cadre juridique et éthique de l’IA générative. Une chose est claire : « générer des images » ne sera plus jamais une affaire uniquement technique. C’est désormais une affaire de droit, de responsabilité et de confiance sociale.

Lien vers la note méthodologique