La Commission européenne a engagé une procédure à l’encontre de X, la plateforme détenue par Elon Musk, à la suite de signalements concernant la génération et la diffusion d’images falsifiées à caractère sexuel produites par l’outil d’intelligence artificielle Grok. Ces contenus, créés à partir de simples instructions textuelles, ont ciblé des femmes et des mineurs, suscitant des interrogations immédiates sur le respect des obligations européennes en matière de modération et de prévention des contenus illicites.
L’enquête s’inscrit dans le cadre du Digital Services Act (DSA), entré en application progressive depuis 2024. Ce règlement impose aux très grandes plateformes en ligne des obligations renforcées en matière de retrait rapide des contenus illégaux, d’évaluation des risques systémiques et de protection des publics vulnérables. La Commission doit déterminer si X a mis en place des mesures suffisantes pour empêcher l’utilisation de Grok à des fins de production de contenus prohibés.
Une enquête fondée sur le cadre du Digital Services Act
Le DSA constitue le principal instrument juridique mobilisé par Bruxelles pour encadrer les plateformes numériques opérant dans l’Union européenne. Il prévoit des obligations spécifiques pour les services rassemblant plusieurs dizaines de millions d’utilisateurs, notamment en matière de gouvernance des risques, de transparence des systèmes algorithmiques et de protection des mineurs.
Dans le cas de Grok, l’enquête porte à la fois sur les capacités de génération d’images de l’outil et sur les dispositifs de contrôle déployés par la plateforme pour limiter les usages abusifs. La Commission examine si les garde-fous techniques, humains et procéduraux sont proportionnés à la nature des contenus produits et à leur diffusion potentielle à grande échelle.
« La diffusion automatisée de contenus illicites interroge directement la capacité des plateformes à anticiper les usages détournés de leurs outils. »
Des enjeux dépassant le seul cas de Grok
Au-delà de cette procédure, l’initiative de la Commission s’inscrit dans un contexte plus large de renforcement de la régulation européenne du numérique. Le même jour, Bruxelles a annoncé que WhatsApp serait désormais soumis aux exigences applicables aux très grandes plateformes, élargissant ainsi le périmètre des acteurs concernés par les règles les plus strictes du DSA.
L’affaire Grok met également en évidence les difficultés propres aux systèmes d’intelligence artificielle générative, capables de produire des contenus nouveaux sans intervention humaine directe. Elle pose la question de la responsabilité des plateformes lorsque les outils mis à disposition permettent la création de contenus portant atteinte aux droits fondamentaux, malgré l’existence de mécanismes de modération a posteriori.
« Les outils d’intelligence artificielle déplacent la frontière entre modération a posteriori et prévention en amont des contenus illicites. »
Des zones d’incertitude sur les suites de la procédure
L’ouverture de l’enquête ne préjuge pas des conclusions qui seront tirées ni des éventuelles sanctions susceptibles d’être prononcées. Les autorités européennes doivent encore établir si les faits constatés relèvent de défaillances structurelles des dispositifs de contrôle ou de dysfonctionnements ponctuels liés à l’usage de l’outil.
Jusqu’où les obligations de prévention peuvent-elles être étendues pour les systèmes d’intelligence artificielle générative ? Et comment les régulateurs européens articuleront-ils ces exigences avec l’évolution rapide des technologies et des usages numériques ?