Le jeudi 26 mars 2026, le Parlement européen a adopté un amendement qui fera date. Par 569 voix contre 45, les eurodéputés ont voté l’interdiction des systèmes d’intelligence artificielle capables de produire des deepfakes sexuels. Sont visés les outils dits de « nudification » qui permettent de déshabiller numériquement une personne à partir d’une simple photo. Sans son consentement, évidemment. Cette mesure, portée par la France et l’Espagne, cible un phénomène qui explose depuis deux ans. Les signalements de contenus intimes non consentis générés par IA ont bondi de 400% entre 2023 et 2025 selon Europol. Les premières victimes sont les femmes et les mineurs.
Le scandale Grok qui a tout accéléré
Le calendrier législatif ne doit rien au hasard. Fin 2025, la fonction Imagine de Grok, l’IA développée par xAI (la société d’Elon Musk), a provoqué un tollé international. Des utilisateurs ont massivement exploité l’outil pour générer des images dénudées de femmes et d’enfants à partir de photos réelles. Taylor Swift figurait parmi les célébrités les plus visées. Le scandale a forcé xAI à limiter l’accès à la génération d’images aux abonnés premium. Trop peu, trop tard. L’Union européenne a ouvert une enquête et les eurodéputés ont pris le sujet à bras-le-corps.
Comment fonctionnent les deepfakes sexuels
Le principe est d’une simplicité terrifiante. Ces applications prennent une photo ordinaire d’une personne habillée. L’algorithme analyse la morphologie du visage et du corps. Puis il génère une image réaliste de cette personne nue. Le tout en quelques secondes. Certains outils sont gratuits et accessibles depuis un navigateur web. D’autres circulent sur Telegram sous forme de bots automatisés. Aucune compétence technique n’est requise. N’importe qui peut fabriquer un deepfake intime d’un collègue, d’un camarade de classe ou d’un ex-partenaire. C’est cette facilité d’accès qui rend le phénomène aussi massif.
Ce que prévoit concrètement le vote du Parlement
L’amendement adopté le 26 mars modifie l’AI Act européen. Il classe les systèmes de nudification parmi les pratiques d’IA prohibées. Les entreprises qui développent ou distribuent ces outils risquent des amendes pouvant atteindre 35 millions d’euros ou 7% de leur chiffre d’affaires mondial. Une exception existe pour les systèmes dotés de mesures de sécurité empêchant techniquement la génération de ce type de contenu. La charge de la preuve repose sur les développeurs. C’est à eux de démontrer que leur outil ne peut pas être détourné.
Pourquoi les deepfakes sexuels visent massivement les femmes
Les chiffres sont sans appel. La quasi-totalité des victimes de ces montages sont des femmes. Souvent des adolescentes. Le cyberharcèlement est le premier usage documenté. Un ex-compagnon qui veut se venger. Un camarade de lycée qui veut humilier. Un inconnu qui s’amuse. Les images circulent ensuite sur des forums, des groupes privés ou des messageries. Elles détruisent des réputations, provoquent des traumatismes psychologiques durables et poussent certaines victimes à quitter leur établissement scolaire ou leur emploi. Le phénomène touche aussi les contenus pédocriminels, avec des photos d’enfants transformées en matériel d’exploitation sexuelle.
Les étapes qui restent avant l’entrée en vigueur
Le vote du 26 mars n’est qu’une première étape. Le Parlement et le Conseil de l’UE doivent désormais négocier pour aboutir à un texte commun. Les deux institutions ont adopté des formulations proches mais pas identiques. Les trilogues (négociations à trois entre Parlement, Conseil et Commission) devraient aboutir au cours du deuxième trimestre 2026. Les analystes tablent sur une adoption finale avant l’été. En attendant, les outils de nudification restent accessibles et légaux dans la plupart des pays européens. Seuls le Royaume-Uni et l’Espagne disposent déjà de législations nationales spécifiques sur le sujet.
Comment signaler un deepfake intime en France
Si vous êtes victime d’un montage de ce type, plusieurs recours existent dès maintenant. Déposez plainte auprès de la police ou de la gendarmerie pour atteinte à la vie privée et diffusion d’images à caractère sexuel sans consentement. Signalez le contenu sur la plateforme PHAROS (internet-signalement.gouv.fr). Contactez la CNIL si vos données personnelles ont été utilisées sans votre accord. Vous pouvez aussi saisir le juge des référés pour obtenir le retrait rapide des contenus. Conservez toutes les preuves en faisant des captures d’écran horodatées. Et parlez-en autour de vous. La honte ne doit jamais peser sur les victimes de deepfakes sexuels mais sur ceux qui les fabriquent.
Lire plus d’articles sur DigiTechnologie :
– Un bug sur Android 16 désactive les VPN, cliquez-ici
– Hacker un ordinateur avec la clé Rubber Ducky, cliquez-ici
– Tout savoir sur AMI Labs, la startup de Yann LeCun, cliquez-ici







