Skip to main content

Les applis de Nudify, une dérive inquiétante de l’IA ?

Smartphones

Les applications utilisant l’IA pour déshabiller les femmes sur des photos sans leur consentement (applis nudify) connaissent une popularité inquiétante. Cette dérive technologique a des conséquences dévastatrices pour les victimes, souvent démunies face à ce fléau d'un genre nouveau.

Les progrès fulgurants de l'IA génèrent autant d’espoirs que de craintes. Parmi les dérives les plus alarmantes, la prolifération d’applications permettant de déshabiller (numériquement) des femmes sans leur consentement. Un phénomène baptisé « Nudify » qui prend une ampleur préoccupante.

 Soulgen, DreamGF, Promptchan Ai, Seduced Ai, Undress AI… Les applis de « déshabillage numérique » se multiplient. Selon la société Graphika, chaque mois, entre 24 et 25 millions de personnes fréquentent ces sites au fonctionnement aussi simple que vicieux. Il suffit de fournir une photo de la victime pour que l’IA génère une version dénudée d’un réalisme confondant. Le tout pour une poignée d’euros.
 
Un phénomène en pleine essor

Alimentées par les progrès du deep learning et de l’IA générative, ces technologies deviennent toujours plus accessibles et performantes. Telegram hébergerait ainsi des centaines de groupes proposant ce type de services. Une véritable industrie s’est mise en place, surfant sur la vague des deepfakes et de la pornographie non consentie.

Comment fonctionnent ces applications de « Nudify » ?

Ces applications s’appuient sur deux techniques principales : des algorithmes d’IA générative (entraînés sur d’immenses bases de données d’images de corps nus), qui analysent les images pour générer une version modifiée simulant le déshabillage, et des techniques de deep learning qui créent des deepfakes en superposant des corps nus anonymes avec les visages des cibles. À noter que les générateurs d’images de nu utilisent les mêmes algorithmes d’intelligence artificielle générative que ceux d’outils grand public comme Midjourney, Blue Willow, Stable diffusion ou Bing Create Image — qui eux, interdisent formellement la création d’images de femmes, hommes ou enfants nus.

Concrètement, les algorithmes de deepfake analysent des milliers d’images de corps nus pour apprendre les combinaisons graphiques et les caractéristiques qui les rendent crédibles. Ils créent de nouvelles images ressemblant à des photos en utilisant ces connaissances, imitant ainsi la réalité. Ainsi, l’utilisateur n’a qu’à fournir une ou plusieurs photos de la victime, et l’IA générera une nouvelle image en remplaçant les vêtements par des parties du corps nues provenant de sa base de données.

Le résultat est d’un réalisme troublant, d’autant que ces algorithmes sont aussi capables de faire correspondre des éléments comme la carnation de la peau pour un rendu encore plus authentique. Certains services vont même jusqu’à proposer des déclinaisons (poses, morphologies…) à l’utilisateur. Tout cela en quelques clics et à un coût dérisoire.

Harcèlement et chantages financiers

Au-delà de l’humiliation, ces images truquées avec un réalisme troublant peuvent nuire durablement à leur réputation et à leur vie (professionnelle et personnelle). L’ampleur du phénomène et sa proximité avec notre quotidien ont été mises en lumière par un événement récent en Espagne. En octobre 2023, la ville d’Almendralejo a fait la une des journaux internationaux après que plus de 30 écolières, âgées de 12 à 14 ans, ont déclaré avoir reçu des images d’elles-mêmes nues, créées à l’aide d’une application de « déshabillage » accessible via Telegram ou un simple téléchargement sur smartphone.

Un groupe d’agresseurs masculins, pour la plupart mineurs et connaissant les victimes, ont utilisé des photos prises sur les réseaux sociaux de ces jeunes filles pour générer ces contenus dégradants, partagés ensuite via des discussions de groupe WhatsApp et Telegram. Pire, ces fausses images ont même servi à au moins une tentative d’extorsion sur Instagram.

Un vide juridique à combler
Face à ce phénomène, le cadre légal actuel peine à suivre le rythme effréné des avancées technologiques. Aux USA, « il n’existe actuellement aucune loi fédérale interdisant la création de deepfake pornography », souligne Margi Murphy, chroniqueuse tech américaine, dans le Time. En France, même flou, bien que la diffusion publique d’images « déshabillées » peut être considéré comme une injure ou une diffamation et puni d’une amende de 12 000 € (art. 32 de la Loi du 29 juillet 1881), selon la CNIL.
Les victimes se retrouvent finalement démunies, bien souvent confrontées à des « forces de l’ordre qui peuvent ne pas vouloir enquêter » et des « poursuites judiciaires coûteuses ». Reste, donc, un joli vide juridique à combler, de la part des législateurs.

 

La responsabilité des plateformes
Les réseaux sociaux et plateformes en ligne ont également un rôle clé à jouer pour endiguer la propagation de ces contenus abusifs. Des initiatives émergent : TikTok a bloqué le mot-clé « undress », un terme de recherche populaire associé aux services, avertissant toute personne recherchant ce mot qu’il « peut être associé à un comportement ou à un contenu qui enfreint nos directives ».

Mais ces efforts restent insuffisants. En collaboration avec les autorités, les plateformes devront ainsi, rapidement, mettre en place des garde-fous et des procédures efficaces pour rapidement identifier et supprimer ces images. Les deux principaux géants du web que sont Apple et Google auront de leur côté la tâche de purger leurs appstores (iOS, Android) de ces applications toxiques. Car il ne faut pas oublier que leur responsabilité est engagée dans la protection de leurs utilisatrices.

L’urgence d’un cadre légal et éthique
On ne peut donc que constater, une fois de plus, le fossé qui se creuse entre les avancées fulgurantes de l’IA et le cadre éthique et légal censé en réguler les usages. En l’absence de filtres adéquats, ce type d’outil peut facilement être utilisé par des personnes malintentionnées pour produire des contenus pédopornographiques, du revenge porn, voire à terme des deepfakes si réalistes qu’ils pourront servir à faire chanter ou incriminer à tort leurs victimes.
Les gouvernements ont évidemment tout intérêt à se saisir au plus vite de ce sujet et à légiférer pour encadrer l’utilisation de ces technologies. Mais le constat est là : la plupart des pays n’ont même pas

Pin It
  • Vues : 79