DignifAI : à l'opposé des deep fakes porn, cette intelligence artificielle rhabille les femmes sur Internet, et c'est tout aussi sexiste

Alors que la démocratisation de l'intelligence artificielle a favorisé l'émergence de deep fakes porn, des fausses images pornographiques dont sont victimes bon nombre de célébrités mais pas seulement, son exact opposé prend également de l'ampleur. L'opération, qui consiste à rhabiller une personne grâce à l'intelligence artificielle, connaît un succès grandissant sur X, dont les premières victimes sont les femmes.

DignifAI
Capture d'écran @DignifAI / X

DignifAI. Depuis quelques temps, ce compte dont le nom résulte de l'association de dignify -rendre la dignité- et intelligence artificielle, fait l'objet de nombreuses mentions sur X (anciennement Twitter). L'objectif de cet outil d'intelligence artificielle est clair : rhabiller des personnes (majoritairement des femmes) qui seraient trop dénudées au goût de certains, sans le consentement des principales intéressées. Un procédé sexiste, aux antipodes des deepfakes porn également générés par des intelligences artificielles qui visent à dénuder les femmes, mais non moins misogyne.

Autrement dit, si certains sexistes ne peuvent ni rhabiller, ni dénuder les femmes dans la vie réelle, les IA s'en chargent désormais pour eux.

"Dommage que tu n'aies pas arrangé son visage aussi"

Alors qu'un deepfake de Taylor Swift, dont le visage a été associé au corps d’une autre femme dans une posture sexuelle, a fait le tour d'Internet, DignifAI a entrepris de "rhabiller" l'actrice Kristen Stewart, qui a créé la polémique en posant pour le magazine Rolling Stone la main dans la culotte. Dans ce même magazine, l'actrice a expliqué sa volonté, avec cette couverture, de produire des images "hypersexualisées" qui "renversent les scripts genrés." Si son message n'a pas été compris et approuvé, l'intelligence artificielle s'est elle carrément chargée de la recouvrir d'une robe bleue.

Ce n'est pas la seule célébrité à avoir été victime de DignifAI : Miley Cyrus en a également fait les frais, puisqu'une des ses tenues portées aux Grammys 2024 a été modifiée, troquée pour une longue robe colorée.

De nombreux commentaires en réponse au tweet saluent ce photomontage de la star, en n'hésitant pas à continuer de la critiquer au passage. "Dommage que tu n'aies pas arrangé son visage aussi", "pourquoi a-t-elle l'air d'avoir 40 ans ?", "Toute la puissance de calcul du monde ne peut pas réparer la laideur", peut-on notamment lire.

Une tentative d'ôter aux femmes le droit à disposer de leur corps

Une autre jeune femme anonyme, qui exhibe ses fesses à la salle de sport dans une position suggestive, à quatre pattes, a elle eu droit à deux photos retouchées. Sur la première photo modifiée, elle est entièrement recouverte d'une robe grise, mais toujours à la salle de sport. Sur le deuxième cliché retouché, elle porte toujours cette robe grise, mais le décor a été remplacé par un sol, qu'elle est en train de laver, toujours à quatre pattes, entourée de produits ménagers.

Vidéo. On a parlé droits des femmes, féminisme et politique avec Aude Gogny-Goubert, Lauren Bastide et Ovidie

Un moyen d'attirer un peu plus la haine en ligne à l'égard des femmes. Victimes de deepfakes porns, menacées de mort, harcelées et silenciées (comme le montre actuellement la polémique autour du compte @abregefrere), elle sont désormais rhabillées par DignifAI. Une preuve de plus, s'il en manquait, qu'il reste difficile pour les femmes d'exister dans l'espace public, qu'il soit virtuel ou réel.

À lire aussi :

>> En Corée du Sud, des militants masculinistes veulent supprimer le "cancer féministe"

>> Une intelligence artificielle crée de fausses actrices porno, et c'est un vrai problème

>> #LenaChallenge, le défi qui prouve que les femmes peuvent porter ce qu'elles veulent