Les images de violences sexuelles sur des enfants générées par IA se multiplient, affirme Europol

La prolifération d’images d’abus sexuels sur enfants générées par l’intelligence artificielle prend de l’ampleur. Même dans le cas où l’image ne met pas en scène une vraie victime, ces images contribuent toujours à l'objectivation et à la sexualisation des enfants, selon Europol.

Les nouvelles technologies sont parfois détournées pour des usages illégaux. Les images d'abus sexuels sur enfants générées à l'aide de l' intelligence artificielle sont en augmentation, rendant de plus en plus difficile l'identification des victimes et des auteurs, a averti ce lundi 22 juillet l'agence européenne de police. « Le volume de matériel sexuel auto-fabriqué constitue désormais une part importante et croissante du matériel sexuel pédopornographique en ligne », », a souligné dans un rapport l'agence basée à La Haye. Le phénomène à prendre de l’ampleur dans les années à venir.

Des victimes difficiles à identifier

Même dans les cas où le contenu est entièrement artificiel et où aucune victime réelle n'est représentée, le matériel pédopornographique généré par l'IA contribue toujours à l'objectivation et à la sexualisation des enfants, a souligné Europol. L'utilisation de l'IA pour générer ou modifier du matériel pédopornographique augmente également « la quantité de matériel illicite en circulation et complique l'identification des victimes ainsi que des auteurs ».

>> Lire aussi« Miss IA », le concours de beauté virtuel qui culpabilise encore plus les femmes

L’avènement de l’IA suscite une inquiétude croissante quant à son utilisation à des fins malveillantes, notamment à travers la création de « deepfakes » – des images et des vidéos générées par ordinateur, souvent réalistes, basées sur...

Lire la suite de l'article sur Elle.fr

A lire aussi