En Chine, comment les manifestants contournent l’IA des réseaux sociaux

Pour afficher ce contenu, vous devez mettre à jour vos paramètres de confidentialité.
Cliquez ici pour le faire.

RÉSEAUX SOCIAUX - Alors que les Chinois descendent dans les rues depuis une semaine de façon inédite et massive pour exprimer leur désaccord au gouvernement dans sa politique « zéro-covid », les manifestants jouent au chat et à la souris avec les réseaux sociaux pour diffuser leurs images.

Si les plateformes chinoises ont rapidement été censurées par les autorités gouvernementales, il n’a pas fallu longtemps aux manifestants pour se tourner vers les plateformes occidentales. Utilisation de filtres ou de bruits parasites, tout est bon pour tromper l’algorithme des réseaux chinois, et surtout pour ne pas se faire repérer. Et contre la censure, la solution, c’est Twitter où arrivent en dernier recours les contenus déjà altérés.

Si ces images arrivent à faire le tour du monde, c’est principalement parce que Twitter connaît une perte de personnels bien trop grande pour filtrer dans la masse tous les contenus mais pas seulement. Les utilisateurs usent de stratégies bien réfléchies pour ne pas voir leurs contenus supprimés.

« Un ordinateur, ce n’est pas très malin »

Tous les réseaux sociaux, Twitter comme Weibo ou encore Facebook, usent d’algorithmes et d’intelligence artificielle pour reconnaître les images diffusées sur leur plateforme, et le cas échéant les filtrer en fonction de leurs règles respectives. Pour mieux comprendre leur rôle lorsque des contenus sont mêlés à des enjeux politiques de cette ampleur, Victor Louis Pouchet, hacker chez BZhunt a répondu aux questions du HuffPost.

Pour afficher ce contenu, vous devez mettre à jour vos paramètres de confidentialité.
Cliquez ici pour le faire.

Si dans les rues de Chine, les manifestants contournent la censure du gouvernement de Xi Jinping à l’aide de feuilles blanches, sur les réseaux sociaux, c’est à l’aide d’autres artifices. Comme vous pouvez le voir dans le tweet ci-dessus, on peut voir des images de manifestations, et pour les diffuser, l’utilisateur a ajouté un filtre, un élément qui trouble l’image originale, ainsi qu’une musique assez peu en adéquation avec le contenu.

« Lorsque l’algorithme va analyser un contenu vidéo, il va inspecter chaque pixel et va essayer de l’associer à quelque chose qu’il connaît déjà. Dans le cas des manifestations en Chine, l’intelligence artificielle va donc essayer de capter un mot-clé sur une pancarte par exemple ou encore la langue parlée et utilisée dessus » explique le hacker.

Empêcher la contextualisation des images par l’IA

Mais reconnaître des éléments sur un contenu vidéo ne suffit pas puisque les associer au contexte réel de ce contenu peut complètement changer la donne. « Si l’on prend l’exemple d’une foule, l’IA va se demander s’il s’agit d’une foule dans un concert, dans une manifestation ou dans un centre commercial, elle va donc chercher à la contextualiser » précise-t-il.

C’est à ce moment-là que l’ajout d’éléments « parasites » et « superflus » vient compliquer la tâche de l’IA : « ajouter des filtres ou des éléments parasites, comme du texte ou de la musique, hors du contexte de base, va rendre beaucoup moins sûre l’IA de ce qu’elle voie. Et après ça, l’algorithme doit aller encore plus loin pour donner un sens à ce qu’il voit, en l’occurrence l’opposition à gouvernement, et le contextualiser ».

Pour afficher ce contenu, vous devez mettre à jour vos paramètres de confidentialité.
Cliquez ici pour le faire.

Dans cet autre exemple, un utilisateur filme le contenu qu’il a souhaité diffuser mais en prenant en cadre un autre téléphone. « Dans ce cas-là, l’algorithme n’est pas assez intelligent et il va se dire que c’est la vidéo d’un téléphone sans faire attention à ce qui est diffusé dans ce téléphone » constate Victor Louis Pouchet. Donc plus l’internaute ajoute des scénarios dans son contenu qui ne sont finalement pas attendus, plus l’IA prendra du temps à comprendre la réelle intention de l’utilisateur.

« La notion de filtres est super intéressante et permet de contourner un algorithme. Exemple avec Youtube : une IA détecte automatiquement les contenus soumis à des droits mais pour les contourner, certaines personnes vont retourner l’image, zoomer dedans ou ajouter des filtres pour que ça passe. Plus on ajoute de parasites plus les statistiques vont être brouillés » ajoute le hacker. « Ces algorithmes restent des modèles d’apprentissages très spécifiques, un ordinateur n’est pas très malin il fait ce qu’on lui dit mais pas toujours ce que l’on veut qu’il fasse » constate-t-il.

Une réaction du gouvernement chinois ?

Et sur Twitter, à défaut de censurer, le gouvernement aurait préféré noyer le poisson en diluant dans la masse les contenus de manifestations avec des contenus pornographiques.

Pour afficher ce contenu, vous devez mettre à jour vos paramètres de confidentialité.
Cliquez ici pour le faire.

Selon cet analyste chinois, de nombreux faux comptes sont utilisés pour diffuser des contenus illégaux afin de biaiser les résultats de recherches en Chine sur Twitter. Effectivement, sur de nombreuses publications, la géolocalisation des endroits où les regroupements de manifestants étaient les plus massifs a été ajoutée sur des contenus pornographiques.

Mais le hacker rappelle « la modération reste un problème inhérent à chaque réseau social surtout s’il y a tout de même quelques humains derrière et forcément il y aura toujours des trous dans la raquette. Et les techniques que l’on utilise à un instant T seront obsolètes demain, c’est donc un éternel recommencement ».

À voir également sur Le HuffPost :

Pour afficher ce contenu, vous devez mettre à jour vos paramètres de confidentialité.
Cliquez ici pour le faire.

Lire aussi