Imaginez un pays avec de profondes divisions politiques, où différents groupes ne se font pas confiance et la violence semble probable. Maintenant, imaginez un flot d’images politiques, de mèmes haineux et de vidéos moqueurs de sources nationales et étrangères qui prennent le contrôle des médias sociaux. Que va-t-il arriver ensuite?
L’utilisation généralisée des médias sociaux en période de troubles politiques et de violence a rendu plus difficile la prévention des conflits et la paix. Les médias sociaux changent, avec de nouvelles technologies et stratégies disponibles pour influencer ce que les gens pensent lors des crises politiques. Il s’agit notamment de nouvelles façons de promouvoir les croyances et les objectifs, d’obtenir un soutien, de déshumaniser les adversaires, de justifier la violence et de créer un doute ou de rejeter des faits gênants.
Dans le même temps, les technologies elles-mêmes deviennent de plus en plus sophistiquées. De plus en plus, les campagnes de médias sociaux utilisent des images telles que des mèmes, des vidéos et des photos – qu’elles soient modifiées ou non – qui ont un impact plus important sur les gens que le texte.
Il est plus difficile pour les systèmes d’IA de comprendre les images par rapport au texte. Par exemple, il est plus facile de suivre les articles qui disent que «les Ukrainiens sont des nazis» que de trouver et de comprendre de fausses images montrant des soldats ukrainiens avec des symboles nazis. Mais ces types d’images deviennent de plus en plus courants. Tout comme une image vaut mille mots, un mème vaut mille tweets.
Notre équipe d’ordinateurs et de spécialistes des sciences sociales a relevé le défi d’interpréter le contenu de l’image en combinant des méthodes d’intelligence artificielle avec des experts en matière humaine pour étudier comment les publications visuelles des médias sociaux changent dans des situations à haut risque. Nos recherches montrent que ces changements dans les publications sur les réseaux sociaux, en particulier ceux qui ont des images, servent d’indicateurs forts de la violence de masse à venir.
Montée des mèmes
Notre récente analyse a révélé qu’au cours des deux semaines précédant l’invasion de l’Ukraine en 2022 par la Russie, il y a eu une augmentation de près de 9 000% du nombre de postes et une augmentation de plus de 5 000% des images manipulées des milbloggers russes. Les milbloggers sont des blogueurs qui se concentrent sur les conflits militaires actuels.
Ces énormes augmentations montrent à quel point la campagne de propagande en ligne de la Russie était intense et comment elle a utilisé les médias sociaux pour influencer les opinions des gens et justifier l’invasion.
Cela montre également la nécessité de mieux surveiller et analyser le contenu visuel sur les réseaux sociaux. Pour effectuer notre analyse, nous avons collecté toute l’histoire des publications et des images à partir des comptes de 989 Milbloggers russes sur l’application de messagerie Telegram. Cela comprend près de 6 millions de messages et plus de 3 millions d’images. Chaque message et image a été empêché de temps et classé pour faciliter une analyse détaillée.
Média médiatique
Nous avions déjà développé une suite d’outils d’IA capables de détecter des altérations et des manipulations d’image. Par exemple, une image détectée montre un mème pro-russe se moquant de la journaliste anti-putine et ancien soldat russe Arkady Babchenko, dont la mort a été truquée par les services de sécurité ukrainiens pour exposer un complot d’assassinat contre lui.

Drôle
Le mème présente la langue que «les joueurs ne meurent pas, ils réapparaissent», faisant allusion aux personnages de jeux vidéo qui reviennent à la vie après leur mort. Cela fait la lumière de la situation difficile de Babchenko et illustre l’utilisation d’images manipulées pour transmettre des messages politiques et influencer l’opinion publique.
Ce n’est qu’un exemple sur des millions d’images qui ont été stratégiquement manipulées pour promouvoir divers récits. Notre analyse statistique a révélé une augmentation massive du nombre d’images et de l’étendue de leurs manipulations avant l’invasion.
Le contexte politique est critique
Bien que ces systèmes d’IA soient très bons pour trouver des contrefaçons, ils sont incapables de comprendre les contextes politiques des images. Il est donc essentiel que les scientifiques de l’IA travaillent en étroite collaboration avec les spécialistes des sciences sociales afin d’interpréter correctement ces résultats.
Nos systèmes d’IA ont également classé les images par similitude, qui ont ensuite permis aux experts en matière d’analyser davantage les grappes d’images en fonction de leur contenu narratif et des significations culturellement et politiquement spécifiques. Ceci est impossible à faire à grande échelle sans support d’IA.
Par exemple, une fausse image du président français Emmanuel Macron avec le gouverneur ukrainien Vitalii Kim peut avoir un sens pour un scientifique de l’IA. Mais pour les politologues, l’image semble louer le courage des Ukrainiens contrairement aux dirigeants étrangers qui ont semblé avoir peur des menaces nucléaires russes. L’objectif était de renforcer les doutes ukrainiens de leurs alliés européens.

William Theisen et al.
MEME WARFARE
Le passage aux médias visuels ces dernières années apporte un nouveau type de données que les chercheurs n’ont pas encore beaucoup étudié en détail.
Regarder les images peut aider les chercheurs à comprendre comment les adversaires se concentrent mutuellement et comment cela peut conduire à des conflits politiques. En étudiant le contenu visuel, les chercheurs peuvent voir comment les histoires et les idées sont réparties, ce qui nous aide à comprendre les facteurs psychologiques et sociaux impliqués.
Ceci est particulièrement important pour trouver des façons plus avancées et subtiles les gens sont influencés. Des projets comme celui-ci peuvent également contribuer à améliorer les efforts d’alerte précoce et à réduire les risques de violence et d’instabilité.