MOSCOW

Manipulation d’OpinionS et Caractérisation cross-modale des COntenus du Web

Le projet MOSCOW vise à travailler sur plusieurs supports (texte, image, vidéos) et plusieurs plateformes pour mettre au jour les différentes méthodes de manipulation d’opinions existant sur les réseaux sociaux tels que Twitter.

Le premier sujet d’application à été le changement climatique sur Twitter. L’objectif est de voir la dynamique des communautés sur le sujet avant et pendant des  événements d’ampleur tels que la COP25 mais également sur des temps plus longs.

Description

L’ élection de Donald Trump et le referendum du Brexit ont mis en lumière l’influence des réseaux sociaux sur le vote et dans une certaine mesure l’opinion des citoyens de nombreux pays. En démocratisant l’expression de ”Fake News” à propos des principaux médias américains, Trump a assumé ses positions basées sur des faits qualifiées d’alternatifs par son propre camp. Face à ces fausses informations, différentes initiatives de fact-checking sont apparues. On peut notamment citer Hoaxbuster, Hoaxkiller, les Decodex du Monde ou encore Crosscheck. Bien que nécessaires, celles-ci ne sont cependant pas capables de réellement freiner la propagation de fausses informations car elles ne touchent que rarement les personnes qui les diffusent et les relaient. Il convient également de distinguer la désinformation correspondant au fait de diffuser volontairement des informations trompeuses dans le but de nuire et la mésinformation qui est le fait de partager des informations trompeuses ou détournées sans forcément le savoir. La première se situe au coeur du problème là où la seconde en est une conséquence.

Afin de mieux appréhender la désinformation, il est essentiel de comprendre les vecteurs qu’elle utilise. L’objectif est double : détecter mais aussi modéliser la propagation des fausses informations dans les réseaux sociaux. La structure même des réseaux a un fort impact sur cette propagation. Le fonctionnement de chaque plateforme est différent. Les algorithmes qui régissent le contenu visible par chacun se base sur les préférences incitant donc les utilisateurs à définir leur appartenance à des communautés grâce à leurs actions (like, retweet, groupe, etc). L’analyse de la formation de communautés en ligne est donc un bon indicateur de la diffusion d’information dans son ensemble. Invisible pour les utilisateurs du réseaux, ces communautés n’apparaissent que grâce à des macroscropes, des outils capables de travailler à l’échelle des millions de d’utilisateurs du réseau.

La dynamique des communautés et l’émergence d’idées sont interdépendantes et aboutissent à la création de narratif propre à chaque communauté, c’est-à- dire à des ensembles d’idées, cohérentes entre elles, permettant d’appréhender toute nouvelle information.

  • Equipe

    David Chavalarias
    Directeur d’Unité ISC-PIF / Directeur de recherche CNRS / Chercheur au CAMS – EHESS

    Victor Chomel
    Doctorant ISC-PIF

    Boris Borzic
    PhD Research engineer – CNRS – SIC/TIC

    Maziyar Panahi
    Ingénieur CNRS/ISC-PIF, Big Data