S’inscrire à la mailing list
Pour rester informé.e des résultats et évolutions de l’extension.
Installez l’un des deux plugins Firefox ou Chrome (compatible Brave & Chromium). Attentions, ces plugins ne fonctionnent que sur les versions desktop (ordinateur) de ces navigateurs.
Les résultats de l’enquête Horus sont aujourd’hui publiés : Bouchaud, P., Chavalarias, D. & Panahi, M. Crowdsourced audit of Twitter’s recommender systems. Sci Rep 13, 16815 (2023). https://doi.org/10.1038/s41598-023-43980-4
Pre-print des premiers résultats : Paul Bouchaud, David Chavalarias, Maziyar Panahi (2023) Is Twitter’s recommender biased ? An audit. 2023. ⟨hal-04036232v2⟩
Il ne reste plus que quelques jours pour profiter d’Horus et obtenir la déformation de votre environnement social (Twitter, YouTube, Google, Facebook). Inscrivez-vous !
Google, YouTube, Facebook ou Twitter, tout ce que vous lisez ou visionnez sur ces plateformes a été sélectionné par un algorithme.
Ces algorithmes sont-ils biaisés ?
Êtes vous surexposé.e à des informations stressantes ou anxiogènes ?
Êtes-vous enfermé.e dans une chambre d’écho politique ?
Que ce soit sur Google, YouTube, Facebook ou Twitter, vous êtes seul.e face à l’algorithme de recommandation. Aucune donnée accessible publiquement ne permet de savoir dans quelle mesure les informations qui vous sont présentées sont neutres ou au contraire déforment la réalité dans un sens ou dans un autre.
En participant à l’enquête Horus, vous nous aidez à comprendre les risques associés à l’hyper-personnalisation de l’information à l’échelle de la société, tout en prenant du recul par rapport à vos propres environnements numériques.
Horus est une extension de navigateur développée au CNRS/ISC-PIF. Elle vous aide à mieux saisir les partis pris des GAFAM lorsqu’ils vous alimentent en information, premiers pas vers une reprise du contrôle de vos environnements numériques.
À partir de l’analyse de ce que ces plateformes vous montrent, Horus vous indiquera de manière synthétique si elles vous exposent de manière privilégiée à certains contenus.
Dès la première semaine d’utilisation, vous recevrez des statistiques vous permettant de mieux comprendre les environnements numériques auxquels vous êtes confronté.e.
Notre objectif de recherche est de mieux comprendre l’impact des grandes plateformes numériques sur les individus et la société et nous ne pourrons pas y arriver sans vous. En plus d’analyses personnalisées que vous serez seul.e à voir, des analyses effectuées au niveau collectif seront publiées sur cette page d’ici à quelques mois. Elles s’appuieront sur le projet Politoscope, qui depuis 2016 observe la vie politique sur Twitter.
La protection de la vie privée est au cœur de notre démarche scientifique. Les données collectées sont traitées de manière non nominative et analysées de manière agrégée par les chercheurs du CNRS. Aucune analyse publiée par notre équipe ne permettra d’identifier un utilisateur particulier.
Horus vous donnera chaque semaines plusieurs métriques.
Sur Twitter
Sur le moteur de recherche Google Les résultats de vos recherches Google sont-ils orientées politiquement ? Un score entre 0 et 10 vous permettra d’estimer les biais politiques des contenus qui vous sont recommandés dans vos recherches Google par rapport à la diversité présentée à un profil neutre.
Sur YouTube. Les recommandations de YouTube sont-elles orientées politiquement ? Un score entre 0 et 10 vous permettra d’estimer les biais politiques des contenus qui vous sont recommandés par rapport à la diversité présentée à un profil neutre.
Nous avons tous des biais psychologiques qui interfèrent avec notre manière d’utiliser les plateformes numériques. L’enquête Horus vous donne une estimation de certains de ces biais et nous aide à les quantifier à l’échelle d’une sous-population.
Biais de négativité. Nous avons tous un biais qui consiste à privilégier la lecture de contenus orientés négativement. Cela s’appelle le biais de négativité et il peut être plus ou moins prononcé. Cette étude vous donnera une estimation de votre biais de négativité et nous permettra de savoir dans quelle mesure les biais de négativité des utilisateurs sont exploités par les algorithmes de recommandation. Vous pouvez trouver ci-dessous, deux tweets relatant le même événement, l’un ayant une tonalité neutre, le second ayant une tonalité négative; le biais de négativité aura tendance à ce que vous lisiez plutôt le second.
Vous pouvez lire nos précédents travaux :
Une partie de l’enquête utilise le logiciel libre d’analyse textuelle CamemBERT pour évaluer la valence d’un Tweet sur une échelle négatif/neutre/positif. Ci-contre, deux tweets portant sur le même sujet mais abordé avec différentes rhétoriques et classifiés par CamemBERT.
Martin, L., Muller, B., Ortiz Suárez, P.J., Dupont, Y., Romary, L., de la Clergerie, É.V., Seddah, D., Sagot, B., 2020. CamemBERT: a Tasty French Language Model, in: Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics.
Vous devez être connecté pour poster un commentaire.