Commission d‘enquête sur les politiques publiques face aux opérations d’influences étrangères
Table ronde sur les influences étrangères dans l’espace numérique
publié le 4 juin 2024
Table ronde du Mardi 4 juin sur les influences étrangères dans l’espace numérique avec MM. Tariq Krim, fondateur du think tank Cybernetica, Bernard Benhamou, secrétaire général de l’Institut de la souveraineté numérique, Julien Nocetti, chercheur au Centre d’analyse, de prévision et de stratégie du ministère des affaires étrangères et David Chavalarias, directeur de recherche au CNRS
[Voir la page sur le site du Sénat] [Consulter le rapport complet]
Extraits d’interventions
Précisions, errata & références
Le timing des errata est donné par rapport à la vidéo complète ci-dessous.
À propos de la possibilité de permettre aux utilisateurs de certifier leur citoyenneté et de filtrer les contenus produits par leurs concitoyens
Cette proposition vise à donner aux utilisateurs des réseaux sociaux la possibilité de certifier leur citoyenneté de manière anonyme et sans transfert de données à l’Etat ou à la plateforme. Il s’agit ici d’imposer comme contrainte aux plateformes (erratum : 23’27” entendre “forcer les plateformes” et non “forcer les utilisateurs”)
- de rendre compatible leurs infrastructures avec des protocoles d’authentification tels que France Connect, ce de manière à ce que les utilisateurs, s’ils le souhaitent, puissent ajouter un badge de profil “citoyen français”.
- de permettre aux utilisateurs de filtrer à la volée et à la demande les messages qui relèvent d’un débat entre concitoyens lorsqu’il s’agit de sujets où une ingérence étrangère est à craindre. Par contraste, cela mettrait mieux détecter les opérations d’ingérence (filtrer les messages non français) et permettrait de se faire une idée de ce qui se dit à l’étranger sur un sujet quelconque d’intérêt international.
À propos du mode de scrutin et du jugement majoritaire comme solution
Erratum : 1h49’13” : entendre “Élire quelqu’un qui est rejeté par la majorité de la population” et non simplement“Élire quelqu’un qui est rejeté par une partie de la population”.
Il s’agit tout d’abord de respecter le principe de rejet majoritaire (cf. Toxic Data, Ch.12) : une option ou un.e candidat.e qui serait rejeté.e par la majorité de la population ne doit pas pouvoir être choisi.e. Le jugement majoritaire (voir ci-dessous) prenant en compte entre autres le rejet potentiel de tous les citoyens sur toutes les options, il respecte le principe de rejet majoritaire.
Pour en savoir plus sur cette problématique sur vote, voir la vidéo ci-dessous, le site de l’Association Mieux Voter et mon article :
Chavalarias, D. (2022). Mathématiques présidentielles La révolution du « jugement majoritaire ». Grief, 9(1), 59–82 (pre-print en accès libre sur HAL).
À propos de l’impact de l’AI à tout prix sur l’éthique
Erratum : 1h51 : Le journal israëlien parlait de l’armée israëlienne et non américaine.
L’article portant sur l’utilisation d’un système d’IA appelé “Lavender” pour diriger les drones israéliens sur Gaza a été publié par +972.
À propos de ce système :
Au début de la guerre, l’armée a largement autorisé les officiers à adopter les listes d’objectifs de Lavender, sans exiger de vérification approfondie des raisons pour lesquelles la machine avait fait ces choix, ni d’examen des données brutes de renseignement sur lesquelles elles étaient basées. Une source a déclaré que le personnel humain ne faisait souvent qu’entériner les décisions de la machine, ajoutant que, normalement, il ne consacrait personnellement qu’environ « 20 secondes » à chaque cible avant d’autoriser un bombardement – juste pour s’assurer que la cible marquée par Lavender est bien un homme. Et ce, tout en sachant que le système commet ce que l’on considère comme des « erreurs » dans environ 10 % des cas, et qu’il est connu pour marquer occasionnellement des individus qui n’ont qu’un lien ténu avec des groupes militants, voire aucun lien du tout.
Et concernant le caractère sans précédent de l’utilisation de tel systèmes :
Selon deux de ces sources, l’armée a également décidé, au cours des premières semaines de la guerre, que pour chaque agent subalterne du Hamas marqué par Lavender, il était permis de tuer jusqu’à 15 ou 20 civils ; par le passé, l’armée n’autorisait aucun « dommage collatéral » lors de l’assassinat de militants de rang subalterne.
On voit ici clairement que c’est l’éthique de la guerre qui s’adapter à la volonter d’utiliser l’IA et non l’IA qui doit respecter une éthique pré-établie.
À propos de l’ingérence du Kremlin dans les élections européennes de 2024 (et des législatives 2024)
J’évoquais le dernier article pre-print de Paul Bouchaud, qui effectue son doctorat avec moi à l’ISC-PIF : Paul Bouchaud. On Meta’s Political Ad Policy Enforcement: An analysis of Coordinated Campaigns & Pro-Russian Propaganda. 2024. ⟨hal-04541571v2⟩
Il a montré notamment, en analysant la Facebook add Library que, lors de la campagne européenne de 2024, les publics français, allemand, italien et polonais ont été la cible sur Facebook de publicités politiques pro-kremlin utilisant des événements d’actualité, comme les manifestations d’agriculteurs ou la guerre à l’Ukraine ou pro-Bardella. Au total, 3.800 pages ont touché plus de 38 millions de comptes entre le 2023/08 et le 2024/03. Moins de 20% d’entre elles ont été modérées par Meta, après avoir fait au moins 2,6 millions de vues.