« Les technologies numériques n’apportent pas de réponses universelles »
Le sociologue Francis Chateauraynaud, le mathématicien David Chavalarias et l’historien des sciences Josquin Debaz s’interrogent, dans une tribune au « Monde » du 1er mars 2019, sur l’enrôlement des technologies numériques dans l’analyse du grand débat. Et sur le risque d’une synthèse très partielle de l’expression des citoyens.
Dans Variété I (1924), Paul Valéry écrivait que l’« on peut étudier un texte de bien des façons indépendantes, car il est tour à tour justiciable de la phonétique, de la sémantique, de la syntaxe, de la logique, de la rhétorique, sans omettre la métrique, ni l’étymologie. » Qu’aurait pensé le poète et philosophe face à l’ambition d’étudier des centaines de milliers de textes ? Parions qu’il eut été dubitatif. Mais l’intelligence artificielle, formule désormais attrape-tout en dépit d’une histoire intellectuelle et scientifique précise, n’a-t-elle pas franchi tous les verrous techniques au point qu’aucun objet ne saurait lui résister ? C’est ce que semble croire le gouvernement en annonçant que les contributions du grand débat national seront analysées par des algorithmes. La confiance dans la puissance des technologies justifie-t-elle de se priver des milliers de relectures humaines en supprimant toute fonctionnalité interactive (votes, commentaires, liens) sur le site officiel ? Le choix adopté pour traiter les contributions des citoyens pose doublement question : pour des raisons scientifiques, liées aux méthodes d’interprétation des discours, mais aussi pour des raisons politiques qui engagent les rapports entre démocratie et mondes numériques.
Les analyses de corpus de grande ampleur mobilisent des théories et des méthodes très différentes. Dans le cas particulier des débats et des controverses, la pluralité des outils et des chemins interprétatifs l’emporte sur l’idée d’une représentation unique résumant la totalité des récits et des argumentations. L’apprentissage automatique est une vieille affaire, avec ses atouts et ses faiblesses, mais il nous faut alerter contre une sorte de pensée magique dotant les technologies numériques de réponses universelles, alors même que la diversité des approches est la première condition épistémologique d’analyses rigoureuses. Les expériences instrumentales menées en sciences sociales ont fait surgir une constante : l’accès au sens de ce qui est dit, explicitement ou implicitement, passe par un lourd travail interprétatif, dans lequel se posent, à chaque étape, de sérieux problèmes de catégorisation. Quelle que soit la puissance ou la finesse des modèles et des algorithmes, la supériorité d’une interprétation émerge toujours de la confrontation de multiples versions soumises à la critique.
Un tel espace de confrontation ne peut faire l’économie de la multitude des contextes de prise de parole : plusieurs plateformes ont été créées à côté ou en opposition au site officiel, et des discussions se déploient dans de nombreuses arènes, de la presse traditionnelle aux médias sociaux, des sites politiques aux assemblées citoyennes et autres réunions publiques. Le fait même que des débats échappent au périmètre officiel est en soi un signe de succès de l’initiative. Mais comment prétendre aller au-delà d’une simple consultation et être à l’écoute s’il n’est pas tenu compte de la diversité des scènes de discussion ? La synthèse du débat national doit intégrer les différents contextes d’argumentation, sans quoi elle ne sera qu’une synthèse très partielle de l’expression des citoyens.
Le grand débat voulu par Emmanuel Macron face à la mobilisation des gilets jaunes a suscité beaucoup de réserves quant au cadrage des problèmes effectué au détriment de formes plus dialogiques. En l’état, la procédure a de fortes chances de servir d’opérateur de relégitimation du pouvoir politique sans faire évoluer les outils de la démocratie. La revendication d’un référendum d’initiative citoyenne est fortement mise en avant, et d’autres propositions sont avancées, comme le scrutin par jugement majoritaire, des assemblées fondées sur le tirage au sort ou des dispositifs participatifs pérennes. Même dans l’hypothèse où une synthèse équilibrée serait produite en si peu de temps, la question de la clôture du débat reste problématique. Les méthodes numériques permettent de travailler dans la durée, avec une organisation collaborative des archives et des discussions : pourquoi ne pas étendre, dès lors, la consultation au-delà des conclusions du gouvernement en instaurant une forme de débat continu ? Ce serait l’occasion pour les ministères et les agences de l’État de s’emparer des propositions citoyennes liées à leurs domaines de compétence : ainsi mobilisés, loin de toute fanfaronnade sur les capacités de calcul, les outils numériques rendraient un précieux service, en contribuant, à partir des engagements passés et présents, à rouvrir les futurs.
Pour que l’agrégation des contributions citoyennes ne finisse pas comme un gigantesque « cahier de doléance » à la seule destination des historiens, et constitue un ressort de renouvellement de la vie politique, il faut abandonner l’usage du numérique comme panacée technologique, pour le mettre au service de l’ouverture des espaces de représentation et d’interprétation. Pour l’heure, à défaut d’espaces critiques sur la fabrique des techniques de codage et de calcul, la référence aux avancées de l’intelligence artificielle reste suspecte et contribue à transformer la politique en technopolitique. Certes, des acteurs économiques, start-ups ou instituts de sondage, surfent sur la vague de l’IA, mais, face à une crise profonde des institutions, il convient surtout de renouer les liens entre recherche publique et question démocratique. Une des manières de le faire est d’organiser l’appropriation critique des outils numériques par les citoyens, dans une visée de recherche participative au service de débats démocratiques continus.