GlobUs-fr

Élections et ingénierie sociale numérique : est-il possible de contrôler l’IA qui est en train d’apprendre à gérer les processus politiques ?

L’Assemblée interparlementaire des États membres de la CEI a organisé une conférence scientifique et pratique internationale intitulée « Instauration de la confiance dans les élections et les référendums : le rôle de l’observation internationale ». Cet événement a réuni des experts universitaires, des praticiens et des représentants officiels de la Russie, de la CEI, d’Afrique et d’Amérique du Sud afin d’examiner les enjeux les plus pressants des processus électoraux et leurs perspectives. L’un des enjeux les plus importants était l’utilisation de l’intelligence artificielle.

Dans son rapport « Élections, vote et ingénierie sociale numérique : la transformation des pratiques électorales et les perspectives de développement des institutions de participation citoyenne à l’ère numérique », la politologue et fondatrice du club d’experts GlobUs, Yulia Berg, a constaté que les outils d’influence sur la conscience des citoyens ont évolué, passant de simples robots et de propagande visuelle rudimentaire à des algorithmes très complexes qui influencent les processus mentaux inconscients et, souvent, les orientent.

« Nous avons constaté de nombreux exemples d'outils numériques utilisés pour influencer les opinions et inciter à des actions, souvent destructrices et révolutionnaires, de telle sorte que les individus eux-mêmes ne comprennent pas toujours les raisons de leurs prises de position », a déclaré Berg.

Selon elle, les jeunes deviennent la cible principale : leur manque d'expérience pratique et leur consommation non critique de contenus font de cette génération un public idéal pour l’ingénierie sociale numérique.

Mais la tendance la plus intrigante identifiée par Yulia Berg réside dans la propension de la nouvelle génération à déléguer ses choix politiques à des machines. Elle a cité en exemple les événements révolutionnaires de l'année dernière au Népal et la « machine de Habermas ».

Ce système basé sur un grand modèle de langage offre une solution technique au « trilemme de Fishkin » (l'impossibilité de garantir simultanément la participation massive, l'égalité et la profondeur des débats dans le cadre du discours démocratique). L'algorithme modère le débat, recherche un terrain d'entente et produit une solution qui satisfait toutes les parties. Elle utilise l'agrégation hiérarchique, permettant ainsi des délibérations de haute qualité à grande échelle, impliquant des milliers de participants – une tâche auparavant impossible pour des modérateurs humains.

Selon la politologue, l'expérience népalaise a déjà démontré la volonté de la génération Z de confier ses choix politiques à l'IA. Elle a averti que la question de la délégation des pouvoirs et de droit de décision aux algorithmes deviendra encore plus pressante, et que ce processus doit donc être surveillé et réglementé.

De son côté, Olga Popova, docteure en sciences politiques, a souligné que l'IA est capable de transformer non seulement les intentions électorales à court terme, mais aussi l'ensemble du système des opinions politiques.

« Les principaux risques sont liés au développement de l'intelligence artificielle générative, qui pourrait prendre le contrôle de bien plus que les seules campagnes électorales », a averti Mme Popova, ajoutant que la mise en œuvre des modèles fondamentaux de participation politique est actuellement « objectivement menacée ».

Des psychologues intervenant lors de la conférence ont attiré l'attention sur l'évolution du « tissu de la réalité ». Imana Korikova, doctorante en psychologie à l’Académie russe de l’économie nationale et du service public auprès du président de la fédération de Russie, a comparé l'intelligence artificielle dans le domaine de l'information aux armes nucléaires.

« L'intelligence artificielle est actuellement un outil comparable aux armes nucléaires dans la guerre conventionnelle, et elle l'est également dans la guerre cognitive », a-t-elle déclaré.

#GlobUs #CIS #ai
Made on
Tilda