Projet BOOM : « dégonfler » les bulles d’opinion politique en ligne
Les algorithmes de recommandation des réseaux sociaux ont tendance à enfermer les utilisateurs dans des bulles d’opinion, contribuant ainsi à accentuer la polarisation politique. Le projet BOOM, réunissant notamment l’Institut Mines-Télécom Business School (IMT-BS) composante du Carnot TSN et l’entreprise Syllabs, entend prendre le contre-pied de ce phénomène, en développant un système de recommandation favorisant, au contraire, la diversité des points de vue.
Les réseaux sociaux constituent aujourd’hui une source d’information majeure pour de nombreux internautes. Un bon moyen de s’ouvrir à la diversité d’opinions présente en ligne ? Malheureusement non, comme l’explique Nicolas Soulié, maître de conférences en économie à IMT-BS : « Des plateformes telles que Facebook et Twitter cherchent à capter au maximum l’attention des individus. Pour cela, elles utilisent des systèmes de recommandation proposant automatiquement des contenus personnalisés, susceptibles de plaire à leurs utilisateurs. Et quand il est question de politique, ces derniers sont alors essentiellement confrontés à – et attirés par – des points de vue correspondant au leur. »
Les utilisateurs des réseaux sociaux finissent ainsi par se retrouver enfermés dans des bulles d’opinion, ou bulles de filtres , selon le terme créé par l’entrepreneur et militant américain Eli Pariser. Au sein de la société, ce phénomène peut conduire à la polarisation des opinions, un climat susceptible d’engendrer des tensions, voire des troubles à l’ordre public. « C’est, par exemple, ce qui s’est produit lors de la crise sanitaire liée au Covid », rappelle Olivier Hamon, CTO de l’entreprise Syllabs. « Nous avons notamment assisté à une stricte opposition entre les partisans de la vaccination et les « antivax ». » Dans un cas comme celui-ci, chaque camp a tendance à mépriser l’opinion opposée, ce qui peut conduire à des violences verbales, voire physiques.
De plus, certains acteurs cherchent à exploiter cette polarisation, afin de peser sur des décisions ou des élections. « Par exemple, des « usines à trolls » ont parfois été utilisées pour manipuler l’information, en alimentant des populations cibles de fake news, via les mécanismes de recommandation », cite Nicolas Soulié. « De même, le scandale Cambridge Analytica a montré comment des partis politiques parvenaient à influencer, à grande échelle, les intentions de vote à travers les réseaux sociaux. »
Recommander des contenus favorisant la diversité d’opinions
C’est pour endiguer les effets néfastes de la polarisation qu’a été créé le projet BOOM, acronyme signifiant « Modeling and Opening Opinion Bubbles » (« Modéliser et Ouvrir les Bulles d’Opinion »). Il réunit cinq partenaires : le laboratoire lorrain de recherche en informatique et ses applications (LORIA), le Carnot CEA LIST, IMT-BS, le laboratoire Biens, Normes et Contrats (LBNC) et l’entreprise Syllabs.
Son objectif : mettre au point un système de recommandation, à l’instar des méthodes employées sur les réseaux sociaux. Mais avec une nuance de taille : ici, les contenus suggérés visent à faire sortir les utilisateurs de leur bulle d’opinion et à favoriser la diversité. « Il ne s’agit cependant pas de placer le lecteur face à un point de vue totalement opposé au sien », tempère Olivier Hamon. « Nous entendons plutôt lui présenter des opinions différentes, mais proches de la sienne, afin de l’ouvrir à une plus grande diversité d’avis et à le pousser à la réflexion, sans le heurter. »
Si les chercheurs concentrent leur étude sur les réseaux sociaux, ils gardent néanmoins un œil sur d’autres technologies, telles que les IA génératives, à l’instar de ChatGPT. « Comme tout outil puissant, il peut être utilisé à mauvais escient », note Nicolas Soulié. « Il est encore un peu tôt pour identifier de potentielles dérives, mais ChatGPT pourrait être employé en vue de générer rapidement de grands volumes de textes favorisant la polarisation et la manipulation d’opinions. » Par conséquent, l’équipe de recherche entend prendre en compte cette nouvelle donne, afin d’en analyser les conséquences sur les bulles d’opinion.
Personne n’est immunisé contre les bulles d’opinion
Le projet BOOM illustre une nouvelle fois la richesse des partenariats entre le monde de l’entreprise et celui de la recherche. « Pour Syllabs, l’intérêt de cette collaboration est multiple », confie le CTO de la société. « Il nous permet premièrement de contribuer à un développement technologique de haut niveau, qui peut ensuite venir enrichir notre propre socle technique, dans le cadre de notre activité. Mais nous avons aussi à cœur de rester au contact du monde académique, toujours susceptible d’alimenter nos réflexions et nos idées, à plus forte raison lorsqu’il s’agit de travaux multidisciplinaires. »
En effet, le projet mêle, entre autres, des expertises en collecte et analyse de données, développement informatique, expérience utilisateur, économie numérique ou sciences politiques. Ce dernier domaine figurait au cœur de l’une des premières étapes : l’analyse des mécanismes de la polarisation, notamment à travers une série d’entretiens. « Premier enseignement : tout le monde est susceptible de se retrouver enfermé dans une bulle d’opinion », révèle Nicolas Soulié. « S’il est possible d’identifier certains facteurs socio-économiques favorisant la polarisation, il y a toujours des dynamiques individuelles variées au sein d’un groupe. D’où l’intérêt de recommandations véritablement personnalisées. » De plus, aucun thème n’est épargné par la polarisation, pas même un sujet aussi trivial qu’une recette de cuisine.
Ce travail alimente les autres briques du projet. Ainsi, l’équipe de recherche vise, d’une part, à définir des métriques permettant de mesurer le niveau de polarisation de chaque individu, afin d’adapter les recommandations en fonction de ce paramètre. D’autre part, il s’agit d’analyser automatiquement les contenus partagés sur les réseaux sociaux, pour déterminer ceux à suggérer à l’utilisateur, selon le contexte. Toutes ces briques sont ensuite assemblées au sein d’un démonstrateur de système de recommandation, développé en s’assurant que l’expérience utilisateur contribue à promouvoir la diversité d’opinions.
Des garde-fous éthiques contre la manipulation politique
En revanche, le but du projet BOOM n’est pas de modifier les convictions des individus, mais uniquement de « dégonfler les bulles dans lesquelles ils sont enfermés », selon Nicolas Soulié. Et pour cause : comme l’a démontré une étude menée par des chercheurs américains en 2018 , il ne suffit pas d’exposer des internautes à des points de vue opposés au leur pour qu’ils changent d’avis (le phénomène inverse paraissant même plus fréquent).
De plus, en cherchant à atténuer la polarisation des opinions, le projet entend également limiter les risques de manipulation politique. Il n’est donc pas question d’exercer une influence sur les utilisateurs. « Nous restons attentifs aux questions éthiques autour de notre système de recommandation », affirme Olivier Hamon. « Comment sera-t-il utilisé, à terme ? Par qui ? Quels sont les risques associés ? Tous ces points d’attention font partie intégrante de notre démarche. »
L’un des partenaires, le LORIA, a d’ailleurs présenté le projet BOOM au comité d’éthique de l’université de Lorraine, à laquelle il est rattaché. Ce passage a permis de s’assurer du respect d’un certain nombre d’exigences éthiques, de valider l’utilisation du système final et de souligner la nécessité d’encadrer les évaluations réalisées par les utilisateurs lors des différents tests.
Ceux-ci ont débuté dès la fin de l’année 2023, avec le lancement d’une version bêta et le recrutement d’un premier panel d’utilisateurs. Les chercheurs s’attacheront alors à mesurer les effets de leur système sur la polarisation des opinions politiques. Avant de s’attaquer à un plus grand terrain d’expérimentation, lors des élections européennes de juin 2024.