Par Karen Prévost-Sorbe

L’expression « fake news » s’est répandue très rapidement lors de la victoire de Donald Trump à l’élection présidentielle américaine en 2016. Elle a connu un succès redoublé lorsque le 45e président des États-Unis lui-même s’est mis à l’employer dans ses tweets et n’a eu de cesse de critiquer le traitement médiatique à son égard. Il a ainsi accusé ouvertement de grands médias américains comme le New York Times, le Washington Post ou bien encore CNN.
Depuis, la formule « fake news » a circulé rapidement, ce qui traduit une réelle popularité de ce syntagme. Or, cette expression recoupe des réalités très différentes. Ce terme est loin de désigner une seule et même dimension du faux. Des tentatives de classification ont été menées (voir C. Wardle, « Fake news, la complexité de la désinformation », First Draft, 17 mars 2017). Ces fausses informations ont un point commun : le support utilisé, le vecteur emprunté. Internet et plus particulièrement les réseaux socionumériques ont pris une place prépondérante dans notre société. « Les “tuyaux” sont neutres, mais ils permettent une viralité, une vitesse de propagation qui n’existait évidemment pas au temps de la “rumeur d’Orléans” étudiée par Edgar Morin il y a quarante ans » (P. Haski, « Démêler le vrai du faux », Esprit, n° 3, mars 2018, p. 18-21).
Une fausse information peut être partagée instantanément et diffusée à des milliers de personnes. Les réseaux sociaux offrent une caisse de résonance incroyable aux fausses informations. D’un point de vue historique, les fausses informations s’inscrivent dans une longue lignée de faux et de contrefaçons. Mais ce phénomène interroge aujourd’hui grandement nos sociétés à cause de son ampleur et de ses formes. Sommes-nous entrés dans une ère de la « post-vérité », la diffusion de ces fausses informations traduit-elle une multiplication des crédules, comme le dit le sociologue Gérald Bronner dans La Démocratie des crédules (PUF, 2013), ou bien est-ce un délitement de l’esprit critique ?
Face à la massification de l’information
Depuis l’apparition d’internet, on assiste à une massification de l’information. L’explosion de l’offre facilite la présence de propositions cognitives différentes sur le marché et leur plus grande accessibilité. Mais comment faire le tri, démêler le vrai du faux ? Face à cette offre pléthorique, les individus sont plus facilement tentés de composer leur propre vision du monde. Toutes les conditions sont réunies pour que ce biais cognitif appelé « biais de confirmation » détourne les individus de la vérité.
Il s’agit d’un biais cognitif puissant qui pérennise les croyances : les individus ont tendance à ne consulter que les informations qui épousent leur sensibilité. De la même façon, les algorithmes, notamment ceux des réseaux sociaux, contribuent à filtrer discrètement les contenus visibles des internautes en s’appuyant sur différentes données collectées sur eux. Ainsi, les individus s’enferment progressivement dans des bulles informationnelles et voient leur libre arbitre limité.
La « bulle de filtres » est un concept développé par Eli Pariser dans les années 2010. Selon lui, elle désigne à la fois le filtrage de l’information qui parvient aux internautes par différents filtres et l’état d’isolement intellectuel et culturel dans lequel ils se trouvent, quand les informations qu’ils recherchent sur internet résultent d’une personnalisation mise en place à leur insu. Ce concept fortement médiatisé est critiqué par la trop grande importance accordée aux algorithmes et aux mesures techniques de personnalisation. Les filtres auraient moins d’importance que d’autres mécanismes tels que les chambres d’écho. Selon Dominique Cardon, « la bulle, c’est nous qui la créons. Par un mécanisme typique de reproduction sociale. Le vrai filtre, c’est le choix de nos amis, plus que l’algorithme de Facebook » (voir A. Gunthert, « Et si on arrêtait avec les bulles de filtre ? », L’image sociale, 13 novembre 2015).
Face à la régulation des contenus sur les réseaux sociaux
La circulation des fausses informations a des conséquences directes sur le fonctionnement de la sphère publique et des démocraties, notamment lors des élections qui sont des moments privilégiés pour des actions de manipulation de l’information et de l’opinion publique. Cependant, comme le rappellent des chercheurs, le véritable enjeu de la circulation de ces contenus problématiques réside dans une volonté de réguler l’information, en particulier sur les réseaux sociaux.
Des plateformes telles que Facebook, Twitter ou encore YouTube ont des responsabilités. Comme le souligne Romain Badouard dans Les Nouvelles Lois du web. Modération et censure (Seuil, 2020), « les plateformes ne sont pas neutres par rapport aux contenus qu’elles hébergent. Via leurs algorithmes, elles exercent des activités de filtrage, de tri, de mise en visibilité des informations, qui peuvent s’apparenter à des activités éditoriales. Même si, à ce jour, elles ont le statut d’hébergeur et non d’éditeur de contenu ». Ces plateformes ne considèrent pas la véracité ou l’objectivité des sites d’informations comme des critères prioritaires dans le classement qu’elles opèrent (Frau-Meigs, Faut-il avoir peur des fake news ?, La Documentation française, 2019). Elles se focalisent uniquement sur l’engagement.
Mais la pression s’intensifie sur les acteurs de l’économie numérique, notamment de la part des gouvernements et des États, pour qu’une régulation soit instaurée. Ces plateformes ont mis du temps à réagir face à la désinformation. Des affaires telles que Cambridge Analytica ont aussi eu de lourdes répercussions. Les plateformes ont finalement opté pour plus de transparence et ont mis en place, récemment, un arsenal de mesures pour lutter plus efficacement contre la désinformation et les faux comptes.
Les campagnes d’ingérence russe dans l’élection présidentielle américaine de 2016 ont mis à jour l’impact des « usines à trolls » sur le débat public aux États-Unis. Ces trolls se servent de toutes les plateformes pour accroître leur influence. Pour les élections européennes en 2019, Twitter, Facebook, etc. ont développé de nouvelles fonctionnalités pour contrer les fausses informations. Les géants du web ont également supprimé des milliers de faux comptes. Facebook assure ainsi avoir supprimé 5,4 milliards de faux comptes d’utilisateurs en 2019 (un record !).
Face à de nouveaux défis
Les travaux de la chercheuse française Camille François, menés dans les data sciences, sont très intéressants. Elle se focalise tout particulièrement sur la manière dont les informations circulent sur les plateformes grâce au machine learning (technologie de l’intelligence artificielle). Elle mène également un important travail d’enquête pour détecter les campagnes de manipulation de l’information en utilisant la méthode du digital forensics (investigation numérique). L’approche data-scientiste du phénomène des fake news est aujourd’hui incontournable. De nombreux articles ou encore des vidéos sont ainsi créés grâce à quelques outils alimentés par l’intelligence artificielle (IA), ce qui suscite des inquiétudes au sujet d’une potentielle utilisation malveillante de cette technologie. Les deepfakes en sont un parfait exemple : la qualité de ces images semble très convaincante aux yeux des humains (cf. la fiche « Les artistes fabriquent-ils des fake news ? »).
Ressources en +
Voir l’interview de Laurent Bigot, directeur de l’École publique de journalisme de Tours (EPJT), journaliste et maître de conférences Fact checking et IFCN, produite pour l’exposition, autour des réseaux sociaux et la propagation des fake news.
Consulter la data visualisation présentée dans l’exposition.