Diffusion, radicalisation et normalisation des rhétoriques d’extrême droite sur Internet
En novembre dernier, l’acteur Sacha Baron Cohen a fait les manchettes après avoir écorché les géants du web lors d’un discours à l’Anti-Defamation League (ADL), arguant que ces derniers rendaient possible la prolifération des discours haineux et de la désinformation (Baron Cohen, 2019).
L’acteur a notamment décrit les grandes compagnies de l’industrie comme formant « la plus grande machine de propagande de l’histoire » et a affirmé que Facebook aurait laissé Hitler acheter des publicités sur sa plateforme. Certes, Baron Cohen n’est pas un universitaire expert dans le domaine du racisme en ligne, mais son discours s’appuyait sur des faits rapportés par des enquêtes journalistiques et académiques.
Facebook a répondu formellement à ces critiques en soutenant qu’elles ne rendaient pas justice aux politiques de la compagnie qui interdisent le discours haineux et prévoient le bannissement des acteurs qui font la promotion de la violence. Or, de nombreux observateurs n’ont pas manqué de souligner les écarts entre les politiques officielles de ces compagnies et les réalités observées sur leurs plateformes.
Facebook, Twitter et Google ont tous adopté des politiques concernant le contenu haineux. Celles-ci varient d’une plateforme à l’autre et sont sujettes à des modifications sous la pression du public et des États qui réagissent à la hausse de l’expression raciste décomplexée et à des événements violents liés à l’écologie extrémiste en ligne.
Par exemple, en mars 2019, Facebook a annoncé une nouvelle politique qui interdit la célébration, le soutien ou la représentation explicite du nationalisme blanc et du séparatisme blanc. Jusqu’alors, seul le suprématisme blanc1 faisait l’objet d’une réglementation.
Cette décision n’a pas été prise à l’initiative de Facebook, mais bien sous la pression de la société civile et des groupes de défense des droits civiques dans le contexte de l’attentat terroriste islamophobe à Christchurch en Nouvelle-Zélande. Rappelons que le terroriste avait diffusé en direct ses attaques sur Facebook. Or, cette nouvelle politique risque d’avoir des effets marginaux dans la mesure où elle n’interdit pas les contenus qui font la promotion de l’idéologie nationaliste blanche, mais bien ceux qui utilisent explicitement le terme (AFP, 2019).
En dépit de ces politiques corporatives, les discours racistes continuent de se propager en ligne comme autant de menaces à la démocratie libérale, à la citoyenneté pluraliste et à la sécurité des minorités racisées. Qui plus est, plusieurs groupes nationalistes blancs continuent d’opérer librement sur cette plateforme, notamment par le biais de pages qui prennent la forme de sites d’informations réguliers, mais qui diffusent de la propagande anti-immigration, raciste, antisémite et islamophobe (Carrie Wong, 2019).
Malgré le fait que ces groupes soient des exemples types du nationalisme blanc, Facebook juge qu’ils ne violent pas ses politiques. Dans d’autres cas, des groupes explicitement bannis de la plateforme, comme les Soldats d’Odin au Canada, continuent d’opérer et de recruter des membres ou se reforment sous un nom légèrement altéré (Lytvynenko, Silverman et Boutilier, 2019).
Les effets de l’aveuglement de l’industrie
Internet et racisme sont si étroitement associés aujourd’hui que l’on oublie que, dans les années 1990, il régnait une forte croyance selon laquelle le web allait mener à un nouvel élan démocratique en donnant lieu à un espace mondial de partage d’informations qui permettrait de dépasser les inégalités statutaires. Cette idée est au cœur de la mise en marché du web 2.0, c’est-à-dire des médias dits sociaux, participatifs, égalitaires et neutres, où les différences liées à la race, l’origine nationale, le genre et autres seraient dépassées.
Or, la littérature scientifique montre bien que les inégalités sociales structurent le web et les interactions qui s’y déploient, c’est-à-dire que les dynamiques de marginalisation, de stigmatisation et d’exclusion que l’on observe hors ligne sont transposées en ligne. Cette croyance en la neutralité raciale du web a des effets continus encore aujourd’hui, notamment dans l’idée selon laquelle le racisme est un élément externe au système et le fait d’extrémistes marginaux qui viennent corrompre la nature d’un espace autrement démocratique et égalitaire.
En vérité, la présence du racisme explicite en ligne est étroitement liée à l’aveuglement de l’industrie par rapport à la race (color-blindness). C’est dans ce sens que Jessie Daniels (2018) parle d’une montée algorithmique de l’Alt-Right, c’est-à-dire que la croissance du nationalisme blanc observée aujourd’hui aurait été impossible sans les opportunités du web et que ces opportunités sont rendues possibles par l’aveuglement de l’industrie.
Le web 2.0 a permis aux extrémistes de droite de sortir des marges, d’influencer l’opinion publique et de normaliser des éléments centraux de leurs discours. Avant l’ère des médias sociaux, ils avaient recours à Internet pour développer leurs idées et faciliter leur organisation, mais les interactions avec le grand public ou avec des individus qui ne sont pas affiliés à des groupes de cette mouvance étaient marginales.
On les retrouvait principalement sur des forums suprématistes comme Stormfront, relativement isolés dans l’écologie numérique. Une des premières formes de dissémination numérique de la propagande suprématiste hors des cercles extrémistes était l’utilisation de sites masqués (Daniels, 2009).
Des groupes ou des individus utilisaient cette technique pour masquer leur affiliation idéologique et subtilement faire circuler leurs idées politiques à travers des sites qui prenaient la forme de sites d’éducation neutre. Par exemple, des sites sur l’esclavage, l’Holocauste et le mouvement pour les droits civiques mettaient de l’avant des thèses révisionnistes et négationnistes.
Alt-Right, la marge qui veut imposer son idéologie
Avec l’arrivée des médias sociaux, les possibilités de dissémination de la propagande raciste ont explosé. Les suprématistes et nationalistes blancs ont à nouveau montré à quel point ils sont des opportunistes. Toutes les nouveautés technologiques comme tous les thèmes faisant l’objet de débats publics sont instrumentalisés afin de mettre de l’avant la propagande d’extrême droite.
Ces racistes tirent donc profit de la rupture avec les canaux de communication médiatique traditionnels. Désormais, tous peuvent être exposés à leurs idées, sans qu’elles doivent passer par le filtre des organes de presse ou même sans que les utilisateurs cherchent à y avoir accès. Qui plus est, l’extrême droite profite à la fois de l’économie politique du web qui valorise la liberté d’expression et du cadre légal états-unien laxiste auxquelles les entreprises des médias sociaux sont soumises.
Aujourd’hui, la mouvance extrémiste de droite la plus influente en ligne est celle de l’Alt-Right ainsi que sa forme plus « modérée » et plus large audience, l’Alt-lite.2 Ce mouvement né aux États-Unis s’est principalement fait connaître dans la foulée de la dernière campagne présidentielle.
Le phénomène dépasse largement les frontières de nos voisins du Sud et influence notamment les groupes et individus aux idéologies apparentées au Canada et au Québec (Tanner et Campana, 2019). À la différence des partis politiques et organisations d’extrême droite, l’Alt-Right ne constitue pas un mouvement unifié avec une hiérarchie et une structure organisationnelle formelles.
Prenant racine sur le web, il fonctionne en réseau et regroupe différentes idéologies racistes. Ce mouvement hétéroclite se rassemble autour de trois idées clés : 1) les Blancs sont menacés et assiégés par les forces multiculturelles, l’immigration et les minorités; 2) la masculinité blanche est menacée par sous-attaque en raison de la gauche féministe et les mouvements LGBTQ+; 3) la liberté d’expression est menacée par les élites et la gauche politiquement correcte.
La propagande raciste produite est donc indissociable du masculinisme et des théories du complot.
Les liens étroits entre l’extrême droite et la culture du web
Bien qu’ils puisent dans l’imagerie et les stéréotypes préexistants, les contenus racistes produits par l’Alt-Right sont profondément enracinés dans la culture du web. Une des images centrales de cet univers est celle de la pilule rouge, tirée du film culte The Matrix.
Les adeptes se donnent pour objectif de faire prendre la pilule rouge (redpilling) aux « normies », c’est-à-dire de les débrancher du monde des mensonges soutenu par les médias et de les faire entrer dans le « monde réel », un monde façonné par diverses théories du complot et paranoïas identitaires/raciales.
L’objectif énoncé par cette mouvance est de normaliser les thèmes et rhétoriques qui étaient jusqu’à récemment associés à l’extrême droite, soit l’identité blanche/ occidentale, l’immigration et les droits des minorités. Ces idées racistes sont promues en ligne en adoptant un langage et des formes qui permettront aux contenus de devenir viraux ou de subtilement pénétrer l’imaginaire public.
Les nationalistes blancs utilisent le même langage que la jeunesse d’aujourd’hui, ses codes culturels, son type d’humour, etc. De l’aveu même de la figure de proue de l’Alt-Right, le néonazi Richard Spencer, ce mouvement cible ce public en créant des espaces de révolte pour de jeunes blancs frustrés, profondément racistes ou qui prennent plaisir à « troller3 » pour se révolter contre le « politiquement correct ».
En effet, l’extrême droite exploite les frustrations et sentiments de révolte de jeunes hommes blancs pour propager leurs rhétoriques xénophobes, racistes, islamophobes, antisémites et misogynes, et ce, principalement à travers l’humour satirique populaire sur le web (Marwick et Lewis, 2017 ; Greene, 2019).
Une des voies principales de dissémination de la propagande nationaliste blanche est l’utilisation des mèmes4. D’ailleurs, l’Alt-Right s’est constituée sur le forum /pol/ (politically incorrect) du réseau social de partage d’images 4chan où plusieurs mèmes sont nés.
Par exemple, Pepe the frog, personnage célèbre dans la culture web, a été investi par l’Alt-Right pour que ses idées profitent de son caractère viral, et ce au point où le personnage est devenu la mascotte du mouvement et est aujourd’hui considéré comme un symbole haineux par l’Anti-Defamation League.
Les traits dominants de l’extrême droite en ligne
Au sein de la propagande des nationalistes blancs en ligne, le thème le plus populaire est celui du « génocide blanc ». Par-là, ils entendent que l’immigration non- blanche, les politiques multiculturelles et les unions mixtes mettent en danger la « race blanche » et la domination des Blancs au sein des sociétés nationales occidentales.
Un slogan populaire est celui de « diversity = white genocide ». Il sera par exemple apposé sur des photos de classe où l’on ne voit qu’un seul enfant blanc. À travers sa circulation sur les médias sociaux, cette vieille rhétorique de l’extrême droite gagne aujourd’hui en influence et mousse le discours du racisme à l’envers, ou racisme anti-blanc, qui soutient une idéologie politique nationaliste hostile à l’immigration et aux droits des minorités.
En Amérique du Nord comme en Europe, les idéologies apparentées du génocide blanc et du grand remplacement impliquent régulièrement des tropes antisémites. Par exemple, en 2016, un mème de l’Alt-Right montrait Hilary Clinton avec le visage du financier et philanthrope juif hongro-états-unien George Soros.
Dans la continuité de l’antisémitisme des Protocoles des Sages de Sion5, Soros est présenté comme la figure maîtresse d’un complot mondialiste, antinational et gauchiste qui souhaiterait, sinon détruire, diluer, la nature blanche et chrétienne des sociétés occidentales, et ce, à travers l’immigration issue du Sud global. Cette rhétorique du génocide blanc et sa variante du grand remplacement sont d’ailleurs centrales aux attentats terroristes antisémites et islamophobes de Pittsburgh et Christchurch.
Cette mouvance est particulièrement active sur d’autres plateformes où les utilisateurs bénéficient d’une très large liberté d’expression, incluant l’expression haineuse (8kun/8chan, Reddit, Gab, etc.). Ils ne s’y limitent toutefois pas puisque leur objectif est d’opérer une modification profonde des mentalités et un glissement du débat public vers leurs thèmes de prédilection.
C’est pourquoi ils investissent de plus en plus le terrain des médias sociaux les plus mainstream, soit Facebook, Twitter, Instagram et YouTube. La propagande y prend des formes plus subtiles et masque ses origines d’extrême droite, mais n’en maintient pas moins les mêmes cibles, les musulmans, les immigrants, les Juifs, les féministes, la gauche, etc. Aux États-Unis, même si l’Alt-Right se dit aujourd’hui trahie par Trump, ce dernier n’en a pas moins lourdement contribué à normaliser sa rhétorique anti-immigration.
Les nationalistes blancs sont des opportunistes qui exploitent les possibilités du web pour mener leurs attaques et diffuser leurs idées racistes6. Les algorithmes favorisent la propagation des idéologies racistes, que ce soit en facilitant la connexion des individus et groupes d’extrême droite ou en proposant des résultats de recherche et des contenus racistes.
Par exemple, l’algorithme de recommandation de YouTube mène des utilisateurs vers des vidéos et des chaines de théories du complot et contribue à la radicalisation d’extrême droite (O’Callaghan et coll. 2015 ; Kaiser et Rauchfleisch, 2018).
L’extrême droite tire donc profit du modèle d’affaire des médias sociaux qui, faut-il le rappeler, sont d’abord et avant tout des entreprises privées motivées par le profit et qui tirent la majorité de leurs revenus de la vente de publicités ciblées, basée sur les algorithmes. L’objectif est de rendre l’utilisateur captif et de générer du « clic » qui se traduit en revenus.
Ultimement, l’extrême droite utilise les algorithmes des médias sociaux et suit le modèle des influenceurs pour créer une communauté d’abonnés, délégitimer les médias traditionnels, diffuser ses idées racistes et en tirer des revenus (Lewis, 2018). Qui plus est, les contenus émotifs et provocateurs circulent souvent plus facilement sur les médias sociaux.
Désinformation et populisme
La recherche montre que les fausses nouvelles se diffusent plus rapidement et rejoignent davantage d’utilisateurs que les informations véridiques (Vosoughi, Roy et Aral, 2018). Les médias sociaux sont en phase avec un âge politique de l’affect où les sentiments ont davantage de poids que les faits.
Plusieurs études soulignent l’importance grandissante de la production de fausses nouvelles mue par des intérêts économiques et politiques, notamment dans le contexte de l’élection présidentielle états-unienne de 2016 (Persily, 2017 ; Hunt et Gentzkow, 2017 ; Sunstein, 2017).
Des individus anonymes sont en mesure de créer de fausses pages musulmanes sur Facebook afin de susciter la peur du public en faisant croire à des complots islamistes en Occident et en favorisant ainsi le développement de l’islamophobie (Farkas, Schou et Neumayer, 2018).
Pareillement, sur Twitter, des trolls nationalistes et suprématistes blancs utilisent de faux profils avec de fausses identités de minorités (ex. un juif avec une kippa ou une musulmane avec un hijab), encourageant ainsi, d’une part, l’idée du « racisme anti blanc » et, d’autre part, l’animosité entre les minorités de façon à saper leur solidarité contre l’extrême droite.7
Les producteurs de fausses nouvelles et de contenus haineux tirent profit de la propension des utilisateurs à croire aux contenus qui vont dans le sens de leurs opinions. Ils instrumentalisent donc les ressentiments, préjugés et stéréotypes racistes préexistants, et ce à des fins politiques et mercantiles.
Le design des médias sociaux est tel que la visibilité et la popularité d’une nouvelle deviennent garantes de sa crédibilité. À cet égard, plusieurs études documentent l’affinité entre les médias sociaux et la communication populiste de droite (Engesser et al., 2016; KhosraviNik, 2017 ; Ernst et al., 2017 ; Gerbaudo, 2018). Le populisme carbure à la représentation du peuple formé de citoyens sans-voix et les médias sociaux sont des instruments de récupération et de production de discours nationalistes antidémocratiques et exclusifs.
Ils permettent d’avoir un accès direct au public sans interférences journalistiques, de suggérer une connexion directe avec le peuple, d’attaquer les élites et d’ostraciser les minorités et les étrangers (Hameleers et Shcmuck, 2017). Il n’est alors pas surprenant de constater l’importante utilisation des médias sociaux par les politiciens de droite populiste radicale.
Évidemment, la question du racisme en ligne ne se limite pas aux groupes et aux acteurs politiques d’extrême droite. Nous sommes à l’ère du « Ne lisez pas les commentaires », c’est-à-dire que, au-delà des réseaux haineux, les médias sociaux et les sections commentaires ont fait exploser la visibilité d’attitudes xénophobes et racistes (Loke, 2012 ; Hughey et Daniels, 2013 ; Santana, 2015 ; Faulkner et Bliuc, 2016 ; Matamoros-Fernández-2017).
Internet est un espace où cohabitent des formes ouvertes et haineuses de racisme et des formes plus subtiles et socialement acceptables, notamment à travers les représentations de l’immigration et des musulmans comme menace culturelle, démographique, sécuritaire et économique pour la « nation » (Chao 2015 ; Awan, 2016 ; Forcier, 2019). Les individus ont souvent recours au déni du racisme et des privilèges liés à la blanchité dans les discussions en ligne, tout en mettant de l’avant des postures exclusivistes ou discriminatoires.
Sans être formellement aussi violente que la propagande haineuse d’extrême droite, l’expression publique normalisée de commentaires nationalistes xénophobes et racistes participe tout de même à la reproduction d’inégalités, de discriminations et de sentiments d’exclusion et d’insécurité chez les membres de minorités racialisées.
Détection et modération
Compte tenu de l’étendue du phénomène, la pression se fait grandissante pour une amélioration de la modération du contenu en ligne. Les géants du web développent des « armées » de modérateurs du web et ont recours à la détection automatisée. Or, cette dernière est problématique à plusieurs égards, notamment parce qu’elle n’est pas sensible au contexte et qu’elle peut aussi reproduire des biais racistes.8
Les politiques corporatives de modération sont aussi de plus en plus sous le feu des projecteurs en raison de leurs incohérences. Par exemple, alors que Facebook dit vouloir interdire les contenus haineux d’extrême droite, Mark Zuckerberg persiste à refuser de bannir les propos qui nient l’Holocauste sous prétexte que les individus devraient être libres de tenir des propos faux, tant et aussi longtemps que cela n’est pas accompagné de menaces à la sécurité d’individus.
Or, le déni de l’Holocauste n’est pas une opinion erronée, mais bien une rhétorique qui appartient à l’agenda antisémite en jouant sur le stéréotype du Juif manipulateur. De façon similaire, lorsque questionné en 2017 sur une vidéo YouTube du leader suprématiste blanc David Duke titrée « Jews admit organising white genocide », un cadre supérieur de Google a reconnu que la vidéo était antisémite, mais il a noté qu’elle n’enfreignait pas la limite de la haine en ligne.
Rôle des législateurs
L’évolution des politiques de modération du contenu chez les géants de l’industrie montre que l’action de la société civile et des États est nécessaire pour améliorer l’imputabilité des producteurs et diffuseurs de contenus haineux en ligne. Dans un contexte où les géants du web peinent à respecter leurs propres politiques, plusieurs considèrent qu’il revient au législateur de fixer les paramètres de la liberté d’expression, de protéger les individus des discours haineux et de contraindre ces entreprises privées à se conformer aux législations locales.
À cet égard, l’Allemagne dispose de la législation la plus sévère depuis 2018 avec la loi NetzDG qui force les plateformes à supprimer les contenus illicites, et ce, sous peine d’amendes. La France et le Royaume-Uni pensent s’en inspirer. Selon la Commission européenne, deux ans après s’être engagés, à travers un code de conduite, à augmenter leurs efforts pour retirer les discours haineux illégaux, Facebook, Twitter et YouTube ont substantiellement amélioré leur taux et leur rapidité de suppression de ce type de contenus.
En décembre 2018, 72 % du contenu jugé illégal était retiré, contre seulement 28 % en 2016 (European Commission, 2019). Récemment, la Cour européenne de justice a statué que des États membres peuvent forcer Facebook à retirer des contenus au niveau mondial si le contenu est jugé illégal dans un État membre (Satariano, 2019).
Il importe aussi que les entreprises fassent preuve de responsabilité en respectant leurs propres politiques, et ce, plus encore dans des sociétés non libérales où les droits des minorités ne sont pas protégés par l’État. Par exemple, au Myanmar, Facebook a laissé des militaires birmans utiliser la plateforme pour en faire un outil de propagande nationaliste islamophobe en propageant de fausses nouvelles sur la minorité rohingya et en incitant au génocide (Mozur, 2018).
Enfin, compte tenu de la connexion intime entre les réalités en ligne et hors ligne, la lutte contre le racisme en ligne ne peut être significative que si elle est intégrée dans une lutte globale contre les inégalités et discriminations raciales. Cela est d’autant plus vrai que le discours haineux n’est qu’une des manifestations du racisme en ligne.
Internet et les algorithmes sont des productions humaines et sociales qui reproduisent implicitement des biais raciaux et qui ont des effets discriminatoires réels et quotidiens pour des minorités racialisées.9
Thèmes associés à cet article
Publicité
Cet article fait partie d’une série d’histoires parues initialement dans le magazine Traces de la Société des professeurs d’histoire du Québec (SPHQ).