Facebook et la crise des élites

, par  Gérard Wormser

Tocqueville avait raison: les États-Unis donneraient le pouvoir à l’opinion. Facebook connecte chacun à ses proches, mais les réseaux sociaux renforcent le cloisonnement de la société. Si des milliers de personnes font circuler des polémiques, le succès d’audience renforce les peurs et la vindicte. L’élection de Trump révèle un fait d’éditorialisation que masquait l’euphorie des promoteurs de Facebook. Faute d’un cadre approprié pour une conversation démocratique, l’entre-soi des réseaux personnels caricature la vie sociale. Facebook commence juste à réagir. Pour éviter de devenir Fakebook, il doit combiner la liberté d’expression à des dispositifs éditoriaux professionnels et stimuler les initiatives civiques. Et assumer des responsabilités qu’il a voulu ignorer.

Pour Raphaël, In Memoriam

« L’Internet nous a fait découvrir le pouvoir des rédacteurs en chef, qui peuvent décider si ce que vous dites est vrai »

Lawrence Lessig

Selon Bauman ou Sloterdijk, le concept de société est inutile : dans l’univers liquide des bulles, chacun sélectionne ce qui lui convient ou lui déplaît (touche « Delete »). Souverainement. La naïveté de Zuckerberg est de croire à l’innocence des réseaux. La réalité est celle décrite par Nassim Nicholas Taleb : à tout moment, un événement hautement improbable peut renverser nos convictions. Nous devons nous préparer à l’événement statistiquement imprévisible. Une enquête indique que les fake news [1] furent le cygne noir des élections américaines. À l’automne 2016, les intox furent davantage partagées que les infos (Silverman 2016). Mais Facebook doit-il aller contre ses membres ?
Malgré tout, c’est une plateforme et non un éditeur, n’est-ce pas ? Plus de trafic, c’est plus de publicité. Un public plus influençable est même meilleur pour certains annonceurs. Facebook abrite deux milliards de comptes actifs, sa valorisation atteint 500 milliards, en hausse de 40% en 2017. Quelle était la question ?
Zuckerberg s’engage contre toute discrimination après les événements de Charlottesville. Mais la voie est libre pour la diffusion incontrôlée des rumeurs sectaires sur un réseau ouvert. Techniquement comme juridiquement, comment restaurer une démocratie représentative face au populisme ? La liberté d’opinion est protégée par le Premier Amendement de la Constitution américaine, personne ne souhaite donner à Facebook une mission de censure universelle.
Cette crise rend visible la crise de la lecture et des médiations sociales (journaux) : le papier ou l’écran d’ordinateur font place au smartphone devenu le trou de serrure par où chacun recherche des sensations fugaces et peu avouables. La supériorité du smartphone sur l’ancien ragot malveillant tient à la possibilité de partager ces ragots avec une multitude d’inconnus. Ces appareils sont conçus pour cela ! Comment les contrôler après les avoir diffusés à des milliards d’exemplaires ? La révolte vertueuse contre les fake news relève de la défense des élites et pose une question politique qui n’est pas près d’être résolue malgré le discours bon enfant de Mark Zuckerberg.

Le commerce ou la politique par d’autres moyens

La mise à disposition de « moteurs de fiabilité » associés aux moteurs de recherche est indispensable. La course aux investissements est ouverte. L’initiative de George Soros et Pierre Omidyar dont le Guardian a testé la version bêta fait partie du lot. Elle doit aider à contrôler les politiciens en anglais, en espagnol et en français par le truchement d’ONG basées à Londres et couvrant aussi l’Amérique latine et l’Afrique (Booth 2017). Il s’agit de corréler en temps réel le sous-titrage des vidéos à des bases documentaires par des liens vers des bases statistiques fiables qui valideront ou contesteront les faits évoqués par des politiciens. Cela aidera des journalistes qui manquent souvent de références. À terme, pourquoi pas des infobulles qui se déclenchent sur les pages de Facebook ou Twitter ?
Les initiatives se multiplient. En mars, Tim Berners-Lee, créateur de l’internet, conseillait de travailler avec les plus grandes entreprises. Nous ne maîtrisons plus nos données personnelles, nous sommes pris dans des bulles de désinformation et de dogmatisme, disait-il : « Les campagnes électorales élaborent désormais des messages publicitaires personnels présentés directement à chaque utilisateur. Durant l’élection américaine de 2016, jusqu’à 50 000 variantes de messages publicitaires étaient présentées chaque jour sur Facebook, une situation presque impossible à surveiller [alors qu’elle permet de] diriger des internautes vers des sites de fausses informations, par exemple, ou d’en dissuader d’autres d’aller voter. La publicité politique ciblée permet à une même campagne de présenter des messages radicalement différents, voire contradictoires, à différents groupes de personnes. Est-ce démocratique ? Nous devons travailler de concert avec les grands groupes du Web pour trouver un équilibre qui rende aux personnes un juste niveau de contrôle sur leurs données, y compris pour développer de nouveaux outils technologiques, comme des Data pods [Personnal Online Data Stores, « coffre-fort numérique »] si besoin est, et pour rechercher de nouvelles sources de revenus, comme les abonnements payants et les micropaiements. […] Nous devons contrer la désinformation en aidant les points d’entrée sur le Web que sont Google et Facebook à poursuivre leurs efforts pour résoudre ce problème, tout en évitant de créer une institution centrale qui déciderait de ce qui est « vrai » ou non » (Berners-Lee 2017)
Les grandes organisations s’y mettent : Mozilla l’a fait en août (Gibbs 2017a ; Mantzarlis 2017 ; Pereira 2017). En février, Jimmy Wales (Wikipedia) recommandait aux réseaux sociaux de se contraindre à diffuser des points de vue nettement plus diversifiés que ce qu’ils font : « Ce dont nous avons besoin, c’est de procédés humains ne reposant pas seulement sur les moteurs de vérification de tiers-partenaires, mais sur l’énergie collaborative. Nous avons besoin de gens représentant le spectre politique entier pour aider à identifier les faux sites et signaler les intox. Créons de nouveaux systèmes pour renforcer ces individus et ces groupes – sur une base bénévole, salariée, ou les deux. Pour mobiliser cette énergie, nous avons besoin d’ouverture. […] S’il y a une parade [kryptonite] contre la fausse information, c’est la transparence. Les plateformes technologiques peuvent décider de donner davantage d’information sur les contenus que les gens voient et sur les raisons pour lesquelles ils les voient. Nous avons besoin de cette visibilité parce qu’elle met en lumière les processus et les sources d’information, cela crée un cadre pour en rendre compte. Nous avons besoin d’espaces en ligne pour un dialogue ouvert qui intègre une variété de points de vue » (Wales 2017).
En France, Le Monde établit une échelle de fiabilité des sites (Les Décodeurs 2017b). La presse internationale veut accréditer son sérieux et se rendre indispensable… à Facebook ! (Les Décodeurs 2017a) Lequel doit maintenir sa crédibilité vis-à-vis du grand public et des investisseurs. Le commerce est, comme la guerre selon Clausewitz, de la politique par d’autres moyens.

Des orientations contradictoires

La pression monte donc contre Facebook de la part de la société civile et des associations démocratiques. Cet establishment est bien celui que l’électorat de Trump vomit. Un an après sa campagne victorieuse, les enquêtes sur ses liens avec la Russie et sur son entourage disent que cette guerre civile par médias interposés se poursuit. « Une part essentielle de ce que les enquêteurs ont besoin de savoir sur les méthodes de la Russie est enfermée dans les serveurs de Facebook […] “Il n’est pas particulièrement de l’intérêt de Facebook de reconnaître qu’ils ont été manipulés de la sorte” rapporte Kellermann [2] à VICE News. “Facebook n’est si profitable qu’en raison des aspects marketing de la plateforme. Et voici que cette force de marketing, cette identité, et la crédibilité spontanée que les gens leur accordent a été instrumentalisée contre le marché américain […] La société a jusqu’ici refusé de partager assez de données sur les clients qui utilisent ses offres publicitaires, ce qui rend difficile aux enquêteurs de comprendre comment ces opérations numériques étaient mises en oeuvre dans Facebook » (Kulwin 2017).
Les directeurs du Projet Cyberpropagande (Computational Propaganda Project), Howard et Gorwa, demandent l’ouverture des métadonnées de Facebook : « Leurs analystes pourraient certainement fournir des idées qui échapperaient aux services de renseignement » (Howard et Gorwa 2017). Facebook minore sa responsabilité éditoriale et le Washington Post écrit : « Les réseaux sociaux doivent s'adapter à la réalité : ils sont à présent dans une certaine mesure des kiosques d’information ; cela impose de se référer davantage à des éditeurs humains pour effectuer le désherbage des intox » (Editorial Board of The Washington Post 2016). Les journaux négocient avec Google et Facebook qui compensent le transfert de la publicité depuis les sites de presse vers leurs plateformes. Ces géants leur demandent maintenant de les aider à débusquer les fausses informations qu’ils abritent. Le même jour, Mark Zuckerberg écrit : « Nous ne voulons pas devenir nous-mêmes les arbitres de la vérité, mais plutôt nous appuyer sur notre communauté et sur des tiers de confiance. […] Le plus important que nous puissions faire, c’est d’améliorer notre aptitude à indexer la désinformation » (Zuckerberg 2016a). Facebook détectera et signalera les pages suspectes, leur ajoutera des liens de meilleure qualité et s’appuiera sur des tiers comme Snopes, une ONG active dans la détection des intox numériques. Et Facebook n’acceptera pas les budgets publicitaires de qui serait lié à ces fausses nouvelles [3]. Des milliers de faux comptes ont été fermés en France, et les articles liés existent aux USA, en Allemagne, en France, aux Pays-Bas… Cependant, le rythme des événements s’impose et Zuckerberg est contraint à s’engager davantage. Après Charlottesville, Twitter, Facebook ou YouTube ont décidé de supprimer les pages de Daily Stormer ou de Chris Cantwell de leurs plateformes. N’est-il pas contradictoire que des prestataires de service qui veulent éviter toute ingérence réagissent aux demandes de leur public et des investisseurs ? Facebook deviendrait-il un éditeur ?
À l’usage des critiques, Mark Zuckerberg publie en février 2017 « Building Global Community » (« Construire une Communauté mondiale », Zuckerberg 2017). C’est une diversion idéologique pendant que le NASDAQ parie sur les résultats financiers : la croissance est énorme, deux milliards de comptes actifs en juin, Facebook augmente de 25% ses tarifs publicitaires, le retour sur investissement s’élève à 45% ! Encore un peu et la société sera la plus puissante de la planète. La confiance des investisseurs pèse bien plus que celle des critiques : marquer des pages n’a guère d’effet sur les extrémistes, les mêmes documents circulent ailleurs sans marquage… Qui, parmi des lecteurs crédules et pressés, prendra le temps de lire des articles liés à côté des intox ? Facebook veut éviter tout rôle éditorial qui le rendrait responsable des contenus qui circulent. Seul ce qui est illégal partout et clairement destiné à nuire en travestissant des faits incontestables sera filtré. Et encore, seulement si cela choque d’autres communautés Facebook. La plateforme continuera à réagir au cas par cas, laissant aux critiques le soin de lui indiquer les abus que ses propres employés ont laissé passer. Cependant, si Facebook entend de toute manière refléter les croyances et des préjugés de ses abonnés, à quoi bon établir des principes bien pensants pour les communautés organisées ? C’est d’autant plus étonnant que ces principes sont à l’opposé des pratiques boursières de l’entreprise : d’un côté, on fonce, de l’autre on pose des principes nostalgiques, voire réactionnaires…
Building Global Community [4] expose que Facebook servira les groupes structurés en leur adressant des informations susceptibles de les intéresser. Chacun verra ce qu’il recherche. N’est-ce pas contradictoire avec la promotion des articles liés ? Cet univers segmenté est au plus loin de la neutralité du net. Qui paiera pour être promu fera la fortune de Facebook en même temps que la sienne en flattant chacun selon ses orientations. Facebook ou Google ont constitué des agrégateurs de contenu si puissants que la simple navigation accompagnée de publicité et de données personnelles crée des plus-values extraordinaires. Face à cet effet de réseau, les communs numériques disparaissent : couvrant mal leurs coûts, ils distribuent des ressources patrimoniales sans intérêt commercial, comme dans le cas de Wikipedia ou des bibliothèques publiques. L’idéalisme humaniste a perdu la partie : quelques grands journaux et maisons d’édition résistent, mais cela n’est plus à l’échelle. Facebook veut mettre en valeur les documents réellement lus par rapport à ceux qui sont partagés instantanément au vu du titre ou de mots-clés. Ce critère permet-il de connaître la proportion de lecteurs sur Facebook ? D’éliminer les bots et les comptes programmés pour rediffuser automatiquement des contenus ?

Accélerationnisme versus représentation

Selon Zuckerberg, après les tribus, les cités antiques, puis les démocraties… il y a maintenant la Communauté Facebook. Cela renvoie au paradigme accélérationniste développé par Nick Land. Les fake news sont un produit du capitalisme exacerbé pour qui la vitesse de réalisation est le seul principe : Trump et Facebook sont contemporains : l’idéologie traditionaliste de Zuckerberg dans sa vision passéiste de la communauté le démontre. « Les accérationnistes exposent que la technologie, particulièrement la technologie numérique tout comme le capitalisme sous ses formes les plus agressives et globalisées doivent être accélérées et intensifiées sans relâche, soit parce que c’est la voie royale du progrès humain, soit parce que nous n’avons pas le choix. Les accélérationnistes poussent à l’algorithmisation. Ils appuient le déploiement d’une fusion cyberhumaine. Ils appuient la dérégulation des affaires et l’aplatissement des hiérarchies du pouvoir. Ils pensent que les gens devraient cesser de s’illusionner sur nos possibilités de contrôle des avancées économiques et technologiques. Et ils pensent que les mises à jour sociales et politiques ont une valeur en soi. […] “Nous vivons tous dans des systèmes fonctionnels mis en place par la triade en accélération de la guerre, du capitalisme et de l’intelligence artificielle en émergence,” dit Steve Goodman, accélerationniste britannique. “Qu’on le veuille ou non,” expose Steven Shaviro, dans son ouvrage de 2015 sur ce mouvement, Sans limitation de vitesse, “nous sommes tous accélerationnistes aujourd’hui.” “Dans la Silicon Valley,” dit Fred Turner, qui fait référence sur l’histoire des industries numériques aux USA, “l’accélerationnisme fait partie de tout un mouvement qui dit “on n’aura plus besoin de politique, on pourra oublier la “gauche” et la “droite” si on se fixe sur les droits technologiques”. L’accélerationnisme converge également avec la manière de promouvoir les outils numériques – la croyance selon laquelle ils nous aideront à dépasser pour de bon le monde matériel et tout le bazar physique” » (Beckett 2017).
Quelques extraits pertinents du Manifeste accélérationniste : « Les plateformes sont les infrastructures de la société globale. Elles établissent les paramètres fondamentaux du possible comportemental et idéologique. En ce sens, elles incarnent la transcendance matérielle de la société : elles possibilisent certains dispositifs d’action, de relation et de pouvoir. Et si le cadre actuel de la plateforme globale est orienté par les rapports sociaux capitalistes, ce n’est pas une fatalité. Ces plateformes matérielles pour la production, la finance, la logistique et la consommation peuvent être reprogrammées et seront reformatées en fonction de fins post-capitalistes. À nous de créer une autorité hiérarchique légitime et collectivement contrôlée qui s’ajoutera aux formes de socialité horizontalement distribuées, pour éviter de devenir les esclaves soit d’un centralisme totalitaire tyrannique, soit d’un ordre émergent aléatoire incontrôlable. La commande du Plan doit se marier avec l’ordre improvisé du Réseau » (Williams et Srnicek 2013).
Cela est en passe d’être fait par Facebook ! Facebook est un service public contrôlé par son conseil d’administration, qui prélève une sorte d’impôt sur l’économie des services marchands partout où il déploie ses « communautés » et vend des espaces publicitaires. Mais il reste des bugs. Au moment où la campagne américaine bat son plein, Facebook censure une photo couronnée d’un prix Pulitzer montrant des enfants en guenilles, dont une fillette sans vêtements, marchant sur une route et accompagnés de soldats américains pendant la guerre du Vietnam (Cf. Mike Scott, Scott et Isaac 2016). Le norvégien ayant posté la photo vit son compte bloqué, puis Facebook supprime les pages de journaux qui la republient : Facebook attendra une protestation officielle du gouvernement norvégien pour s’excuser. Cette photo, tout comme le tableau de Picasso Guernica ou des gravures de Goya, entendait faire voir au monde la cruauté gratuite. Elle a sensibilisé l’opinion occidentale : la rejeter, c’est appuyer les extrémistes qui conspuent le journalisme.
Les questions éditoriales priment sur les règles de décence. L’histoire est faite de documents relatant des faits horribles : doit-on les censurer ? Incapable de distinguer le sens de chaque post sur ses réseaux, Facebook est piégé. Comment garantir simultanément la liberté du partage, le contrôle des abus, et la liberté d’expression ? Facebook filtre au Pakistan, en Turquie, en Russie – est-il plus simple de s’abriter derrière des règles de censure que d’assumer une responsabilité démocratique ? Avec la liberté d’expression et d’opinion viennent les débats et les effets de bulles, apparaissent des cygnes noirs. Le hiatus entre le Premier Amendement de la Constitution américaine et l’action pour l’inclusion et la citoyenneté est de nature éditoriale. Selon Lawrence Lessig : « les algorithmes qui alimentent les gens en informations sur les plateformes comme Facebook, produisent de plus en plus un monde dans lequel chacun vit dans sa propre bulle d’information. Or dans ce monde-là, l’idée même d’une action politique orientée vers l’intérêt général est presque impossible. Nous ne savons pas comment construire un espace dans lequel les gens pourraient discuter des mêmes questions politiques, à partir d’un cadre commun et d’une compréhension partagée des faits. [...] Laisser les gens vivre dans un monde où les seules idées et paroles qu'ils reçoivent sont celles qu'ils veulent, c'est détruire la base de l’engagement démocratique. Quand Facebook ne veut pas que quelque chose soit publié, ils disent juste : "c’est notre plateforme, privée". Mais l’idée d’une plateforme privée quand des millions de personnes sont dessus est assez folle. Nous devons réfléchir à cela : comment créer les standards et les valeurs qui devraient gouverner un monde possédé par des entreprises privées ? Nous sommes désormais soumis à de très nombreux souverains : non plus seulement à l’État et aux gouvernements fédéraux, mais aussi au règne de Facebook, Google, Twitter, Microsoft. Cela réclame de réfléchir sérieusement aux valeurs publiques que nous perdons quand nous abandonnons aux entreprises privées le contrôle du cyberespace. Et aujourd’hui, on n’a pas du tout le sentiment que les valeurs constitutionnelles vont s’imposer à la manière dont le cyberespace se développe » (Petillon 2016).
Facebook répond : il faut accepter des règles moin protectrices dans le traitement des images et des discours. Allons vers un « contrôle personnel de notre présence en ligne » (a system of personal control over our experience) en activant librement diverses options en fonction des contenus désirés ou écartés par chacun. Ces constats sont le nouvel horizon de Facebook, ouvert à « davantage de contenus informatifs de qualité et de contenus historiques » (newsworthy & historical content ) [5].
Est-ce un début de prise de contrôle par les usagers sur le service ? On rêverait de trouver un soutien non pas seulement de ce qu’une majorité pourrait accepter, mais bien de ce que des minorités exigent et doivent obtenir. Il y a actuellement tant d’aléas dans les liens promus ou supprimés par les algorithmes que les principes actuels de la « régulation générale » [community governance] semblent incapables de s’adapter. On peut faire varier les normes selon la géolocalisation des usagers et en fonction d’options pour élargir les critères éditoriaux ; mais cette approche balance entre (1) une simple sérendipité des liens, (2) une distribution liée à des contrats promotionnels et (3) la constitution d’une bulle par chacun des usagers. Facebook cessera-t-il de censurer des œuvres d’art parfois choquantes qui participent de la culture mondiale ? D’images au fort symbolisme historique, mais violentes ? Mais comment gérer la propagande extrémiste et les provocations intentionnelles ? Les pires horreurs se produisent dans le monde, faut-il les montrer et peut-on le faire sans faire des choix éditoriaux ? Les médias actuels recouvrent la violence du monde d’un voile fait d’actualités sportives ou people qui sont en elles-mêmes des manipulations du public. Ces diversions sont des fake news by design : elles appuient les injustices et la destruction planétaire. Une entreprise mondiale de communication basée en Californie au temps de Donald Trump ne peut éviter ces débats. Comment affronter la crise éditoriale de Facebook [6] ? Repérer les pages faisant l’apologie d’une activité délictueuse et les distinguer de sites présentant des documents comparables ou identiques dans le but de les dénoncer est complexe : Facebook sera l’arbitre absolu de toutes les opinions sur tous les sujets !

Les pratiques éditoriales laxistes de Facebook

Les déclarations sont toujours positives : « Zuckerberg déclare : “Sur l’année, nous ajouterons 3000 personnes mondialement réparties à notre équipe de supervision communautaire – en plus des 4500 d’aujourd’hui – pour examiner nos millions de signalements hebdomadaires et les traiter plus rapidement. Si nous voulons construire une communauté sûre, il faut répondre vite. Nous travaillons à faciliter le signalement des vidéos pour mieux décider plus vite quoi répondre à qui aurait besoin d’aide autant que pour éliminer un billet” » (Gibbs 2017b, Samuel Gibbs). Mais en pratique « le réviseur [en langage Facebook “analyste des opérations de la communauté”] déclare qu’il n’a reçu aucune instruction obligatoire, bien que sa société propose régulièrement des sessions de perfectionnement et qu’on puisse sur demande avoir accès à un superviseur. Cependant, les employés, souvent des immigrés récents à l’anglais médiocre et supposés travailler dans leur langue maternelle, recherchent de préférence l’aide psychologique hors des horaires de travail plutôt que de la demander en interne, de crainte de perdre leur travail ou d’être renvoyés chez eux sans salaire » (Solon 2017).
Zuckerberg écrit : « Nous n’écrivons pas les reportages que vous lisez et partagez, mais nous reconnaissons que nous ne sommes pas que des diffuseurs d’infos. Nous sommes une espèce nouvelle d’infrastructure [platform] de parole publique – ce qui implique de notre part la responsabilité nouvelle de permettre aux gens d’avoir les conversations les plus significatives et de construire un espace informatif pour tous » (Zuckerberg 2016c). L’engagement à vérifier les faits est un retournement relativement au 12 novembre, à peine connue la victoire de Trump, quand Zuckerberg disait de Facebook : “Ma conviction est que nous devons être très vigilants pour ne pas devenir nous-mêmes les arbitres du vrai” » (Zuckerberg 2016b).
Ces hésitations disent l’impasse : Facebook est incapable de contrôler ses propres pages. Le débat sur l’éditorialisation de Facebook ne fait que commencer et les entreprises qui travaillent pour Facebook doutent : « Aaron Sharockman, directeur de PolitiFact, site honoré d’un Prix Pulitzer et qui fait de la vérification pour Facebook, constate qu’au moment où ses équipes signalent un article, il se peut qu’il ait été publié depuis des jours, voire plus d’une semaine, ce qui limite l’effet du signalement. “Nous n’avons aucune idée de l’impact réel de notre travail,” et il ajoute “Et Facebook ne nous en dit rien” » (Levin 2017, Sam Levin).
Les documents dont disposent les réviseurs de Facebook révèlent un laxisme volontaire [7] digne d’une de ces « compagnies de marchands » accusées au 18ème siècle par Adam Smith de se comporter en quasi-souverains sans considérer l’intérêt général. Submergé par l’océan des données qui transitent sur ses serveurs, Facebook ne voit ni n’analyse tous les matériaux et les liens. Si même c’était possible, le discernement requis et les algorithmes indispensables feraient défaut. Or, depuis toujours les institutions dépendent des rumeurs. Ces questions avaient été traitées par les radios et la télévision : une erreur en grande diffusion ne se rattrape pas, et les rédactions présentent divers points de vue, ce que les réseaux sociaux ne font pas. Les renvois de site en site « valident » un signal et conditionnent un comportement. C’est la base de la publicité. Les populismes et l’obscurantisme profitent de ce que les pensées plus élaborées et nuancées sont plus complexes. Simplicité, ignorance et mépris vont de pair, et les peurs exagérées font le jeu des extrêmes. Les réseaux sociaux ne se plieront qu’aux pratiques légales : « Facebook cachera ou supprimera des contenus négationnistes dans quatre pays – France, Allemagne, Israël et Autriche. Le document précise qu’il ne s’agit pas de questions de décence, mais parce que la société craint l’ouverture d’un procès. "Notre politique de géo-blocage croise notre foi dans la libre expression avec la nécessité pratique de respecter les législations souveraines de certains États pour ne pas être bloqués et éviter toute poursuite" [8] ». Dès lors « le rapport indique une négligence manifeste des réseaux sociaux quant à la manière dont leurs réseaux sont manipulés. Facebook, par exemple, délègue l’essentiel de sa veille contre la propagande à des organismes tiers comme Snopes et Associated Press, qui […] n’ont guère de références en matière de repérage de robots de publication engagés sur les questions politiques. Les chercheurs indiquent qu’un pays est notablement différent des autres. En Allemagne, la crainte d’une déstabilisation cybernétique a pris de vitesse le lancement du cyberactivisme politique et conduit à l’élaboration et à la mise en œuvre des premières lois au monde qui exigent des réseaux sociaux d’assumer la responsabilité de ce qui est publié sur leurs sites » (Hern 2017 ; Noisette 2017).
« La cyberpropagande est le plus puissant des outils contemporains contre la démocratie. Les entreprises des réseaux sociaux peuvent bien n’être pour rien dans la rédaction de ces contenus puants, mais elles sont leur espace d’accueil. Elles doivent largement se repenser si la démocratie doit survivre aux médias viraux » (Clark 2017, Liat Clark).

Défaire la bulle

S’adressant particulièrement au public européen choqué par les filtrages de Facebook et s’opposant à la censure en général, Mark Zuckerberg indique que des standards régionaux accepteront des normes plus ouvertes si elles ne font pas polémique. La segmentation du public en communautés qui s’ignorent entre elles est au cœur d’une stratégie qui combine ciblage publicitaire et personnalisation des réglages.
Mais comment ouvrir le spectre des documents et contrôler la radicalisation des échanges en ligne ? « Notre doctrine s’attachera moins à bannir la désinformation qu’à surimposer des vues et des informations supplémentaires, dont le fait que les réviseurs contestent la validité d’un point. Certes, il nous faut travailler davantage sur la diversité informationnelle et la désinformation, mais je suis mobilisé encore plus par l’effet du sensationnalisme et de la polarisation, et sur le projet de construire une intercompréhension. Les médias sociaux ont une forme brève où tout message bruyant se voit grandement amplifié. Cela pousse au simplisme et décourage la nuance » (Zuckerberg 2017). Un algorithme de classement expose aussi une vision du monde incorporée, c’est une éditorialisation des boucles informationnelles dont il y a besoin. L’idée de pluralisme bridé est incohérente : il faudrait connaître le nombre de partages de chaque lien et compte pour relativiser certaines pages ou alerter sur les intox dangereuses. Parfois Facebook indiquerait tel ou tel document indexé, mais rejeté « hors-Facebook ».

Quels dialogues sur les réseaux sociaux : Fakebook ou meaningful groups ?

Zuckerberg prétend associer le modèle de la télévision généraliste avec les mouvements civiques. Il cite la place Tahrir ou le Tea Party. Mais, face à une situation insurrectionnelle survenant dans une dictature mieux préparée que la Tunisie sous Ben Ali, les accès numériques seraient rapidement bloqués. Et la Place Tahrir symbolise aussi la liberté bafouée en Égypte, pays où Facebook se soumet au contrôle du pouvoir. Facebook est régulièrement accusé de se préparer à se plier aux exigences chinoises de censure [9].
Le projet de Facebook reprend plus ou moins la pyramide de Maslow : agir dans les champs de la sécurité physique et de la santé sera la base, l’étage intermédiaire est l’appui donné à une information crédible. Et l’horizon serait celui d’une meilleure inclusion dans une communauté mondiale. Est-ce crédible ? Des amis de longue date qui vivent sous l’influence des informations diffusées soit en Russie, soit en Ukraine se sont opposés sur Facebook et ont rompu leurs liens. Les chercheurs d’Oxford considèrent que l’Ukraine a servi de terrain expérimental pour la stratégie russe. Quelles confrontations démocratiques entre points de vue divergents ?
Si Facebook devient par nécessité un organisme de contrôle, il ne pourra guère servir les groupes significatifs critiques et caustiques, moins consensuels et plus ironiques ou créatifs. Facebook est lié à l’ordre dominant. Après la novlangue associée aux totalitarismes étatiques, voici une nouvelle forme de confrontation où les protagonistes ne se rencontrent jamais. Chacun est seul dans une voiture, mais des bribes de pensées sont accessibles aux autres. Les discussions n’ont plus cours qu’à travers des commentaires indirects. L’opérateur peut à tout moment débrancher un émetteur ou supprimer la possibilité de l’entendre, il peut aussi créer ou promouvoir des conversations, mais il n’existe pas de forum, pas de place publique. Seule la circulation est réelle. Quelques personnes émancipées pourront participer à des discussions plus élaborées et minoritaires : elles pourraient même concevoir un espace démocratique de confrontation des opinions ! Mais il faudrait alors descendre de l’autoroute, quitter la circulation, former des communautés réelles, pas seulement des groupes de pairs.
Facebook ne se réfère à rien d’extérieur à soi. Or un dialogue authentique présuppose cette extériorité. Facebook favorise-t-il la communication et l’échange au sein d’une société dont il est l’image ? Notre époque est marquée par de profondes injustices sociales et par un isolement psychique qui les aggrave. Le plaidoyer de Zuckerberg en faveur de communautés inclusives est un vœu pieux : ces communautés intensifient l’entre-soi. Facebook va-t-il vraiment contrer la perte de la vie communautaire par une capacitation [empowerment] équitable ? Zuckerberg atteindra mieux cet objectif à travers sa Fondation et Facebook en payant des impôts que par la magie du verbe au service de la rente.

Ce texte paraît également dans le cadre du dossier « Désinformation et démocratie » développé entre les revues partenaires du réseau Eurozine. Le site www.eurozine.com publie la version anglaise de l'ensemble du dossier.

Bibliographie

Angwin, Julia, Madeleine Varner, et Ariana Tobin. 2017. « Facebook Enabled Advertisers to Reach “Jew Haters” ». ProPublica, septembre. https://www.propublica.org/article/facebook-enabled-advertisers-to-reach-jew-haters.
Beckett, Andy. 2017. « Accelerationism : how a fringe philosophy predicted the future we live in ». The Guardian, mai. http://www.theguardian.com/world/2017/may/11/accelerationism-how-a-fringe-philosophy-predicted-the-future-we-live-in.
Berners-Lee, Tim. 2017. « Travaillons avec les géants du Web pour plus de transparence ». Le Monde, mars. http://www.lemonde.fr/idees/article/2017/03/13/travaillons-avec-les-geants-du-web-pour-plus-de-transparence_5093426_3232.html#dtJdLIfkUVu5tvw8.99T.
Booth, Robert. 2017. « Journalists to use ’immune system’ software against fake news ». the Guardian, août. https://www.theguardian.com/technology/2017/aug/08/fake-news-full-fact-software-immune-system-journalism-soros-omidyar.
Clark, Liat. 2017. « Twitter and Facebook have become ’vessels of propaganda and manipulation’ ». WIRED UK, juin. http://www.wired.co.uk/article/fake-news-propaganda-russia-us-germany.
Editorial Board of The Washington Post. 2016. « Social media sites can’t allow fake news to take over ». Washington Post, novembre. https://www.washingtonpost.com/opinions/social-media-sites-cant-allow-fake-news-to-take-over/2016/11/18/ba8ace9e-ac22-11e6-8b45-f8e493f06fcd_story.html.
Gibbs, Samuel. 2017a. « Google to display fact-checking labels to show if news is true or false ». the Guardian, avril. https://www.theguardian.com/technology/2017/apr/07/google-to-display-fact-checking-labels-to-show-if-news-is-true-or-false.
———. 2017b. « Facebook Live : Zuckerberg adds 3,000 moderators in wake of murders ». the Guardian, mai. http://www.theguardian.com/technology/2017/may/03/facebook-live-zuckerberg-adds-3000-moderators-murders.
Hern, Alex. 2017. « Facebook and Twitter are being used to manipulate public opinion – report ». the Guardian, juin. http://www.theguardian.com/technology/2017/jun/19/social-media-proganda-manipulating-public-opinion-bots-accounts-facebook-twitter.
Hopkins, Nick. 2017a. « How Facebook flouts Holocaust denial laws except where it fears being sued ». The Guardian, mai. http://www.theguardian.com/news/2017/may/24/how-facebook-flouts-holocaust-denial-laws-except-where-it-fears-being-sued.
———. 2017b. « Revealed : Facebook’s internal rulebook on sex, terrorism and violence ». the Guardian, mai. http://www.theguardian.com/news/2017/may/21/revealed-facebook-internal-rulebook-sex-terrorism-violence.
Hopkins, Nick, et Julia Carrie Wong. 2017. « Has Facebook become a forum for misogyny and racism ? » the Guardian, mai. http://www.theguardian.com/news/2017/may/21/has-facebook-become-forum-misogyny-racism.
« How Facebook handles Holocaust denial ». 2017. the Guardian. http://www.theguardian.com/news/gallery/2017/may/24/how-facebook-handles-holocaust-denial.
Howard, Philip N., et Robert Gorwa. 2017. « Facebook could tell us how Russia interfered in our elections. Why won’t it ? » The Washington Post, mai. https://www.washingtonpost.com/opinions/facebook-could-tell-us-how-russia-interfered-in-our-elections-why-wont-it/2017/05/19/c061a606-3b21-11e7-8854-21f359183e8c_story.html.
Isaac, Mike. 2016. « Facebook Said to Create Censorship Tool to Get Back Into China ». The New York Times, novembre. https://www.nytimes.com/2016/11/22/technology/facebook-censorship-tool-china.html.
« Julia Carrie Wong ». 2017. Profil. the Guardian. Consulté le septembre 29. http://www.theguardian.com/profile/julia-carrie-wong.
Kulwin, Noah. 2017. « What Facebook Knows : Facebook could tell us a lot about Russia’s election meddling ». VICE News. https://news.vice.com/story/facebook-could-tell-us-a-lot-about-how-russia-meddled-in-2016.
Lee, Dave. 2016. « Facebook ’made China censorship tool’ ». BBC News, novembre. http://www.bbc.com/news/technology-38073949.
Les Décodeurs. 2017a. « Le Décodex, un outil de vérification de l’information ». Le Monde, janvier. http://www.lemonde.fr/les-decodeurs/article/2017/01/23/le-decodex-un-premier-premier-pas-vers-la-verification-de-masse-de-l-information_5067709_4355770.html.
Levin, Sam. 2017. « Facebook promised to tackle fake news. But the evidence shows it’s not working ». The Guardian, mai. http://www.theguardian.com/technology/2017/may/16/facebook-fake-news-tools-not-working.
« Liat Clark ». s. d. Profil. WIRED UK. http://www.wired.co.uk/profile/liat-clark.
Maheshwari, Sapna, et Mike Isaac. 2017. « Facebook, After “Fail” Over Ads Targeting Racists, Makes Changes ». The New York Times, septembre. https://www.nytimes.com/2017/09/20/business/media/facebook-racist-ads.html.
Mantzarlis, Alexios. 2017. « Mozilla wants to matter more in the fight against misinformation ». Poynter, août. https://www.poynter.org/news/mozilla-wants-matter-more-fight-against-misinformation.
Marin, Jérôme. 2016. « Pour conquérir la Chine, Facebook pourrait accepter la censure ». Le Monde, novembre. http://siliconvalley.blog.lemonde.fr/2016/11/23/pour-conquerir-la-chine-facebook-pourrait-accepter-la-censure/.
« Nick Hopkins ». s. d. Profil. the Guardian. http://www.theguardian.com/profile/nickhopkins.
Noisette. 2017. « Propagande et fake news : Facebook et Twitter sont utilisés pour manipuler ». L’Obs. http://tempsreel.nouvelobs.com/rue89/rue89-sur-les-reseaux/20170621.OBS1047/propagande-et-fake-news-facebook-et-twitter-sont-utilises-pour-manipuler.html.
Oltermann, Philip. 2016. « Germany to force Facebook, Google and Twitter to act on hate speech ». the Guardian, décembre. http://www.theguardian.com/technology/2016/dec/17/german-officials-say-facebook-is-doing-too-little-to-stop-hate-speech.
Pereira, Frédéric. 2017. « Mozilla part en guerre contre les fake news ». La Fredzone (FZN), août. http://www.fredzone.org/mozilla-part-en-guerre-contre-les-fake-news-334.
Petillon, Catherine. 2016. « Lawrence Lessig : “La segmentation du monde que provoque Internet est dévastatrice pour la démocratie” ». France Culture, décembre. https://www.franceculture.fr/numerique/lawrence-lessig-la-segmentation-du-monde-que-provoque-internet-est-devastatrice-pour-la.
Piquard, Alexandre. 2017. « Fidji Simo : « Facebook n’est pas juste une entreprise de technologie » ». Le Monde, septembre. http://www.lemonde.fr/economie/article/2017/09/11/fidji-simo-facebook-n-est-pas-juste-une-entreprise-de-technologie_5183810_3234.html.
« Sam Levin ». 2017. Profil. the Guardian. Consulté le septembre 29. http://www.theguardian.com/profile/sam-levin.
« Samuel Gibbs ». 2017. the Guardian. Consulté le septembre 29. http://www.theguardian.com/profile/samuel-gibbs.
Sandhu, Sukhdev. 2015. « How dub master Kode9 became the hero of zero ». The Guardian, novembre. http://www.theguardian.com/music/2015/nov/16/kode9-nothing-album-steve-goodman-hyperdub-interview.
Scott, Mark, et Mike Isaac. 2016. « Facebook Restores Iconic Vietnam War Photo It Censored for Nudity ». The New York Times, septembre. https://www.nytimes.com/2016/09/10/technology/facebook-vietnam-war-photo-nudity.html.
Silverman, Craig. 2016. « This Analysis Shows How Viral Fake Election News Stories Outperformed Real News On Facebook ». BuzzFeed News, novembre. https://www.buzzfeed.com/craigsilverman/viral-fake-election-news-outperformed-real-news-on-facebook.
Solon, Olivia. 2017. « Underpaid and overburdened : the life of a Facebook moderator ». The Guardian, mai. http://www.theguardian.com/news/2017/may/25/facebook-moderator-underpaid-overburdened-extreme-content.
Wales, Jimmy. 2017. « With the power of online transparency, together we can beat fake news ». the Guardian, février. https://www.theguardian.com/commentisfree/2017/feb/03/online-transparency-fake-news-internet.
Williams, Alex, et Nick Srnicek. 2013. « #ACCELERATE MANIFESTO for an Accelerationist Politics ». Blog. Critical Legal Thinking. http://criticallegalthinking.com/2013/05/14/accelerate-manifesto-for-an-accelerationist-politics/.
Wingfield, Nick, Mike Isaac, et Katie Benner. 2016. « Google and Facebook Take Aim at Fake News Sites ». The New York Times, novembre. https://www.nytimes.com/2016/11/15/technology/google-will-ban-websites-that-host-fake-news-from-using-its-ad-service.html.
Wormser, Gérard. 2017. « Building Global Community : La tentation hégémonique de Mark Zuckerberg et de Facebook ». Sens Public, mai. http://www.sens-public.org/article1245.html.
Zuckerberg, Mark. 2016a. Facebook. https://www.facebook.com/zuck/posts/10103269806149061.

Voir en ligne : Article publié initialement sur sens-public.org

[1Le terme fake news circule partout. En français, il semble approprié d’utiliser le mot « intox », qui désigne une fausse information (par opposition à « info ») et recouvre nombre des acceptions du terme anglais. Intox réfère habituellement au contenu, mais vise par extension l’intention mensongère. S’il ne désigne pas habituellement une publication qui reproduirait la charte graphique d’un support crédible afin d’estomper le sens critique des lecteurs, nous pourrions acclimater cet usage, même si on peut aussi penser à « publication trompeuse ». C’est la différence entre la propagande, qui peut se revendiquer comme telle, et l’intox qui est masquée et annihile le sens critique. Bien entendu, lorsqu’une intention parodique et humoristique est clairement affichée, cette fausse publication n’a pas le caractère d’une intox, mais celui d’une satire ou d’un pastiche, genres légitimes s’il en est dans le monde de la presse. Resterait à forger un terme approprié au phénomène que constitue le partage d’intox sur les réseaux sociaux. L’effet d’amplification peut être massif et c’est à lui que nous consacrons particulièrement cet article. Il s’agit à proprement parler de rediffusion d’intox. Mais cette expression précise a peu de chances de s’imposer. NB : toutes traductions renvoyant à des sites en anglais sont de Gérard Wormser.

[2Un responsable de sécurité informatique qui a averti la Maison Blanche dès 2015 des tentatives russes.

[3Voir l’entretien de la vice-présidente de Facebook, Fidji Simo du 11-09-17 : « Nous avons interdit à certaines pages identifiées comme diffusant des fausses informations de promouvoir leurs contenus sur Facebook. Et nous avons rendu impossible pour les annonceurs de placer de la publicité sur un contenu identifié comme faux. Cela a permis de frapper ces propagateurs de « fake news » là où cela fait mal, au porte-monnaie » (Piquard 2017). L’essentiel du propos tient cependant à la capacité de Facebook de devenir une infrastructure de diffusion indispensable aux médias : « Nous avons apporté énormément de changements à Instant Articles pour accroître la densité de la publicité présente sur les pages, pour ajouter de la publicité dans les "articles connexes"… Le revenu publicitaire par page a crû de 50% au cours des six derniers mois. Et nous reversons désormais plus de 1 million de dollars [831 000 euros] par jour aux éditeurs. Beaucoup de médias qui étaient un peu dubitatifs sur la monétisation reviennent en force vers cette solution ».

[4J’ai présenté une première analyse de ce texte en avril sur Sens public (Wormser 2017).

[5Building Global Community (Zuckerberg 2017) : « Notre communauté évolue : nous connectant initialement à notre famille et aux amis, elle devient aussi une source d’informations et d’expression publique. Nos règles communautaires doivent s’adapter à ce changement culturel pour autoriser davantage de contenus informatifs et historiques, même si certains font débat [...] à présent que nous utilisons Live pour compiler les infos et que nous publions des vidéos pour protester contre la violence, nos règles doivent suivre. Pareillement, toute photo montrant un enfant nu aurait toujours été exclue – pour de bonnes raisons – mais nous avons modifié nos règles pour autoriser des contenus historiques importants comme cette photo de la Terreur de la guerre ».

[6« Les règles communautaire doivent refléter les normes culturelles de la communauté pour que chacun ne voie que le minimum possible de contenu discutables et que chacun partage à volonté en ne se heurtant qu’exceptionnellement à des interdits. L’idée est d’associer des processus démocratiques à grande échelle pour établir les règles à de l’intelligence artificielle pour appuyer leur mise en œuvre. Il s’agit de permettre à chacun des membres de disposer d’options pour ajuster ses réglages de contenus » (Zuckerberg 2017).

[7Voir la vidéo du Guardian dans leur premier article sur les documents destinés aux réviseurs de Facebook (Hopkins 2017b). Le même jour, voir l'éditorial de Nick Hopkins et Julia Carrie Wong (Hopkins et Wong 2017) qui laisse penser que Facebook ne pouvait guère anticiper son succès et ses conséquences.

[8Voir Hopkins (2017a). En septembre 2017, le site Propublica révélait que des groupes antisémites avaient pu utiliser les mot-clés de Facebook pour cibler des publics affichant leur haine des juifs (Angwin, Varner, et Tobin 2017). La vice-présidente de Facebook, Sheryl Sandberg dut monter au créneau et présenter des excuses publiques (Maheshwari et Isaac 2017).

[9Selon le New York Times, Facebook négocie son retour en Chine au prix d’une acceptation de la censure (Isaac 2016 ; Lee 2016 ; Marin 2016).

Annonces