Facebook se veut moins politique mais le chemin est semé d'embûches - Plus USA

En matière de diffusion de contenus politiques, Meta Platforms n'a pas fait les choses à moitié.

Agefi/Dow Jones 10.01.2023
Facebook Twitter LinkedIn

SAN FRANCISCO/NEW YORK (Agefi-Dow Jones)--Après les émeutes du 6 janvier 2021 au Capitole, Meta-Platforms (« Wide Moat ») a affirmé qu'elle ne voulait plus diffuser autant de contenus politiques.

La maison mère de Facebook n'a pas fait les choses à moitié.

Peu à peu, et même si elle a choisi de ne pas dégainer l'arme nucléaire - supprimer la totalité des recommandations en la matière -, ses initiatives transforment la façon dont la politique est traitée sur l'un des plus grands réseaux sociaux du monde.

Les efforts parfois inouïs engagés ces 18 derniers mois par l'entreprise pour avancer sur ce point et sur d'autres sujets sensibles sont décrits dans des documents internes auxquels le Wall Street Journal a eu accès. Facebook a commencé par faire évoluer la façon dont les contenus liés à la politique et la santé sont diffusés.

Des enquêtes ayant révélé que les utilisateurs n'avaient plus envie de s'énerver derrière leur écran, la plateforme s'est mise à faire passer les publications jugées intéressantes avant les éléments plus polémiques, révèlent ces documents. L'idée n'était pas d'interdire les débats, mais de moins les amplifier.

Les dirigeants de Meta ont pourtant estimé que ce n'était pas suffisant.

Fin 2021, fatigués d'être sans cesse accusés de partialité et de censure, Mark Zuckerberg et le conseil d'administration de Meta ont milité pour que l'entreprise aille beaucoup plus loin dans sa démarche, ont indiqué des sources proches du dossier au Wall Street Journal.

Une palette de solutions leur a été proposée, et c'est la plus draconienne qui a été choisie : reléguer aussi loin que possible les sujets "sensibles" sur la page d'accueil de Facebook, celle que les utilisateurs voient quand ils ouvrent l'application. L'initiative n'a jamais été rendue publique.

La feuille de route faisait alors écho aux propos de certains détracteurs de Facebook, qui affirmaient que l'appât du gain ou un parti pris politique poussaient le réseau social à nourrir la haine et la polémique. Pendant des années, publicitaires et investisseurs ont exhorté Meta à clarifier son rôle un peu flou dans la vie politique, ont indiqué des sources proches du dossier.

Mais, d'après des recherches internes et des sources proches du dossier, chemin faisant, il s'est avéré que la démarche avait des conséquences inattendues.

Par exemple, le nombre de vues de contenus considérés comme étant "d'excellente qualité" par Facebook - comme ceux de Fox News ou CNN - a subi une baisse beaucoup plus forte que celui de sources jugées moins fiables.

Les utilisateurs ont été de plus en plus nombreux à dénoncer une désinformation et les dons aux associations réalisés par l'outil de levée de fonds de Facebook ont reculé au premier semestre 2022. Pire encore : les changements n'ont pas été appréciés.

Une analyse interne a également révélé que Facebook pouvait atteindre une partie de ses objectifs en réduisant très fortement ses contenus liés à l'actualité politique et sociale, mais que le coût serait "très élevé" pour peu d'efficacité.

Fin juin, Mark Zuckerberg a donc renoncé à la version la plus extrême du projet. Incapable d'empêcher les controverses politiques de se répandre par la force brute, Facebook a alors décidé de faire évoluer de façon plus progressive la façon dont le réseau social met en avant les contenus sensibles, notamment la santé et la politique.

"Comme l'a dit Mark il y a près de deux ans, les gens veulent moins de politique sur Facebook de façon générale, mais ils veulent aussi pouvoir parler politique quand ils en ont envie, et c'est précisément ce que nous sommes en train de faire", a indiqué Dani Lever, porte-parole de l'entreprise.

"Ces dernières années, nous avons testé différentes approches et mis en place des mesures qui permettent de réduire la place occupée par la politique tout en offrant aux gens l'expérience dont ils ont envie."

Prvilégier les contenus appréciés plutôt que l'engagement

L'approche actuelle continue de limiter ces contenus : Meta estime que la politique représente aujourd'hui moins de 3% de ce qui apparaît dans le fil d'actualité de ses utilisateurs, contre 6% au moment de la présidentielle américaine de 2020, révèlent des documents.

D'après des documents et des sources proches du dossier, au lieu de tout supprimer de façon indifférenciée ou de modérer de façon très virulente, Facebook a décidé de modifier l'algorithme de recommandation de la page d'accueil pour qu'il privilégie les contenus que les utilisateurs apprécient plutôt que ceux qui les font rester sur les pages du réseau social.

"Peut-être, en effet, qu'il ne faut pas recommander les contenus politiques de la même façon que l'on recommande du divertissement", résume Ravi Iyer, ancien responsable des données de Meta qui a travaillé sur le sujet avant de quitter l'entreprise en septembre.

Il dirige aujourd'hui le Psychology of Technology Institute de l'université de Californie du sud. Selon lui, l'approche actuelle de Meta est très différente de celle que le réseau social - et les autres grands noms du secteur - utilisent depuis longtemps et qui fait la part belle à l'engagement.

Il affirme qu'il vaudrait mieux se concentrer sur la façon dont les plateformes autorisent certains contenus à devenir viraux plutôt que prendre des décisions subjectives sur ce qui est conservé ou supprimé.

"Le fait de laisser les salariés [des réseaux sociaux, ndlr] juger de ce qui est bien ou ce qui est mal crée souvent plus de problèmes que cela n'en résout", souligne-t-il. "L'objectif doit être de réduire le nombre de jugements de valeur."

Les initiatives de Meta risquent par ailleurs de pénaliser les éditeurs qui avaient misé sur le fait de satisfaire les algorithmes.

Courier Newsroom, un ensemble de huit publications numériques qui se décrit comme "le plus grand réseau d'actualité de gauche des Etats-Unis", affirme par exemple qu'il a eu du mal à percer sur Facebook pendant les élections de mi-mandat, à l'automne dernier.

Malgré une augmentation de 14,5% du nombre d'articles publiés en octobre, le nombre de vues non générées par des publicités payantes s'est effondré de 42,6% par rapport à septembre.

Une plateforme très puissante

"Facebook reste l'une des plateformes les plus puissantes au monde, son rayonnement est immense", commente Tara McGowan, qui dirige Courier Newsroom.

"Mais en limitant toujours plus la présence des médias fiables, elle ne fera qu'amplifier la crise de l'information que traverse l'Amérique et dont elle est en partie responsable."

Chez Mother Jones, un site de sensibilité progressiste qui couvre principalement les questions sociales et politiques, le nombre total de vues sur Facebook a chuté de 65% en 2022.

"C'est terrible de voir, de façon aussi nette, le pouvoir qu'une seule société technologique a sur les informations auxquelles les gens ont accès", déplore Monika Bauerlein, directrice générale du site.

A l'inverse, d'après l'outil d'analyse CrowdTangle, l'engagement des utilisateurs - c'est-à-dire le nombre de likes, de commentaires et de partages - de Dan Bongino, commentateur politique conservateur très suivi sur Facebook, a continué de croître.

L'homme pense lui aussi que le changement stratégique du réseau social n'est pas pertinent, notamment parce que les utilisateurs sont un peu plus âgés et plus intéressés par les questions politiques.

"Ils auraient pu utiliser ce public plus âgé pour financer Meta, plus jeune et plus cool", regrette-t-il. "Mais non : ils se sont dit qu'ils allaient prendre ces gens qui leur rapportent sans trop forcer et qui apprécient les contenus conservateurs, et les virer de la plateforme."

Facebook a longtemps eu un rapport compliqué à la politique, sujet qui déchaîne les passions... et dope l'engagement des utilisateurs.

Lors d'une conférence à l'université Georgetown en 2019, Mark Zuckerberg avait défendu le rôle des réseaux sociaux dans la vie politique et sociale. "Je suis convaincu que les gens doivent pouvoir utiliser nos services pour parler de questions qui les passionnent : religion, immigration, politique étrangère, délinquance...", avait-il alors déclaré, affirmant que Facebook jouait un rôle positif dans le débat public.

En 2021, le Wall Street Journal avait révélé que certains choix de Facebook destinés à renforcer l'engagement des utilisateurs avaient pour conséquence de favoriser les contenus polémiques, éditeurs et partis politiques décidant de tout miser sur l'indignation et le sensationnalisme des actes criminels.

Le réseau social avait expliqué qu'il avait mis en place une équipe chargée de l'intégrité dont la mission était de lutter contre les détournements de l'algorithme et qu'il n'était pas responsable des clivages politiques.

Des chercheurs ont trouvé des preuves que le traitement préférentiel accordé par Facebook aux contenus toxiques s'était poursuivi après la publication de l'article. En octobre 2021, une présentation a reconnu que l'algorithme de Facebook avait longtemps favorisé la création de "contenus non fiables et vecteurs de polémique".

Marre de la politique

Après les émeutes du Capitole, la pression s'est accentuée : il fallait prendre des mesures pour que Facebook ne soit plus vu comme une plateforme toxique ou partiale.

Les enquêtes menées après la présidentielle ont révélé que les utilisateurs pensaient que Facebook avait une influence néfaste sur le débat public et qu'ils voulaient moins de contenus politiques sur la plateforme. Les parlementaires, eux, ont longuement interrogé les dirigeants du groupe.

Mark Zuckerberg a alors semblé lassé par le sujet. "D'une manière ou d'une autre, la politique est allée s'immiscer partout", a-t-il souligné en janvier 2021, peu après les émeutes, lors d'une conférence de présentation des résultats de Meta.

Selon lui, les utilisateurs en avaient marre de la politique.

Aux Etats-Unis, mais aussi dans le reste du monde.

Pour la première fois, il a publiquement déclaré que Facebook cherchait à réduire la présence des contenus politiques dans son fil d'actualité. "Je ne suis pas sûr que ce soit une bonne chose de recommander ces contenus en ce moment", a-t-il indiqué.

En février 2021, Facebook a annoncé le lancement d'une expérience : "un petit pourcentage d'utilisateurs" allait recevoir moins de contenus politiques. L'objectif, avait alors précisé le réseau social, n'était pas de restreindre le débat, mais "de respecter l'appétence de chacun".

Fait rare parce que les changements majeurs sont souvent testés sur des marchés secondaires, l'expérience a débuté aux Etats-Unis, au Brésil et au Canada.

Six mois plus tard, l'entreprise a indiqué qu'elle avait réussi à comprendre "quelles publications les utilisateurs appréciaient plus que les autres" et qu'à l'avenir, elle mettrait moins l'accent sur les partages et les commentaires.

L'annonce n'a pas donné toute l'ampleur du changement : Facebook ne réduisait pas seulement l'importance des partages et des commentaires sur les enjeux de vie publique : il retirait purement et simplement ces éléments de son système de recommandation.

"Nous supprimons la totalité des pondérations sur lesquelles nous nous appuyons pour faire remonter une publication en fonction de la probabilité de commentaire ou de partage", selon un document interne rédigé ultérieurement.

En d'autres termes, Facebook adoptait une version plus offensive de ce que défendaient ses chercheurs depuis des années : régler le problème de la désinformation et de l'intégrité en rendant la plateforme moins virale.

La démarche ne prévoyant pas de censure ou de suppression de contenus sur la base d'un système d'intelligence artificielle considéré comme imprécis, elle a été jugée "défendable" en jargon interne.

Baisse du nombre de commentaires

D'après des données internes, le nombre de vues de contenus liés à la vie publique a baissé d'environ un tiers. Facebook ne mettant plus l'accent sur les publications considérées comme le plus susceptible de générer des commentaires, les commentaires sur ces contenus ont chuté de deux tiers.

Les réactions de colère ont été réduites de moitié pour les contenus liés à la vie publique, et de près d'un quart sur la plateforme dans son ensemble. Les problèmes de harcèlement, de désinformation et de violence ont eux aussi reculé.

Mais cela ne s'est pas fait sans mal. Même si les utilisateurs de Facebook ont affirmé que leur fil d'actualité les intéressait davantage, ils ont réduit leur connexion à la plateforme de 0,18%. Alors qu'elle avait, par le passé, renoncé à des modifications qui avaient moins d'impact, cette fois-ci, Meta a accepté ce coût.

Le conseil d'administration a toutefois continué de s'inquiéter du fait que les gens continuent, à des degrés divers, d'associer Facebook aux sujets polémiques, ont révélé des documents et des sources proches du dossier.

Des utilisateurs ont indiqué au réseau social que les contenus liés à la vie publique continuaient d'engendrer énormément de mauvaises expériences, de la vulgarité, du harcèlement et de la désinformation. Des enquêtes ont montré que les gens étaient convaincus que la plateforme avait un effet néfaste sur la société.

Le conseil et Mark Zuckerberg ont alors voulu supprimer la totalité de ces contenus sur le fil d'actualité, mais les choses se sont avérées compliquées.

L'algorithme du fil d'actualité se composant de 30.000 lignes de code et la détection des contenus n'étant pas infaillible, la suppression totale était impossible et la réduction maximale était de l'ordre de 70%.

Les modifications ne permettaient pas non plus de gérer les polémiques issues des groupes Facebook, des forums très utilisés pour répandre de fausses informations sur les vaccins ou les élections.

Facebook voulait déployer ces changements à l'été 2022, avant les élections de mi-mandat, et des documents montrent que le réseau social voulait informer les utilisateurs et leur proposer plusieurs options.

Des répercussions sur la presse et les dons aux associations

Il a également essayé d'évaluer les retombées en testant différentes modifications de l'algorithme sur plus d'un quart des utilisateurs américains de Facebook. Résultat : pour beaucoup d'éditeurs, les conséquences seraient majeures.

En fonction de la configuration choisie, le trafic Facebook vers Fox News, MSNBC, le New York Times, Newsmax, The Atlantic et le Wall Street Journal risquait ainsi de chuter de 40% à 60% dans un premier temps - un chiffre qui viendrait s'ajouter aux mesures de réduction déjà prises - ; à terme, les éditeurs auraient fini par s'adapter et les effets se seraient estompés.

L'éventualité n'était toutefois pas considérée comme un problème. D'après une analyse, l'objectif de Facebook était de "réduire l'incitation à produire des contenus liés à la vie publique".

Alors qu'ils n'étaient réalisés que sur une infime partie des utilisateurs de Facebook, les tests ont provoqué une chute de 10% des dons réalisés depuis la fonctionnalité de collecte de dons. Organisations humanitaires, associations de parents d'élèves et hôpitaux auraient donc beaucoup à perdre.

Une présentation interne prévenait d'ailleurs que, même si la suppression totale des contenus liés à la vie publique permettait de réduire les problèmes d'expérience utilisateur, "nous risquons aussi de cibler des contenus que les gens veulent voir... La majorité des utilisateurs veulent un volume similaire ou supérieur de contenus liés à la vie publique. Ce sont l'agressivité, la division et la désinformation qui posent problème avant tout."

Pire encore, la suppression des contenus liés à la vie publique ne semblait pas convaincre le grand public que Facebook n'est pas dangereux pour la vie politique. D'après des recherches internes, le pourcentage d'utilisateurs estimant que Facebook avait un effet néfaste sur la politique n'a pas évolué ; il s'est maintenu autour de 60% aux Etats-Unis.

Fin juin, tous ces éléments ont convaincu Mark Zuckerberg de renoncer aux changements les plus profonds et l'entreprise a dû, une nouvelle fois, redéfinir sa stratégie. Elle a imaginé une manière de séparer la question des publications sur la santé et la politique de ses initiatives destinées à favoriser l'engagement des utilisateurs.

La question de la limitation d'autres types de contenus n'est toujours pas tranchée. Quand les publications polémiques sur la santé et la politique ont été reléguées au second plan, certains médias ont choisi de couvrir l'actualité judiciaire de façon plus sensationnaliste.

"La situation ouvre une réflexion sur ce qui distingue un contenu sensible d'un contenu non sensible", souligne Ravi Iyer. "Et il ne serait pas inintéressant de faire participer le monde à cette réflexion", ajoute-t-il.

Quelques semaines après l'abandon de ses mesures phares, Meta a publié un message laconique sous son billet de blog de février 2021, dans lequel l'entreprise annonçait le lancement de son expérience : "Nos tests ont conclu que le fait de mettre moins l'accent sur les partages et les commentaires des contenus politiques permettait de réduire efficacement la quantité de contenus politiques présente dans le fil d'actualité. Nous avons déployé ces changements à l'échelle mondiale."

Un document interne de l'équipe chargée de l'intégrité du fil d'actualité qualifie aujourd'hui de "priorité pour laquelle l'échec n'est pas envisageable" la réduction des mauvaises expériences liées à des contenus sensibles.

"Nous devons accélérer les progrès dans ce domaine", assène le document.

-Jeff Horwitz, Keach Hagey et Emily Glazer, The Wall Street Journal

(Version française Marion Issard) ed: VLV

Agefi-Dow Jones The financial newswire

 

© Morningstar, 2023 - L'information contenue dans ce document est à vocation pédagogique et fournie à titre d'information UNIQUEMENT. Il n'a pas vocation et ne devrait pas être considéré comme une invitation ou un encouragement à acheter ou vendre les titres cités. Tout commentaire relève de l'opinion de son auteur et ne devrait pas être considéré comme une recommandation personnalisée. L'information de ce document ne devrait pas être l'unique source conduisant à prendre une décision d'investissement. Veillez à contacter un conseiller financier ou un professionnel de la finance avant de prendre toute décision d'investissement.

Facebook Twitter LinkedIn

Valeurs citées dans l'article

NomValeurVariation (%)Notation Morningstar
Meta Platforms Inc Class A487,05 USD1,10Rating

A propos de l'auteur

Agefi/Dow Jones  est une agence de presse financière basée à Paris.