Entre les médias et les lecteurs, l’information passe aujourd’hui le plus souvent par les algorithmes des géants d’internet, qui contrôlent de fait ce flux et une bonne partie des revenus qu’il génère. Au point de susciter des inquiétudes.
OFFENSIVE. « Ces 18 derniers mois, (ces géants d’internet) qui avaient jusqu’ici une relation distante avec le journalisme sont devenus des acteurs dominants de l’écosystème de l’information », résume le Tow Center for Digital Journalism de l’Université américaine de Columbia, dans une étude publiée en juin 2016. Beaucoup proposent aux éditeurs de presse de publier directement leur contenu sur leurs plateformes, à l’instar des canaux Instant Articles de Facebook ou Discover de Snapchat, et sont « désormais directement impliqués dans tous les aspects du journalisme », fait valoir l’étude. La plupart des médias nouent des partenariats avec ces nouveaux acteurs de l’information pour maintenir ou développer leur exposition sur les moteurs de recherche et les réseaux sociaux, mais les perspectives financières restent incertaines.
« Il y a des gens qui font de l’argent sur internet, mais pas les médias, qu’ils soient tous supports ou uniquement en ligne », affirme une autre étude, du centre indépendant Pew Research Center, publiée mi-juin. Elle souligne ainsi qu’en 2015, 65% des revenus publicitaires en ligne étaient concentrés par cinq places fortes du web, Google, Facebook, Microsoft, Yahoo et Twitter, une proportion en hausse par rapport à 2014 (61%). Tout comme le modèle économique, c’est aussi le contenu et sa hiérarchie qui leur échappent, soumis au filtre des algorithmes. « L’impact que ces sociétés technologiques ont sur le secteur du journalisme va bien au-delà de l’aspect financier, jusqu’à ses composantes les plus essentielles », considère l’institut Pew.
Désormais, les géants d’internet « supplantent les choix et les objectifs des sites d’information et leurs substituent (les leurs) », affirme l’étude. Si certains y voient l’occasion d’une démocratisation de l’information, d’autres s’inquiètent d’une altération de sa qualité. « Vous n’avez aucune idée de ce que les gens vont voir et il se peut tout à fait que (ce soit) quelque chose d’assez léger plutôt que des informations majeures », prévient Dan Kennedy, professeur de journalisme à l’Université Northeastern.
Le secret des algorithmes
Une étude réalisée par Nic Newman du Reuters Institute a fait état de « préoccupations liées à la personnalisation des informations et une sélection algorithmique qui pourraient passer à côté de nouvelles importantes et de points de vue différents », selon le blog de son auteur. Mais « les jeunes préfèrent les algorithmes aux éditeurs » qui organisent l’information, constate-t-il. Ce pouvoir croissant des incontournables d’internet a attiré l’attention début mai lorsque le site d’information Gizmodo a accusé, témoignages à l’appui, Facebook d’avoir manipulé son fil de tendances. Après enquête interne, le plus grand réseau social du monde a conclu qu’il n’y avait pas eu de démarche concertée ou de manipulation, mais s’est engagé à préserver la neutralité de sa plateforme.
« Nous sommes une entreprise technologique, pas un média », a expliqué récemment la directrice d’exploitation de Facebook, Sheryl Sandberg, lors d’une table ronde à Washington. « Nous n’essayons pas de recruter des journalistes ou de rédiger des nouvelles », a-t-elle martelé. Pour autant, l’intervention humaine reste nécessaire, selon elle, « parce que sans cela, tous les jours à midi, le déjeuner serait une tendance ». Même si la hiérarchisation des informations est largement automatisée sur ces plateformes, les programmes qui régissent ce processus sont bien rédigés par des humains qui opèrent, pour ce faire, des choix. Cela pose, dès lors, « des questions quant à la transparence » de l’ensemble, souligne Nicholas Diakopoulos, professeur de journalisme à l’université du Maryland. « Il pourrait être intéressant de savoir de quelles données se nourrit le logiciel ou quels sites il suit », estime l’universitaire, pour qui « il faut réfléchir à des normes de transparence ».
Une étude publiée l’an dernier a révélé que le trafic des principaux sites d’information en provenance de Facebook avait chuté de 32% après une modification des algorithmes du réseau social. « Il est vrai que Facebook peut faire décoller ou tuer un site d’information selon la façon dont il calibre son algorithme », reconnaît Nikki Usher, professeure de nouveaux médias à l’Université George Washington. « D’un autre côté, les médias n’ont jamais eu à rendre de compte sur les décisions qu’ils prenaient » en matière éditoriale, fait-elle valoir.
Joël Ignasse
Source: Sciences et Avenir