Pieter Van Nuffel
Pieter Van Nuffel
Journalist DataNews
analyse

15/01/18 à 11:41 - Mise à jour à 11:41

L'avenir du flux de nouvelles sur Facebook: lieu de quiétude ou chambre d'écho de votre propre raison?

Mark Zuckerberg veut en revenir à l'idée initiale sous-jacente au flux de nouvelles sur Facebook: personne ne peut mieux nous conseiller à propos de ce que nous devons lire et regarder que nos amis. Une bonne chose?

L'avenir du flux de nouvelles sur Facebook: lieu de quiétude ou chambre d'écho de votre propre raison?

Mark Zuckerberg © Reuters

L'algorithme sous-jacent au flux de nouvelles sur Facebook est l'un des plus importants de notre temps dans la mesure où il détermine pour deux milliards de personnes les messages et vidéos qu'elles verront en première instance. Il n'empêche que les règles et procédures précises de classification de ces informations sont entourées de mystère. Facebook ne communique quasiment jamais à ce sujet. Et quand elle le fait, cela se passe de manière superficielle.

Comme ce fut le cas encore la semaine dernière, lorsque Mark Zuckerberg annonça un grand changement 'dans la façon dont Facebook est structurée'. Le focus de l'algorithme sera élargi: au lieu de 'nous aider à trouver du contenu pertinent', il va désormais surtout 'nous aider à établir de précieuses interactions sociales'. Cela signifie que Facebook aspire à plus de réactions d'amis et à moins de messages de nouvelles dans votre flux (à moins que des entreprises de médias paient pour cela ou suscitent beaucoup d'interactions).

Cette décision n'est pas vraiment inattendue. C'est que Facebook se trouve dans la ligne de mire depuis longtemps déjà en tant que plate-forme propageant de fausses nouvelles. Initialement, Zuckerberg arrivait encore à se dégager de toute responsabilité en affirmant tout simplement que Facebook est une firme technologique. Depuis les élections présidentielles américaines et la preuve d'une intervention russe, tel n'est plus le cas - même pas aux Etats-Unis. Et Mark Zuckerberg en est bien conscient: il en a même fait directement une bonne résolution pour 2018, à savoir réparer les erreurs commises par sa plate-forme.

Mercredi, son entreprise, conjointement avec Twitter et Google, devra pour la deuxième fois rendre des comptes au sénat américain. Cette fois, elles devront convaincre ce dernier qu'elles en font assez pour contrer la propagande terroriste sur leurs plates-formes. Zuckerberg a donc tout intérêt à redorer l'image de Facebook.

Ce qu'il vient d'annoncer, c'est une réponse aux critiques et cela aura un solide impact sur la manière dont se présentera notre flux de nouvelles à l'avenir. Mais ne vous faites aucune illusion pour autant: cette décision n'a que peu à voir avec une juste préoccupation ou avec un plan visant à contrer la diffusion des fausses nouvelles. Facebook n'a absolument rien à gagner à classer les messages en fonction de leur degré d'authenticité ou à expliquer aux utilisateurs qu'ils ont basé leurs préférences politiques sur des messages mensongers.

Voilà pourquoi Facebook opte pour la solution la plus commode: elle fera paraître de manière moins proéminente les messages, dont elle ne souhaite pas contrôler le degré d'authenticité. Zuckerberg en personne signale accorder (encore) moins d'attention à ce qui est pertinent, mais davantage à tout 'ce qui suscite un bon sentiment' aux utilisateurs. Des photos de vacances ou de bébés, des messages de personnes qui veulent partager avec nous la façon dont leur journée s'est déroulée, et d'autres informations personnelles apparaîtront de nouveau massivement dans notre flux. Facebook en revient ainsi à l'idée de base de son flux de nouvelles: personne ne peut mieux nous conseiller à propos de ce que nous devons lire et regarder que nos amis.

Ceux-ci partageront cependant encore et toujours avec vous des considérations, des opinions et des messages le plus en phase avec l'image qu'ils ont du monde. Reste encore à savoir si vos amis représentent bien la meilleure base de filtrage de ce genre d'informations. Et si c'est là une solution à la diffusion de fausses nouvelles. Si une fausse nouvelle est partagée par un ami ou si elle provoque de multiples réactions, elle apparaîtra encore et toujours de manière proéminente dans votre flux de nouvelles. Quiconque suit un support journalistique sur Faceboook, pourra par contre encore voir apparaître de temps à autre dans son flux des articles ou des opinions, qui remettent en question ses propres idées. Non pas que quelqu'un ajustera pour autant subitement ses convictions (notre 'biais de confirmation' est trop puissant pour cela), mais cela semble plus sain que faire une halte dans un filtre à bulles où nous aurons un 'bon sentiment', parce nous y verrons à chaque fois la confirmation de nos convictions.

Le professeur en psychologie sociale Alain Van Hiel signale que les médias sociaux deviennent toujours plus des chambres d'écho de notre propre raison et de la grande instabilité des autres. La façon dont l'algorithme sous-jacent au flux de nouvelles sur Facebook va à présent changer, ne fera sans doute encore que renforcer cette polarisation de groupe. Il se pourrait que nous en tirions 'un meilleur sentiment'. On doute cependant que le temps qu'on consacre à Facebook 'soit plus de meilleure qualité', comme Zuckerberg le prétend.

Nos partenaires