Le faible déni de Facebook des fausses nouvelles et son impact
Facebook brosse une image très dichotomique et contradictoire de lui-même. D'un côté, ils prétendent être le plus grand réseau social au monde, ayant un impact sur la vie de plus d'un milliard de personnes chaque mois. De l'autre côté, le PDG Mark Zuckerberg - apparemment n'utilisant pas son propre réseau social ou vivant peut-être sous un rocher l'année dernière? - affirme que Facebook n'a pratiquement aucune influence sur les élections nationales.La déconnexion est importante, car elle montre que Facebook ne semble pas prendre la responsabilité de libérer et de renforcer la technologie qui fait désormais partie de la vie quotidienne de milliards de personnes. Les fausses nouvelles sont-elles un problème réel sur Facebook, et si oui, que peut-on y faire?
Mardi, après que Google ait déclaré qu'il n'accepterait plus les éditeurs dans son réseau publicitaire qui publient de fausses nouvelles - des nouvelles fictives conçues pour être partagées et cliquées par d'autres - Facebook a emboîté le pas. Il est révélateur que Facebook a suivi l'exemple de Google étant donné les commentaires du PDG de Facebook, Mark Zuckerberg, ce week-end, qualifiant de «fou» que Facebook ait eu une influence quelconque lors des récentes élections présidentielles les plus controversées.
Cependant, interdire aux faux sites d'information d'utiliser votre réseau publicitaire est loin de travailler sur le vrai problème - les gens partagent et apprécient les fausses nouvelles tout aussi facilement que les histoires réelles et légitimes.
Will Oremus, écrivant à Slate, expose le problème:
Le problème est le refus de Facebook de reconnaître son rôle de plus en plus dominant dans les médias d'information. Il est peu probable que l’on disparaisse, même si les fausses nouvelles le font. Dans une interview publique jeudi dernier, Zuckerberg a affirmé que les fausses nouvelles sur Facebook «n'avaient sûrement pas eu d'impact» sur les élections et que suggérer le contraire était «une idée assez folle». […]
Dans le même temps, il a averti que Facebook devait «procéder très soigneusement», car «identifier la« vérité »est compliqué.» […]
Mais on a de plus en plus le sentiment, tant à l'intérieur qu'à l'extérieur de l'entreprise, qu'elle procède peut-être trop prudemment, étant donné son rôle de plus en plus dominant dans la distribution des informations en ligne. Et les dénégations de Zuckerberg semblent attiser les flammes.
En effet. Lorsque votre propre PDG semble si déconnecté de la réalité sur le terrain, vous vous demandez ce qu'il passe du temps à faire toute la journée. Les fausses nouvelles sont transmises sur Facebook tout aussi facilement que les nouvelles légitimes (et les photos de chatons), partagées et aimées des millions de fois lors de ces dernières élections. Bien que Facebook dispose d'outils de reporting rudimentaires, ils fournissent zéro rétroaction à l'utilisateur suggérant que quoi que ce soit est jamais fait. En l'absence de commentaires, les utilisateurs sont peu incités à utiliser ces outils. La plupart des gens ne s'en soucient donc pas.
Mais identifier les fausses nouvelles ne consiste pas vraiment à identifier la «vérité» - il s'agit d'identifier des faits facilement vérifiables qui sont faux (ce que la plupart d'entre nous appellent «mensonges» ou «fiction»). Surtout lorsqu'il s'agit de choses facilement vérifiables sur lesquelles Facebook est complètement tombé lors de ces dernières élections - comme le mensonge selon lequel le pape a approuvé Trump.
À mesure que Facebook s'est développé, cependant, il semble être devenu plus complaisant et paresseux quant à ses responsabilités envers ses utilisateurs:
[Edward] Snowden a averti que les réseaux de médias sociaux veillent à respecter les utilisateurs à mesure qu'ils se développent, mais deviennent plus imprudents lorsqu'ils établissent leur domination. «Pour avoir une entreprise qui a suffisamment de pouvoir pour remodeler notre façon de penser - je ne pense pas avoir besoin de décrire à quel point c'est dangereux», a-t-il conclu. […] «Quand vous avez un Google en place, un Facebook en place, un Twitter en place, ils ne semblent jamais partir», dit-il. «Lorsqu'un fournisseur de services prend une mauvaise décision, nous en souffrons tous.»
Facebook dit: «Hé, nous sommes avant tout une entreprise technologique. Nous ne voulons pas nous lancer dans cette entreprise compliquée consistant à impliquer des humains dans nos processus. " Pourtant, comme ils le découvrent, lorsque vous dirigez une entreprise technologique dont le seul but est de connecter les êtres humains les uns aux autres de manière significative, vous devrez peut-être impliquer des humains dans le processus (en dehors du codage de la algorithmes). Nier qu'il faut faire plus, c'est se mettre la tête dans le sable et espérer que le problème disparaîtra.
Problème facilement résolu - par quatre étudiants
Maintenant, tout cela serait un point discutable si le problème était insurmontable, insoluble.
Mais il est facile à résoudre, comme vient de le démontrer quatre étudiants de l'université de Princeton. Leur solution est une extension de navigateur uniquement Chrome (s'ils étaient des ingénieurs Facebook, ils pourraient facilement l'intégrer directement dans le réseau social):
"Pour les liens, nous prenons en compte la réputation du site Web, nous l'interrogons également sur la base de données des sites Web de logiciels malveillants et de phishing, nous prenons également le contenu, le recherchons sur Google / Bing, récupérons les recherches en toute confiance et résumons ce lien et le montrons à l'utilisateur. Pour les images comme les instantanés Twitter, nous convertissons l'image en texte, utilisons les noms d'utilisateur mentionnés dans le tweet, pour obtenir tous les tweets de l'utilisateur et vérifier si le tweet actuel a déjà été publié par l'utilisateur. "
Le plug-in du navigateur ajoute ensuite une petite balise dans le coin qui indique si l'histoire est vérifiée. […]
Mais les élèves montrent que des algorithmes peuvent être construits pour déterminer avec une certitude raisonnable quelle nouvelle est vraie et laquelle ne l'est pas et que quelque chose peut être fait pour mettre cette information devant les lecteurs lorsqu'ils envisagent de cliquer.
En effet. On pourrait penser qu’une entreprise valant des milliards de dollars aurait pu trouver cela par elle-même avant que cela ne devienne le problème qu’elle a rencontré lors des élections de 2016. En fait, un petit groupe de travail d'ingénieurs Facebook prend maintenant les choses en main, pour essayer de convaincre leur PDG qu'il s'agit d'un réel problème - mais qu'ils peuvent résoudre.
Les fausses nouvelles sont un problème qui peut être résolu. Mais d’abord, les responsables (comme Zuckerberg) doivent reconnaître qu’il s’agit d’un problème réel - que les réseaux sociaux comme Facebook jouent un rôle social important dans la politique de nombreux pays.