Surprise: Facebook dit que Facebook est d'accord pour les nouvelles!
Une étude a été publiée la semaine dernière dans la revue Science Cela montre que l'algorithme de Facebook n'est pas la cause d'une hypothétique «bulle de filtre» - où les gens ne voient que des actualités qui correspondent à leurs tendances politiques sur un réseau social.Le seul problème? Il s’agit d’une étude sur Facebook menée par des personnes employées par Facebook.
Doit-on vraiment être surpris que les propres chercheurs de Facebook minimisent l'impact des manipulations de leur entreprise sur les fils d'actualité des gens?
L'étude, Exposition à des informations et à des opinions idéologiquement diverses sur Facebook, par Eytan Bakshy et ses collègues de Facebook a été publié la semaine dernière dans Science. Comment cette étude pourrait-elle être publiée dans la prestigieuse revue Science? 1 L'évaluation par les pairs n'est-elle pas censée détecter les études intéressées publiées par des entreprises qui démontrent uniquement ce que l'entreprise souhaite que les données montrent?
Il faut se demander comment les pairs évaluateurs ont adopté cette étude telle que publiée. De nombreuses critiques de l’étude ont déjà été publiées, je vais donc faire un rapide tour d'horizon des problèmes cités par les autres. Cette critique de Christian Sandvig résume assez bien le problème de la façon dont les chercheurs de Facebook ont tiré leurs propres conclusions dans l'étude publiée:
Au sujet des comparaisons, l'étude poursuit en disant que:
«Nous établissons de manière concluante que… les choix individuels plus que les algorithmes limitent l'exposition aux contenus stimulant les attitudes.»
"Par rapport au classement algorithmique, les choix des individus sur ce qu'ils doivent consommer ont eu un effet plus fort"
Les sonnettes d'alarme sonnent pour moi. L'industrie du tabac a peut-être déjà financé une étude selon laquelle fumer est moins dangereux que l'extraction du charbon, mais nous avons ici une étude sur le tabagisme des mineurs de charbon. Probablement pendant qu'ils sont dans la mine de charbon.
Ce que je veux dire, c'est qu'il n'y a pas de scénario dans lequel les «choix de l'utilisateur» et «l'algorithme» peuvent être échangés, car ils se produisent ensemble […]. Les utilisateurs choisissent ce que l'algorithme a déjà filtré pour eux. C'est une séquence.
Je pense que la déclaration appropriée à propos de ces deux choses est qu’elles sont toutes les deux mauvaises - elles augmentent toutes deux la polarisation et la sélectivité. Comme je l'ai dit ci-dessus, l'algorithme semble augmenter légèrement la sélectivité des utilisateurs.
En effet, vous pensez que les chercheurs de Facebook qui, vous le savez, travaillent chez Facebook, comprendraient que vous ne pouvez pas démêler et séparer l’algorithme du comportement de l’utilisateur, puisque l’un dépend de l’autre. Sans manipuler l'algorithme (ce que la recherche Facebook d'Adam Kramer a découvert n'est pas une bonne chose à faire sans obtenir au préalable le consentement éclairé de l'utilisateur), vous ne pouvez pas vraiment dire pourquoi les utilisateurs cliquent sur une chose plus que sur une autre.
Mais cet examen de l’étude Facebook de Zeynep Tufekci, professeur à l’Université de Caroline du Nord, Chapel Hill, a écrit que ce que les données de l’étude ont réellement trouvé était enfoui dans l’annexe de l’étude:
Plus le lien est haut, plus il y aura (beaucoup plus) de chances qu'il soit cliqué. Vous vivez et mourez par placement, déterminé par l'algorithme de fil d'actualité. (L'effet, comme le note correctement Sean J. Taylor, est une combinaison de placement et du fait que l'algorithme devine ce que vous souhaitez).
C'était déjà connu, pour la plupart, mais c'est formidable de le faire confirmer par des chercheurs de Facebook (l'étude a été uniquement rédigée par des employés de Facebook). […]
Une découverte nouvelle est que l'algorithme de fil d'actualité supprime (modestement) le contenu diversifié, et une autre découverte cruciale et également nouvelle est que le placement dans le fil a (fortement) une influence sur les taux de clics.
Facebook vous montre des actualités que vous êtes plus susceptibles de lire (car elles correspondent à votre point de vue politique) et que plus elles apparaissent haut dans votre fil d'actualité, plus il est probable que vous cliquiez dessus.
En d’autres termes, la manipulation de votre fil d’actualité par Facebook continue d’être un facteur important pour déterminer ce sur quoi vous allez probablement cliquer. Et ils continuent de manipuler ce flux pour vous montrer des actualités politiquement plus alignées que s'il n'y avait aucun biais dans leur algorithme.
Et, comme Tufekci le note de manière importante, il s'agissait d'un petit groupe restreint d'utilisateurs de Facebook étudié, uniquement parce qu'il était plus pratique (et moins cher) pour les chercheurs de Facebook de les étudier. Ils n'ont examiné que les utilisateurs qui ont auto-identifié leur affiliation politique sur Facebook et qui se connectent régulièrement au service (environ 4% du total des utilisateurs de Facebook [seulement 9% des utilisateurs déclarent leur affiliation politique sur Facebook, ce qui signifie que ce n'est pas un échantillon que vous pouvez généraliser quoi que ce soit de]). Cela ne dit rien des utilisateurs de Facebook qui ne déclarent pas leur affiliation politique sur Facebook - c'est la plupart d'entre nous.
Facebook aurait-il pu mener une étude plus robuste? Bien sûr, mais cela aurait nécessité des techniques de recherche plus traditionnelles, telles que le recrutement par sondage sur le site combiné à un recrutement aléatoire par e-mail hors site.
Voici donc la conclusion non filtrée et impartiale des données (gracieuseté de Tufekci) que les chercheurs de Facebook semblent avoir tourné pour dire que ce que vous voyez dans leur fil d'actualité n'est pas de leur faute:
Les chercheurs de Facebook montrent de manière concluante que l'algorithme de fil d'actualité de Facebook diminue les contenus idéologiquement diversifiés et transversaux que les gens voient de leurs réseaux sociaux sur Facebook d'une quantité mesurable. Les chercheurs rapportent que l'exposition à des contenus diversifiés est supprimée par l'algorithme de Facebook de 8% pour les libéraux auto-identifiés et de 5% pour les conservateurs auto-identifiés.
Ou, comme le dit Christian Sandvig, «l'algorithme filtre 1 reportage dur transversal sur 20 qu'un conservateur auto-identifié voit (ou 5%) et 1 reportage dur transversal sur 13 qu'un libéral auto-identifié voit (8%). » Vous voyez moins d'éléments d'actualité avec lesquels vous n'êtes pas d'accord et qui sont partagés par vos amis, car l'algorithme ne vous les montre pas.
Malheureusement, en dehors de la New York Times et quelques autres médias, la plupart des sites de médias d'information grand public viennent de rapporter ce que les chercheurs de Facebook ont affirmé dans leur étude, sans scepticisme.
Mais maintenant vous connaissez la vérité - Facebook a étudié un petit échantillon non représentatif, puis a minimisé ce que leurs données montraient réellement pour souligner un résultat plus positif pour l'entreprise. Pour moi, c'est un autre exemple de chercheurs de Facebook qui ne comprennent pas vraiment le but de la recherche scientifique - partager des connaissances avec le monde qui ne sont pas biaisées et manipulées.
Pour plus de lecture…
Zeynep Tufekci: Comment l'algorithme de Facebook supprime (modestement) la diversité du contenu et comment le fil d'actualité règle vos clics
Christian Sandvig: L'étude Facebook «Ce n'est pas notre faute»
NY Times: Facebook utilise la polarisation? Le site prie de différer
Notes de bas de page:
- Malheureusement, je dois maintenant ajouter une autre revue à ma liste de publications scientifiques respectées qui nécessitent un examen plus approfondi. Comme le savent les lecteurs de longue date de World of Psychology, cette liste s'allonge chaque année: Pédiatrie (Pediatrics publie des études sur la technologie qui sont apparemment examinées par personne ne connaissant les relations causales de la recherche fondamentale.), Cyberpsychologie, comportement et réseautage social (La cyberpsychologie publie apparemment toute étude sur la dépendance à Internet ou les réseaux sociaux, quelle que soit sa qualité.) Et maintenant, Science. [↩]