Comment les utilisateurs sondent les fausses nouvelles en ligne - ou pas

Facebook et Twitter nous fournissent de nombreuses informations, mais il devient de plus en plus difficile de dire ce qui est réel et ce qui ne l’est pas.

Des chercheurs de l'Université de Washington voulaient savoir comment les gens enquêtaient sur les publications potentiellement suspectes sur leurs propres flux.

Les chercheurs ont regardé 25 participants faire défiler leurs flux Facebook ou Twitter tandis que, à leur insu, une extension Google Chrome ajoutait au hasard du contenu démystifié en plus de certains des vrais messages.

Les participants ont eu diverses réactions à la rencontre d'un faux message: certains l'ont carrément ignoré, certains l'ont pris pour argent comptant, certains ont cherché à savoir si c'était vrai, et certains se méfiaient de cela, mais ont ensuite choisi de l'ignorer, selon les résultats de l'étude.

«Nous voulions comprendre ce que font les gens lorsqu'ils rencontrent de fausses nouvelles ou de la désinformation dans leurs fils. Le remarquent-ils? Que font-ils à ce sujet? » a déclaré l'auteur principal, le Dr Franziska Roesner, professeur agrégé à la Paul G. Allen School of Computer Science & Engineering de l'université. «Il y a beaucoup de gens qui essaient d'être de bons consommateurs d'informations et ils ont du mal. Si nous pouvons comprendre ce que font ces personnes, nous pourrons peut-être concevoir des outils qui peuvent les aider. »

Des recherches antérieures sur la façon dont les gens interagissent avec la désinformation ont demandé aux participants d'examiner le contenu d'un compte créé par un chercheur, et non de quelqu'un qu'ils ont choisi de suivre.

«Cela pourrait rendre les gens automatiquement méfiants», a déclaré l'auteure principale Christine Geeng, étudiante au doctorat à l'UW. «Nous nous sommes assurés que tous les messages semblaient provenir de personnes suivies par nos participants.»

Les chercheurs ont recruté des participants âgés de 18 à 74 ans dans la région de Seattle, expliquant que l'équipe de recherche était intéressée à voir comment les gens utilisent les médias sociaux. Les participants ont utilisé Twitter ou Facebook au moins une fois par semaine et ont souvent utilisé les plateformes de médias sociaux sur un ordinateur portable.

Ensuite, l'équipe a développé une extension Chrome qui ajouterait aléatoirement de faux messages ou des mèmes qui avaient été démystifiés par le site Web de vérification des faits Snopes.com en plus de vrais messages pour donner l'impression temporairement qu'ils étaient partagés par des personnes sur les flux des participants. Ainsi, au lieu de voir la publication d'un cousin sur des vacances récentes, un participant verrait son cousin partager une des fausses histoires à la place.

Les chercheurs ont installé l'extension sur l'ordinateur portable du participant ou le participant s'est connecté à leurs comptes sur l'ordinateur portable du chercheur, sur lequel l'extension était activée. L'équipe a dit aux participants que l'extension modifierait leurs flux - les chercheurs n'ont pas dit comment - et suivrait leurs goûts et leurs partages pendant l'étude, même si, en fait, elle ne suivait rien. L'extension a été supprimée des ordinateurs portables des participants à la fin de l'étude.

"Nous leur ferions défiler leurs flux avec l'extension active", a déclaré Geeng. «Je leur ai dit de réfléchir à haute voix à ce qu'ils faisaient ou à ce qu'ils feraient s'ils étaient dans une situation sans moi dans la pièce. Alors les gens parlaient de «Oh oui, je lisais cet article» ou de «Je sauterais ceci». Parfois, je posais des questions comme: «Pourquoi sautez-vous ceci? Pourquoi aimerais-tu ça? »

Les participants ne pouvaient pas réellement aimer ou partager les faux messages, ont noté les chercheurs.

Sur Twitter, un «retweet» partagerait le contenu réel sous le faux message. La seule fois où un participant a retweeté du contenu sous le faux message, les chercheurs les ont aidés à l'annuler une fois l'étude terminée. Sur Facebook, les boutons J'aime et Partager ne fonctionnaient pas du tout.

Après que les participants aient rencontré tous les faux messages - neuf pour Facebook et sept pour Twitter - les chercheurs ont arrêté l'étude et expliqué ce qui se passait.

«Ce n’était pas comme si nous disions:« Hé, il y avait de faux messages là-dedans. »Nous avons dit:« Il est difficile de repérer la désinformation. Voici tous les faux messages que vous venez de voir. C'étaient des faux, et vos amis ne les ont pas vraiment postés », a déclaré Geeng. «Notre objectif n'était pas de tromper les participants ou de les faire se sentir exposés. Nous voulions normaliser la difficulté de déterminer ce qui est faux et ce qui ne l’est pas. »

Les chercheurs ont conclu l'entrevue en demandant aux participants de partager les types de stratégies qu'ils utilisent pour détecter la désinformation.

En général, les chercheurs ont constaté que les participants ignoraient de nombreux messages, en particulier ceux qu'ils jugeaient trop longs, trop politiques ou non pertinents pour eux.

Mais certains types de messages ont rendu les participants sceptiques, selon les chercheurs. Par exemple, les gens ont remarqué qu'un message ne correspondait pas au contenu habituel de quelqu'un. Parfois, les participants ont enquêté sur les publications suspectes - en regardant qui les avait publiées, en évaluant la source du contenu ou en lisant les commentaires sous la publication - et d'autres fois, les gens les faisaient simplement défiler.

«Je m'intéresse à l'époque où les gens sont sceptiques, mais choisissent ensuite de ne pas enquêter. L'incorporent-ils encore d'une manière ou d'une autre dans leur vision du monde? » Dit Roesner. "À l'époque, quelqu'un pourrait dire:" C'est une annonce. Je vais l'ignorer. »Mais plus tard, se souviennent-ils de quelque chose sur le contenu et oublient-ils qu'il s'agissait d'une annonce qu'ils ont ignorée? C'est quelque chose que nous essayons d'étudier davantage maintenant. "

Bien que l'étude soit petite, elle fournit un cadre sur la façon dont les gens réagissent à la désinformation sur les médias sociaux, selon les chercheurs. Ils ajoutent qu'ils peuvent l'utiliser comme point de départ pour rechercher des interventions pour aider les gens à résister à la désinformation dans leurs flux.

«Les participants avaient ces modèles forts de ce à quoi ressemblaient normalement leurs flux et les personnes de leur réseau social. Ils ont remarqué que c'était bizarre. Et cela m'a un peu surpris », a déclaré Roesner.

«Il est facile de dire que nous devons créer ces plates-formes de médias sociaux afin que les gens ne soient pas déroutés par de faux messages. Mais je pense qu'il existe des opportunités pour les concepteurs d'incorporer les gens et leur compréhension de leurs propres réseaux pour concevoir de meilleures plateformes de médias sociaux.

Les résultats de l’étude seront présentés lors de la conférence ACM CHI 2020 sur les facteurs humains dans les systèmes informatiques, prévue le 25 avril à Hawaï.

Source: Université de Washington

Photo:

!-- GDPR -->