Comment l'éthique squishy de Facebook les a mis en difficulté
Ah, à quelle vitesse les gens font marche arrière quand ils sont surpris en train de faire quelque chose d'un peu moins que transparent. Et peut-être quelque chose d'un peu… spongieux, éthique.C'est ce que le «data scientist» de Facebook Adam D.I. Kramer faisait dimanche, lorsqu'il a publié une mise à jour de son statut sur sa propre page Facebook, essayant d'expliquer pourquoi Facebook a mené une mauvaise expérience et manipulé - plus que d'habitude - ce que les gens ont vu dans leur fil d'actualité.
Pour un peu d'humour du mardi matin, jetons un coup d'œil à ce que Kramer a dit dimanche, par rapport à ce qu'il a écrit dans l'étude.
Commençons par examiner la motivation proclamée de l'étude, maintenant révélée par Kramer:
Nous avons estimé qu'il était important d'enquêter sur l'inquiétude commune selon laquelle voir des amis publier du contenu positif conduit les gens à se sentir négatifs ou exclus. Dans le même temps, nous craignions que l'exposition à la négativité des amis ne conduise les gens à éviter de visiter Facebook.1
À quelle fin? Souhaitez-vous manipuler le fil d’actualité encore plus loin, en donnant l’impression que la vie de tout le monde est une cerise sur le gâteau d’un sundae à la crème glacée, et réduire l’affichage de contenu négatif?
Cela n'a guère de sens qu'une entreprise à but lucratif se soucie de cela, à moins qu'elle puisse avoir des résultats concrets. Et tout résultat exploitable de cette étude rendrait Facebook encore moins connecté au monde réel qu'il ne l'est aujourd'hui.2 Dans l'étude (Kramer et al., 2014), les chercheurs ont affirmé que leur expérience était large et manipulatrice:
Nous montrons, via une expérience massive (N = 689 003) sur Facebook…
L'expérience a manipulé la mesure dans laquelle les personnes (N = 689 003) étaient exposées à des expressions émotionnelles dans leur fil d'actualité. […] Deux expériences parallèles ont été menées pour les émotions positives et négatives: une dans laquelle l'exposition au contenu émotionnel positif des amis dans leur fil d'actualité a été réduite, et une dans laquelle l'exposition au contenu émotionnel négatif dans leur fil d'actualité était
réduit.Dans ces conditions, lorsqu'une personne chargeait son fil d'actualité, des messages contenant un contenu émotionnel de la valence émotionnelle pertinente, chaque message émotionnel avait entre 10% et
90% de chances (en fonction de leur identifiant d'utilisateur) d'être omis de leur fil d'actualité pour ce visionnement spécifique.
Si vous faisiez partie de l'expérience, les publications contenant un mot à contenu émotionnel avaient jusqu'à 90% de chances d'être omises de votre fil d'actualité. Dans le mien, et dans la plupart des livres des gens, c'est assez manipulateur.
Maintenant, regardez comment Kramer (alias Danger Muffin) minimise l'impact de l'expérience dans son explication publiée sur Facebook:
En ce qui concerne la méthodologie, notre recherche a cherché à enquêter sur l'allégation ci-dessus en dépriorisant de manière très minimale un petit pourcentage de contenu dans le fil d'actualité (en fonction de la présence ou non d'un mot émotionnel dans le message) pour un groupe de personnes (environ 0,04% des utilisateurs, soit 1 en 2500)…
Ah, nous passons de «jusqu'à 90 pour cent de chances» à «déprioriser très légèrement un petit pourcentage de contenu». N’est-il pas étonnant de voir avec quelle créativité on peut caractériser exactement la même étude de deux manières pratiquement contradictoires?
Était-ce important ou non?
L'étude elle-même formule de multiples affirmations et conclusions sur l'importance et l'impact de leurs résultats (malgré leurs tailles d'effet ridiculement petites). D'une manière ou d'une autre, toutes ces affirmations désagréables et excessives ont dépassé les critiques de la revue PNAS (qui ont dû dormir quand ils ont approuvé ce document) et ont été autorisées à se présenter sans réserve.
Dans l'explication de Kramer publiée dimanche, il suggère que leurs données n'ont de toute façon rien trouvé qui puisse inquiéter les gens:
Et à la fin de la journée, l'impact réel sur les personnes participant à l'expérience était le minimum pour le détecter statistiquement… 3
Ce qui contredit directement les affirmations faites dans l'étude elle-même:
Ces résultats suggèrent que les émotions exprimées par les amis, via les réseaux sociaux en ligne, influencent nos propres humeurs, constituant, à notre connaissance, la première preuve expérimentale de contagion émotionnelle à grande échelle via les réseaux sociaux […]
Les messages en ligne influencent notre expérience des émotions, ce qui peut affecter une variété de comportements hors ligne.
Regardez-y - pas de qualificatifs sur ces déclarations. Je ne dis pas: «Oh, mais cela n’aurait pas vraiment d’influence sur les émotions d’un individu. Non, à mon avis, une contradiction complète avec ce que l'un des chercheurs prétend maintenant.
Mais était-ce éthique?
Beaucoup de controverse a entouré si ce genre de Additionnel la manipulation de votre fil d'actualités dans Facebook est éthique et il est possible d'intégrer un formulaire de consentement à la recherche globale dans les conditions d'utilisation d'un site Web. (Facebook manipule déjà ce que vous voyez dans votre fil d'actualité via son algorithme.)
Tout d'abord, éliminons l'argument du hareng rouge du fait que cette recherche n'est pas la même que les sociétés de recherche internes le font pour les tests d'utilisabilité ou de conception. Ce genre de recherche n'est jamais publié, et jamais fait pour examiner des hypothèses scientifiques sur le comportement émotionnel humain. C'est comme comparer des pommes et des oranges pour suggérer que ce sont la même chose.
La recherche sur des sujets humains doit généralement être approuvée par un tiers indépendant appelé comité d'examen institutionnel (IRB). Ceux-ci sont généralement hébergés dans des universités et examinent toutes les recherches menées par les propres chercheurs de l’université pour s’assurer qu’elles ne violent pas des choses comme la loi, les droits de l’homme ou la dignité humaine. Les entreprises à but lucratif comme Facebook n'ont généralement pas d'équivalent IRB exact. Si une étude sur des sujets humains n’a pas été examinée par un IRB, la question de savoir si elle était éthique ou morale reste une question ouverte.
Voici la défense du "data scientist" 4 de Kramer sur la conception de la recherche, comme indiqué dans l'étude:
[Les données ont été traitées de manière] telle qu'aucun texte n'a été vu par les chercheurs. En tant que tel, il était conforme à la politique d'utilisation des données de Facebook, à laquelle tous les utilisateurs acceptent avant de créer un compte sur Facebook, constituant un consentement éclairé pour cette recherche.
Cependant, Kashmir Hill suggère que la politique d'utilisation des données de Facebook a été modifiée 4 mois après la réalisation de l'étude pour autoriser explicitement l'utilisation «de recherche» des données de Facebook.
Ils semblaient également avoir triché pour obtenir l’approbation de la CISR d’une université pour cette étude. Hill a rapporté plus tôt que la CISR de Cornell n’avait pas examiné l’étude.5 Aucun des chercheurs ne s’est présenté pour expliquer pourquoi ils avaient apparemment dit au rédacteur de PNAS qu’ils l’avaient dirigée par la CISR d’une université.
Chris Chambers, du Royaume-Uni Guadian, résume cette triste situation:
Cette situation est franchement ridicule. Dans quelle version de 2014 est-il acceptable que les revues, les universités et les scientifiques proposent des mots de fougue et des obscurcissements en réponse à des questions simples sur l'éthique de la recherche? Comment est-il acceptable pour un comité d'éthique de décider que les mêmes auteurs qui ont aidé Facebook à concevoir une étude interventionnelle pour changer l'état émotionnel de plus de 600 000 personnes «ne se sont pas directement engagés dans la recherche humaine»?
Cerise sur le gâteau: la non-excuse
Kramer ne s'est pas excusé d'avoir effectué la recherche sans le consentement éclairé de l'utilisateur. Au lieu de cela, il s'est excusé pour la façon dont il a écrit la recherche:
Je peux comprendre pourquoi certaines personnes ont des inquiétudes à ce sujet, et mes coauteurs et moi sommes très désolés de la façon dont le document décrit la recherche et de l'anxiété qu'elle a provoquée.
Les gens ne sont pas contrariés que vous ayez fait la recherche, ils sont contrariés que vous ayez fait la recherche sur eux à leur insu ou sans leur consentement. Et désolé Facebook, mais enterrer le «consentement» dans des milliers de mots de mumbo-jumbo juridique peut vous protéger légalement, mais cela ne vous protège pas du bon sens. Ou les réactions des gens lorsqu'ils découvrent que vous les utilisez comme des cobayes.
Les gens veulent simplement un moyen efficace de refuser de mener des expériences sur eux et leur fil d'actualité à leur insu ou sans leur consentement.
Facebook ne propose pas cela aujourd'hui. Mais je soupçonne que si Facebook veut continuer à faire des recherches de cette nature, il offrira bientôt cette option à ses utilisateurs.
Une étude de cas d'éthique pour tous les temps
Cette situation est un exemple parfait de la manière de ne pas effectuer de recherche sur les données de vos utilisateurs sans leur consentement explicite. Il sera enseigné dans les classes d’éthique pendant des années - voire des décennies - à venir.
Il servira également d'étude de cas sur ce qu'il ne faut pas faire en tant que réseau social si vous souhaitez conserver la confiance de vos utilisateurs.
Facebook devrait offrir à tous les utilisateurs de véritables excuses pour avoir mené ce type de recherche sur eux sans leur connaissance et leur permission explicites. Ils devraient également modifier leurs exigences internes en matière de recherche afin que toutes les études menées sur leurs utilisateurs passent par un IRB externe, universitaire.
Lectures complémentaires
Fiasco Facebook: l’étude de Cornell sur la «contagion émotionnelle» était-elle une violation de l’éthique?
Facebook a ajouté une «recherche» à l'accord utilisateur 4 mois après l'étude sur la manipulation des émotions
Référence
Kramer, ADI, Guillory, JE, Hancock, JT. (2014). Preuve expérimentale d'une contagion émotionnelle à grande échelle via les réseaux sociaux. PNAS. www.pnas.org/cgi/doi/10.1073/pnas.1320040111
Notes de bas de page:
- Ce qu'ils nous ont déjà dit dans l'étude: "Un test pour savoir si les publications avec un contenu émotionnel sont plus engageantes." [↩]
- Facebook semble moins connecté à ma vraie vie, car mon propre fil d’actualité semble être en grande partie passé de messages sur la vie des gens à des "liens que je trouve intéressants" - même si je ne clique jamais sur ces liens! [↩]
- Ce qui est une façon insensée des chercheurs de dire: «Notre expérience n’a pas vraiment trouvé de taille d’effet notable. Mais nous allons annoncer les résultats comme si nous l’avions fait (puisque nous avons en fait trouvé un journal, PNAS, assez bon pour le publier!). » [↩]
- J'utilise des citations autour de ce titre, car tous les chercheurs et scientifiques sont des data scientists - c'est ce qui différencie un chercheur d'un conteur. [↩]
- En fait, ils notent que Hancock, un auteur nommé sur le papier, n'avait accès qu'aux résultats - pas même aux données réelles! [↩]