/li> com La pression écrasante des gouvernements et du public a contraint les plateformes de médias sociaux à prendre des mesures sans précédent sur ce que les utilisateurs partagent en ligne pendant la pandémie. Mais qui vérifie les faits? Laurie Clarke rapports Dans un mouvement comparable à la façon dont les gouvernements ont assumé des pouvoirs d'urgence en réponse à la pandémie de covid, Facebook a supprimé 16 millions d'éléments de son contenu et ajouté des avertissements à environ 167 millions. YouTube a supprimé plus de 850 000 vidéos liées à des «informations médicales dangereuses ou trompeuses sur la covid-19». Alors qu'une partie de ce contenu est susceptible d'être délibérément mal dirigée ou d'induire en erreur de manière vindicative, la pandémie est jonchée d'exemples d'opinions scientifiques qui ont été prises au piège - entraînant leur suppression ou leur dé-priorisation, en fonction de la plate-forme et du contexte. Cela souligne la difficulté de définir la vérité scientifique, ce qui soulève la plus grande question de savoir si les plateformes de médias sociaux telles que Facebook, Twitter, Instagram et YouTube devraient être chargées de cela. «Je pense qu’il est assez dangereux que le contenu scientifique soit qualifié de désinformation, simplement à cause de la façon dont les gens pourraient le percevoir», déclare Sander van der Linden, professeur de psychologie sociale en société à l’Université de Cambridge, au Royaume-Uni. «Même si cela peut correspondre à une définition dans un sens très technique, je ne suis pas sûr que ce soit la bonne façon de le décrire de manière plus générale, car cela pourrait conduire à une plus grande politisation de la science, ce qui n’est pas souhaitable. » La dernière décennie a vu une course aux armements entre les utilisateurs qui colportent de la désinformation (intentionnellement conçue pour induire en erreur) ou qui partagent involontairement de la désinformation (dont les utilisateurs ne réalisent pas qu'elle est fausse) et les plateformes de médias sociaux qui se trouvent chargées de la contrôler, qu'elles le veuillent. ou pas.1 Lorsque le BMJ a interrogé Facebook, Twitter et YouTube (qui appartient à Google), ils ont tous souligné leurs efforts pour supprimer le contenu potentiellement dangereux et pour diriger les utilisateurs vers des sources d'information faisant autorité sur le covid-19 et les vaccins, y compris l'Organisation mondiale de la santé et le Centers for Disease Control and Prevention des États-Unis. Bien que leurs politiques de modération diffèrent légèrement, les plates-formes suppriment ou réduisent généralement la circulation des contenus qui contestent les informations fournies par les autorités sanitaires telles que l'OMS et les CDC ou diffusent de fausses allégations de santé considérées comme nocives, y compris des informations incorrectes sur les dangers des vaccins. Mais la pandémie a vu un patchwork changeant de critères employés par ces entreprises pour définir les limites de la désinformation. Cela a conduit à des demi-tours frappants: au début de la pandémie, les messages disant que les masques ont contribué à empêcher la propagation du covid-19 ont été étiquetés «faux»; c'est maintenant le contraire, reflétant la nature changeante du débat académique et des recommandations officielles. Twitter gère sa vérification des faits en interne. Mais Facebook et YouTube s'appuient sur des partenariats avec des vérificateurs de faits tiers, réunis sous l'égide de l'International Fact-Checking Network - un organisme non partisan qui certifie d'autres vérificateurs de faits, géré par le Poynter Institute for Media Studies, un journalisme à but non lucratif. école à Saint-Pétersbourg, en Floride. Les principaux donateurs de Poynter sont le Charles Koch Institute (un organisme de recherche sur les politiques publiques), le National Endowment for Democracy (une agence gouvernementale américaine) et le réseau Omidyar (une «société d’investissement philanthropique»), ainsi que Google et Facebook. Poynter est également propriétaire du journal Tampa Bay Times et du vérificateur de faits de haut niveau PolitiFact. Le Poynter Institute a décliné l’invitation du BMJ à commenter cet article. Pour le contenu scientifique et médical, le Réseau international de vérification des faits implique des équipements peu connus tels que SciCheck, Metafact et Science Feedback. Health Feedback, une filiale de Science Feedback, sélectionne les scientifiques pour rendre leur verdict. En utilisant cette méthode, il a qualifié de «trompeur» un article d'opinion du Wall Street Journal2 prévoyant que les États-Unis bénéficieraient de l'immunité collective d'ici avril 2021, rédigé par Marty Makary, professeur de politique et de gestion de la santé à l'Université John Hopkins de Baltimore, Maryland. Cela a incité le journal à publier une réfutation intitulée «Vérification des faits sur les vérificateurs de faits de Facebook», affirmant que l'évaluation était «une contre-opinion déguisée en vérification des faits».3 Makary n'avait pas présenté son argument comme une affirmation factuelle, selon l'article, mais avait fait une projection basée sur son analyse des preuves. Un porte-parole de Science Feedback a déclaré au BMJ que, pour vérifier les allégations, il sélectionne les scientifiques sur la base de «leur expertise dans le domaine de l'allégation / de l'article». Ils expliquent: «Les éditeurs de Science Feedback commencent généralement par rechercher la littérature académique pertinente et identifient les scientifiques qui ont rédigé des articles sur des sujets connexes ou qui possèdent l'expertise nécessaire pour évaluer le contenu.» L'organisation demande ensuite aux scientifiques sélectionnés de peser directement ou recueille les affirmations qu'ils ont faites dans les médias ou sur les réseaux sociaux pour parvenir à un verdict. Dans le cas de l’article de Makary, il a identifié 20 scientifiques concernés et a reçu des commentaires de trois. La nature litigieuse de ces décisions est en partie due à la façon dont les plateformes de médias sociaux définissent les concepts glissants de désinformation par opposition à désinformation. Cette décision repose sur l'idée d'un consensus scientifique. Mais certains scientifiques disent que cela étouffe des opinions hétérogènes, renforçant de manière problématique une idée fausse selon laquelle la science est un monolithe. Ceci est résumé par ce qui est devenu un slogan de pandémie. David Spiegelhalter, président du Winton Center for Risk and Evidence Communication à l'Université de Cambridge, qualifie cela «d'absolument horrible», affirmant que derrière des portes closes, les scientifiques passent tout leur temps à se disputer et à être profondément en désaccord sur des choses assez fondamentales. Il dit: «La science ne vous dit pas quoi faire; ça ne devrait pas l'être. Je le vois beaucoup plus comme marcher à côté de vous en marmonnant pour lui-même, en faisant des commentaires sur ce qu'il voit et en faisant des suggestions provisoires sur ce qui pourrait se passer si vous empruntez un chemin particulier, mais ce n'est pas responsable. " Le terme «désinformation» pourrait lui-même contribuer à aplatir le débat scientifique. Martin Kulldorff, professeur de médecine à la Harvard Medical School de Boston, Massachusetts, a été critiqué pour ses opinions sur le verrouillage, qui s'inscrivent étroitement dans la stratégie plus détendue de sa Suède natale.4 Il dit que les scientifiques qui expriment des opinions peu orthodoxes pendant la pandémie sont inquiets. face à «diverses formes de calomnie ou de censure... ils disent certaines choses mais pas d'autres, car ils pensent que cela sera censuré par Twitter, YouTube ou Facebook. » Cette inquiétude est aggravée par la crainte que cela puisse affecter le financement des subventions et la capacité de publier des articles scientifiques, dit-il au BMJ. L'idée binaire selon laquelle les affirmations scientifiques sont correctes ou incorrectes a alimenté les divisions qui ont caractérisé la pandémie. Samantha Vanderslott, sociologue de la santé à l'Université d'Oxford, au Royaume-Uni, a déclaré à Nature : «Le fait de raconter de fausses histoires peut rehausser votre profil.» Dans le même article, Giovanni Zagni, directeur du site Web italien de vérification des faits Facta, a noté que «vous pouvez construire une carrière» en devenant «une voix respectée qui lutte contre les mauvaises informations». 5 Mais cela a alimenté une incitation perverse pour les scientifiques à qualifier leurs positions mutuellement de désinformation ou de désinformation. Il dit: "Je pense que vous voyez un peu la même chose avec le terme" désinformation ", quand il y a une science avec laquelle vous n'êtes pas d'accord et que vous la qualifiez de désinformation." Le site Web de Health Feedback indique qu'il ne sélectionnera pas de scientifiques pour vérifier les allégations s'ils ont miné leur crédibilité en «propageant des informations erronées, intentionnellement ou non». Dans la pratique, cela pourrait créer une situation kafkaïenne où les scientifiques ne pourraient pas donner leur avis dans le cadre du processus de vérification des faits s'ils exprimaient une opinion que Facebook a qualifié de désinformation. Le renforcement de l'effet de chambre d'écho est le fait que Health Feedback vérifie parfois les affirmations en regardant ce que les scientifiques ont dit sur Twitter ou dans les médias. Van der Linden dit qu'il est important que les gens comprennent que dans le domaine scientifique "il y a de l'incertitude, il y a un débat, et il s'agit d'accumuler des idées au fil du temps et de réviser nos opinions au fur et à mesure." Un débat sain aide à séparer le bon grain de l'ivraie. Jevin West, professeur agrégé à l'école d'information de l'Université de Washington à Seattle, déclare que les plateformes de médias sociaux devraient donc être «extrêmement prudentes lorsqu'il s'agit de débats impliquant la science». Il explique : «L'institution de la science a développé ces normes et comportements pour être auto-correctifs. Donc pour pour entrer dans cette conversation, je pense que c'est problématique. " Les experts qui se sont entretenus avec le BMJ ont souligné la quasi-impossibilité de faire la distinction entre une opinion scientifique minoritaire et une opinion objectivement incorrecte (désinformation). Spiegelhalter dit que cela constituerait un «jugement légaliste difficile sur ce que serait une opinion scientifique raisonnable... J'ai mes propres critères que j'utilise pour décider si je pense que quelque chose est trompeur, mais je trouve cela très difficile à codifier. " D'autres scientifiques craignent que, si cette approche de la désinformation scientifique survit à la pandémie, le débat scientifique pourrait devenir de façon inquiétante soumis à des impératifs commerciaux. Vinay Prasad, professeur agrégé à l'Université de Californie à San Francisco, a déclaré sur le site Web MedPage Today : «Le risque est que la myriade d'acteurs de la biomédecine, des grands aux petits biopharmaceutiques et les entreprises d'appareils, feront part de leurs préoccupations aux entreprises de médias sociaux et de revues. Sur un sujet comme les médicaments anticancéreux, une petite poignée de personnes critiques à l'égard d'une nouvelle approbation de médicament peut être dépassée en nombre de 10 : 1 par les principaux leaders d'opinion qui travaillent avec l'entreprise. »7 Ainsi, la majorité qui parle le plus fort, le plus visiblement et avec le plus grand numéro en ligne, peut être jugé «correct» par le public - et, comme on dit, l'histoire est écrite par les vainqueurs. Les entreprises de médias sociaux expérimentent toujours la nouvelle série de mesures introduites depuis l'année dernière et pourraient adapter leur approche. Van der Linden dit que les discussions qu'il a eues avec Facebook se sont concentrées sur la façon dont la plate-forme pourrait aider à favoriser une appréciation du fonctionnement de la science, «pour diriger réellement les gens vers un contenu qui les éduque sur le processus scientifique, plutôt que d'étiqueter quelque chose comme vrai ou faux.. » Ce débat se joue contre une lutte idéologique plus large, où l'idéal de «vérité» est de plus en plus placé au-dessus d'un «débat sain». Kulldorff dit: «Pour supprimer des choses en général, je pense que c'est une mauvaise idée. Parce que même si quelque chose ne va pas, si vous le supprimez, vous n’avez pas la possibilité d’en discuter. » Par exemple, bien qu'il favorise la vaccination en général, les personnes qui ont des craintes ou des doutes sur les vaccins utilisés ne devraient pas être réduites au silence dans les espaces en ligne, dit-il. «Si nous n’avons pas de débat ouvert au sein de la science, cela aura des conséquences énormes pour la science et la société.» On craint que cette approche ne sape en fin de compte la confiance dans la santé publique. Aux États-Unis, dit West, la confiance dans le gouvernement et les médias diminue. Il explique : «La science est toujours l’une des institutions les plus fiables, mais si vous commencez à baliser et à interrompre la conversation au sein de la science, pour moi, c’est encore pire que la publication réelle de ces articles individuels.» https://bmj.com/coronavirus/usageComment fonctionne la vérification des faits
«Vérité» scientifique
Notes de bas de page