Les législateurs de l'Union européenne ont demandé aux géants de la technologie de continuer à rendre compte des efforts visant à lutter contre la propagation de la désinformation sur les vaccins sur leurs plateformes pendant six mois supplémentaires.

« La poursuite du programme de surveillance est nécessaire car les campagnes de vaccination dans toute l'UE se déroulent à un rythme régulier et croissant, et les mois à venir seront décisifs pour atteindre un niveau élevé de vaccination dans les États membres. Il est essentiel qu'en cette période importante, l'hésitation vaccinale ne soit pas alimentée par une désinformation nocive », écrit la Commission aujourd'hui.

Les géants de la technologie ne disent toujours pas franchement la désinformation sur COVID-19, selon l'UE – TechCrunch

Facebook, Google, Microsoft, TikTok et Twitter sont inscrits pour faire des rapports mensuels en raison de leur participation au code de pratique (non juridiquement contraignant) du bloc sur la désinformation – bien qu'à l'avenir, ils passeront au bi- reporting mensuel.

En publiant le dernier lot de rapports de plate-forme pour avril, la Commission a déclaré que les géants de la technologie ont montré qu'ils étaient incapables de contrôler eux-mêmes les "mensonges dangereux" - tout en continuant à exprimer leur mécontentement quant à la qualité et la granularité des données qui sont (volontairement) fournies par les plateformes via la manière dont elles combattent la désinformation en ligne en général.

"Ces rapports montrent à quel point il est important de pouvoir surveiller efficacement les mesures mises en place par les plateformes pour réduire la désinformation", a déclaré Věra Jourová, vice-présidente de l'UE pour les valeurs et la transparence, dans un communiqué. « Nous avons décidé d'étendre ce programme, car la quantité de mensonges dangereux continue d'inonder notre espace d'information et parce qu'il informera la création du Code de nouvelle génération contre la désinformation. Nous avons besoin d'un programme de suivi solide et d'indicateurs plus clairs pour mesurer l'impact des actions entreprises par les plateformes. Ils ne peuvent tout simplement pas se surveiller seuls. »

Le mois dernier, la Commission a annoncé un plan visant à renforcer le code volontaire, affirmant également qu'elle souhaitait que davantage d'acteurs – en particulier de l'écosystème adtech – s'inscrivent pour aider à démoniser les absurdités nuisibles.

L'initiative du Code de bonnes pratiques est antérieure à la pandémie, ayant débuté en 2018, lorsque les inquiétudes concernant l'impact des « fausses nouvelles » sur les processus démocratiques et le débat public étaient élevées à la suite de scandales majeurs de désinformation politique. Mais la crise de santé publique du COVID-19 a accéléré les inquiétudes concernant le problème des absurdités dangereuses amplifiées en ligne, ce qui le met davantage en évidence pour les législateurs.

Dans l'UE, les législateurs n'envisagent toujours pas de donner une base légale à la réglementation régionale de la désinformation en ligne, préférant continuer avec une approche volontaire - et ce que la Commission qualifie de « co-régulation » -, qui encourage l'action et l'engagement des plateformes vis-à-vis des contenus potentiellement préjudiciables (mais pas illégaux), tels que l'offre d'outils permettant aux utilisateurs de signaler des problèmes et de faire appel des retraits, mais sans la menace de sanctions juridiques directes s'ils ne tiennent pas leurs promesses.

Il disposera également d'un nouveau levier pour augmenter la pression sur les plateformes, sous la forme de la loi sur les services numériques (DSA). Le règlement - qui a été proposé à la fin de l'année dernière - établira des règles sur la façon dont les plates-formes doivent gérer les contenus illégaux. Mais les commissaires ont suggéré que les plateformes qui s'engagent positivement avec le code de désinformation de l'UE sont susceptibles d'être considérées plus favorablement par les régulateurs qui superviseront la conformité aux DSA.

Dans une autre déclaration aujourd'hui, Thierry Breton, commissaire chargé du marché intérieur de l'UE, a suggéré que la combinaison de l'AVD et du code renforcé ouvrirait « un nouveau chapitre dans la lutte contre la désinformation dans l'UE ».

« À cette phase cruciale de la campagne de vaccination, je m'attends à ce que les plateformes intensifient leurs efforts et fournissent le code de bonnes pratiques renforcé dès que possible, conformément à nos directives », a-t-il ajouté.

La désinformation reste un sujet délicat pour les régulateurs, étant donné que la valeur du contenu en ligne peut être très subjective et que tout ordre centralisé de supprimer des informations - aussi stupide ou ridicule que le contenu en question puisse être - risque une accusation de censure.

La suppression de la désinformation liée au COVID-19 est certainement moins controversée, étant donné les risques évidents pour la santé publique (comme les messages anti-vaccination ou la vente d'EPI défectueux). Mais même ici, la Commission semble plus désireuse de promouvoir les mesures favorables à la parole prises par les plateformes – telles que la promotion de messages positifs pour les vaccins et les sources d'information faisant autorité – notant dans son communiqué de presse comment Facebook, par exemple, a lancé des cadres photo de profil de vaccin. pour encourager les gens à se faire vacciner, et que Twitter a introduit des invites apparaissant sur la chronologie des utilisateurs pendant la Semaine mondiale de la vaccination dans 16 pays, et a tenu des conversations sur les vaccins qui ont reçu 5 millions d'impressions.

Dans les rapports d'avril des deux sociétés, il y a également plus de détails sur les déménagements effectués.

Facebook, par exemple, affirme avoir supprimé 47 000 contenus dans l'UE pour violation des politiques de désinformation sur le COVID-19 et les vaccins, ce qui, selon la Commission, est une légère diminution par rapport au mois précédent.

Alors que Twitter a signalé avoir contesté 2 779 comptes, suspendu 260 et supprimé 5 091 éléments de contenu dans le monde sur le sujet de la désinformation COVID-19 au mois d'avril.

Google, quant à lui, a déclaré avoir pris des mesures contre 10 549 URL sur AdSense, ce que la Commission note comme une "augmentation significative" par rapport à mars (+1 378).

Mais cette augmentation est-elle une bonne ou une mauvaise nouvelle ? Une suppression accrue des publicités douteuses COVID-19 pourrait signifier une meilleure application de la part de Google – ou une croissance majeure du problème de désinformation COVID-19 sur son réseau publicitaire.

Le problème persistant pour les régulateurs qui tentent de tracer une ligne floue sur la désinformation en ligne est de savoir comment quantifier l'une des actions de ces géants de la technologie - et vraiment comprendre leur efficacité ou leur impact - sans avoir des exigences de reporting standardisées et un accès complet aux données de la plate-forme.

Pour cela, une réglementation serait nécessaire, et non une auto-déclaration sélective.