Bien qu’il ne s’agisse pas d’un nouveau problème, la propagation de la désinformation tout au long de la pandémie de la maladie à coronavirus 2019 (COVID-19) a explosé sur presque toutes les plateformes de médias sociaux. Récemment, un groupe de chercheurs a analysé les conversations sur les groupes Facebook publics pour explorer la désinformation automatisée sur le port du masque. L’équipe a publié ses conclusions sous la forme d’une lettre de recherche dans le JAMA Médecine Internela revue.
Comment l’étude a été menée
Malgré les dangers connus associés à la propagation de la désinformation en ligne, en particulier lorsqu’il s’agit de COVID-19, peu de recherches ont été menées sur le logiciel qui permet aux comptes contrefaits, ou « bots », d’amplifier la désinformation. En règle générale, ce logiciel permet aux individus de générer un contenu inexact et de partager cette désinformation via les robots.
Afin de comprendre comment les logiciels automatisés sont utilisés pour diffuser des informations erronées, un groupe de scientifiques dirigé par le Dr John W. Ayers de l’Université de Californie à San Diego a analysé les conversations sur les groupes Facebook publics, car Facebook est considéré comme la plate-forme la plus susceptible de la propagation de la désinformation automatisée. Plus précisément, les chercheurs étaient préoccupés par la désinformation qui s’est propagée à la suite de la publication de l’étude danoise sur l’évaluation des masques faciaux pour la protection contre l’infection au COVID-19 (DANMASK-19). DANMASK-19 a été choisi car il s’agissait du cinquième article de recherche le plus partagé de tous les temps en mars 2021.
Dans leur travail, un total de 563 groupes Facebook différents ont été étudiés, dans lesquels un lien vers la publication DANMASK-19 sur le Annales de médecine internationale site Web a été publié et téléchargé. La période d’étude a été limitée aux cinq jours suivant la publication de DANMASK-19, soit entre le 18 novembre 2020 et le 22 novembre 2020, car le plus grand intérêt de l’étude a été généralement identifié comme étant pendant cette période.
La détermination de l’utilisation ou non d’un logiciel automatisé reposait sur l’affichage de liens identiques en succession fermée. L’identification des groupes Facebook les plus ou les moins vulnérables aux publications automatisées de désinformation était basée sur le calcul de la fréquence à laquelle des liens identiques ont été publiés sur des paires de groupes Facebook et le temps qui s’est écoulé entre ces publications pour tous les liens. Les groupes Facebook les plus affectés par l’automatisation avaient une moyenne (ET) de 4,28 (3,02) secondes entre les partages de liens identiques, contre 4,35 (11,71) heures pour ceux qui se sont avérés les moins affectés par l’automatisation.
Quel type de désinformation a été diffusé ?
Un total de 712 messages qui reliaient l’étude DANMASK-19 au cours de la période de cinq jours susmentionnée ont été partagés avec 563 groupes Facebook publics différents. Parmi ceux-ci, 39 %, soit un total de 279 postes, se sont révélés les plus touchés par l’automatisation. Sur ces 279 messages, 17 ont été supprimés et indisponibles pour une analyse plus approfondie.
Les deux principaux types de désinformation qui ont été diffusés dans ces groupes Facebook sur l’étude DANMASK-19 comprenaient des allégations selon lesquelles la conclusion principale de DANMASK-19 avait été déformée ou que des allégations de conspiration avaient été faites à propos de DANMASK-19.
Un exemple dans lequel la conclusion principale de DANMASK-19 a été déformée a affirmé que le port du masque nuit au porteur. À cette fin, les robots automatisés partageraient des légendes comme « Il semble que non seulement le port d’un masque n’offre pas une protection significative contre le SRAS-CoV-2, mais entraîne également une augmentation des infections par d’autres virus respiratoires. » Ces types de réclamations déformées représentaient 19,8 % des messages qui ont été adressés aux groupes les plus touchés par l’automatisation.
Comparativement, certaines des différentes allégations de conspiration partagées par ces bots comprenaient « Les vérificateurs des faits d’entreprise vous mentent ! Tout cela pour servir leur propagande dystopique #Agenda2030 !!’ et « Tous contrôlés par des politiciens, préférant imposer leur comportement dans tous les espaces publics…[These] les scientifiques sont-ils payés par les élites mondiales pour mentir sans vergogne à des milliards de personnes ! Ces allégations complotistes représentaient près de 51 % de tous les messages publiés sur les groupes Facebook les plus touchés par les messages automatisés de désinformation.
Étudier les plats à emporter
Il convient de noter que les entités responsables du partage de ces messages automatisés de désinformation n’ont pas pu être déterminées par la présente étude. De plus, seuls les groupes Facebook publics ont été étudiés ici sur une période de quelques jours.
Les chercheurs de la présente étude recommandent que les entités fédérales adoptent une législation qui pénalise les entités qui utilisent des logiciels automatisés pour partager des informations erronées. En outre, les sociétés de médias sociaux, en particulier Facebook, devraient appliquer leurs règles de publication pour interdire la publication de désinformation automatisée. En plus de ces deux recommandations, les contre-campagnes pour lutter contre les fausses allégations largement répandues sur les réseaux sociaux devraient être abordées publiquement et réfutées par des experts de la santé.
Référence de la revue :