Après que Donald Trump a été élu, en 2016, la désinformation - et son cousin plus toxique, la désinformation - se sent comme une urgence sociale et politique de plus en plus urgente.Les préoccupations concernant les trolls russes se mêlent des élections américaines ont rapidement été rejoints par des canuètes et des théories du complot impliquant Covid-19.Même ceux qui pourraient s'entendre sur la façon de définir une mauvaise et une désinformation, ont cependant débattu de ce qu'il faut faire sur les informations elle-même: Facebook et Twitter devraient-ils supprimer les «fausses nouvelles» et la désinformation, en particulier sur quelque chose d'aussi critique qu'une pandémie?Devraient-ils «déplaçant» des répartiteurs de désinfo répétés tels que Trump et ses semblables, afin de ne pas infecter les autres avec leurs dangereuses illusions?Les réglementations fédérales devraient-elles exiger que les plateformes prennent de telles mesures?
Après être tombé sous pression, à la fois du grand public et du président Biden et des membres du Congrès, de Facebook et de Twitter - et, dans une moindre mesure, YouTube - a déclenché activement un tel contenu.Ils ont commencé par interdire les récits de personnes comme Trump et Alex Jones, et ont ensuite commencé à bloquer ou à «rang en aval.Est-ce la meilleure façon de gérer le problème de la désinformation?Certains soutiennent que c'est le cas, et que «déplacer» des gens comme Trump - ou même bloquer des plates-formes entières, telles que le clone Twitter de droite Parler - travaille, dans le sens où cela apaise les désinformateurs en série et élimine le matériel trompeur.Mais tout le monde n'est pas d'accord.
La Royal Society, une organisation scientifique basée au Royaume-Uni, a récemment publié un rapport sur l'environnement d'information en ligne dans lequel il stipule que «censurer ou supprimer un contenu inexact, trompeur et faux, qu'il soit partagé sans le savoiret peut saper le processus scientifique et la confiance du public.»Frank Kelly, professeur à l'Université de Cambridge et président du rapport, a écrit que la nature de la science comprend l'incertitude, surtout lorsqu'il essaie de faire face à une crise médicale sans précédent comme la pandémie.«Au début de la pandémie, la science était trop souvent peinte comme absolue et en quelque sorte à ne pas faire confiance lorsqu'elle se corrige», a écrit Kelly, «mais que la poussée et le test de la sagesse reçue font partie intégrante de l'avancement de la science et de la société."
Écoutez: la Russie, l'Ukraine et les lignes de front de l'information Warfare
Au début de l'année dernière, Facebook et d'autres plateformes sociales ont déclaré qu'ils supprimeraient tout contenu qui suggérait le virus qui provoque Covid-19 provenant d'un laboratoire, car cela a été jugé comme une désinformation nuisible.Plus tard, cependant, un certain nombre de scientifiques réputés ont déclaré que la possibilité ne pouvait pas être exclue.Facebook et d'autres plateformes ont été contraints d'inverser leurs politiques initiales. Blocking or removing content that is outside the scientific consensus may seem like a wise strategy, but it can “hamper the scientific process and force genuinely malicious content underground," Kelly wrote, in a blog post published in conjunction with the Royal Society report.
Le rapport note que, bien que la désinformation soit courante, «l'étendue de son impact est discutable." After surveying the British public, the Royal Society concludes that “the vast majority of respondents believe the covid-19 vaccines are safe, that human activity is responsible for climate change, and that 5G technology is not harmful." In addition, the report states that the existence of echo chambers “is less widespread than may be commonly assumed, and there is little evidence to support the filter bubble hypothesis (where algorithms cause people to only encounter information that reinforces their own beliefs)."
What should platforms like Facebook do instead of removing misinformation? The report suggests that a more effective approach is to allow it to remain on social platforms with “mitigations to manage its impact," including demonetizing the content (by disabling ads, for instance) or reducing distribution by preventing misleading content from being recommended by algorithms.Le rapport suggère également que l'ajout d'étiquettes de vérification des faits pourrait être utile, quelque chose que Facebook et Twitter ont mis en œuvre, bien qu'il y ait encore un débat dans les cercles de recherche sur la question de savoir si les vérifications des faits peuvent effectivement empêcher les gens de croire la désinformation qu'ils trouvent sur les réseaux sociaux.
Voici plus de désinformation:
Autres histoires notables:
ICYMI: Omicron, Faux dichotomies et la «nouvelle normale»
Mathew Ingram is CJR’s chief digital writer. Previously, he was a senior writer with Fortune magazine. He has written about the intersection between media and technology since the earliest days of the commercial internet. His writing has been published in the Washington Post and the Financial Times as well as by Reuters and Bloomberg.