https://frosthead.com

Comment de fausses nouvelles brisent votre cerveau

"Le pape François choque le monde et soutient Donald Trump à la présidence." “L'assistant de Clinton, JW McGill, est retrouvé mort.” “Des dizaines de milliers de votes frauduleux de Clinton ont été trouvés dans un entrepôt de l'Ohio.” Ces titres choquants de l'année dernière avaient tous un point commun: ils n'étaient pas vrais. Pas le moins du monde. Chacune d’entre elles a été fabriquée, par malice ou par une tentative d’argent sur des revenus publicitaires, dans le but de tromper le plus grand nombre possible de lecteurs d’Internet involontaires. Ils étaient, en d'autres termes, "fausses nouvelles".

Contenu connexe

  • Combattre les nazis avec de fausses nouvelles
  • La fausse émission de radio britannique qui a contribué à vaincre les nazis
  • Le remède à la propagation de fausses nouvelles? Professeurs d'histoire

Les fausses nouvelles, bien sûr, n’ont rien de nouveau. Dans le passé, il s'agissait de pamphlets créés pour salir les ennemis politiques ou d'histoires sensationnalistes conçues pour «passer à l'acte» à l'ancienne, grâce aux ventes de journaux. Mais la récente vague d'informations fausses générées par notre nouveau paysage médiatique social l'a propulsé comme un problème grave digne d'un débat national et même international.

Le problème, disent-ils, est le médium. Ce qui est logique: les plates-formes de médias sociaux telles que Facebook sont critiquées pour avoir permis la diffusion de ce type d'informations trompeuses ou incorrectes, car elles permettent à tout utilisateur, voire même à un robot automatisé, de publier des articles légitimes qui se propagent ensuite comme une traînée de poudre "et" partage ". Maintenant, Facebook a mis en place de nouveaux outils pour lutter contre les faux articles viraux, tandis que Twitter teste une nouvelle fonctionnalité permettant aux utilisateurs de signaler des informations trompeuses, fausses ou préjudiciables.

Mais une nouvelle étude publiée cette semaine dans la revue Nature Human Behavior montre que les limites du cerveau humain sont également à blâmer. Lorsque les gens sont surchargés de nouvelles informations, ils ont tendance à s’appuyer sur des mécanismes d’adaptation moins optimaux pour distinguer le bien du mal, et finissent par privilégier la popularité par rapport à la qualité, selon l’étude. C’est cette combinaison mortelle de saturation des données et de capacité d’attention réduite qui peut permettre à une fausse nouvelle de se propager aussi efficacement.

"À travers des réseaux tels que Twitter et Facebook, les utilisateurs sont exposés quotidiennement à un grand nombre d'informations transmissibles qui se font concurrence pour réussir", déclare Diego Fregolente Mendes de Oliveira, physicien à la Northwestern University, qui étudie le fonctionnement et le suivi des réseaux de personnes. auteur de l'étude.

En raison des impacts importants que les médias sociaux peuvent avoir sur la vie politique et sur la vie quotidienne, a déclaré Oliveira, la distinction entre les bonnes et les mauvaises informations est devenue "plus importante que jamais dans les réseaux d'information en ligne actuels". Pourtant, même si les enjeux sont plus importants, la dynamique de groupes partageant les mêmes idées, tels que ceux qui se trouvent sur les médias sociaux, peut saper le jugement collectif de ces groupes - rendant les appels au jugement concernant les fausses nouvelles encore plus difficiles à émettre. Comme le dit l’étude, quand on leur donne trop d’informations, les humains deviennent «vulnérables à la manipulation».

En 2016, Oliveira a entrepris d'étudier comment l'information se répand sur les réseaux sociaux, et en particulier comment une "information de qualité médiocre" ou de fausses informations peuvent finir par se transformer en une contagion. Il a conçu un modèle théorique pour prédire comment les fausses informations se propagent sur les réseaux sociaux.

Le modèle n'incluait pas d'utilisateurs humains ni de faux articles. Mais il s’est appuyé sur des données collectées par des observateurs indépendants à propos d’articles démentis (mais néanmoins populaires) sur Facebook et Twitter pour calculer un rapport moyen entre les informations réelles et les informations factices dans des articles signalés aux utilisateurs. Oliveira a utilisé ce ratio pour exécuter un algorithme qu'il a conçu sur le partage d'informations dans un réseau.

La conception de ce modèle était semblable à celle d'une étude précédente dans laquelle Oliveira montrait comment les personnes qui se séparaient dans des réseaux distincts - les bulles sociales de personnes partageant les mêmes idées que l'on a tendance à créer sur Facebook, par exemple - peuvent contribuer à des canulars et à la diffusion de fausses informations. À l’heure actuelle, ces personnes risquent moins d’être exposées à des informations contraires aux messages que leurs amis partageant les mêmes idées partagent, susceptibles d’évincer les fausses nouvelles et de révéler la vérité.

Avec des flux d’information relativement faibles, son algorithme prédit qu’un utilisateur théorique des médias sociaux serait capable de bien faire la distinction entre une information authentique et une information fausse, partageant la plupart du temps des informations authentiques. Cependant, alors que Oliveira et ses co-auteurs modifiaient l’algorithme afin de refléter des flux d’informations de plus en plus importants - l’équivalent du défilement d’un fil Twitter ou Facebook ininterrompu -, l’utilisateur théorique se révéla de moins en moins capable de trier des informations de qualité de mauvaises informations.

Oliveira a constaté qu'en général, la popularité influait davantage sur le partage d'une qualité que d'une personne. À des niveaux plus élevés de flux d'informations, cet effet est devenu plus prononcé, ce qui signifie que les personnes consacreraient théoriquement moins ou pas du tout à évaluer la qualité de l'information avant de décider de la partager. Bientôt, alors qu'ils accordaient de moins en moins d'attention à chaque élément d'information, les gens partageaient de fausses nouvelles à des taux de plus en plus élevés.

Aux taux les plus élevés modélisés, la qualité d’une information n’a aucun effet sur la popularité de cette information. "Nous montrons que la surcharge d'informations et l'attention limitée contribuent à une dégradation du pouvoir discriminant du système", a déclaré Oliveira par courrier électronique.

Bien que le modèle comporte des limites claires, il fournit une interprétation de la manière dont les fausses informations se propagent. "Traditionnellement, on croit que la vérité a un pouvoir inhérent pour surmonter les fausses", déclare Haluk Bingol, ingénieur en informatique à l'université de Boğaziçi en Turquie, qui a longtemps étudié les réseaux en ligne. "De même, le bien l'emporte finalement sur le mal. Les normes sociales sont fondées sur ces hypothèses. Fait intéressant, cela n'a jamais été testé empiriquement."

Bingol, qui n’a pas participé à cette étude, explique que l’étude souligne le fait que la qualité de la qualité de l’information n’est pas toujours gagnante en matière de distribution. Les recherches d'Oliveira correspondent aux conclusions antérieures de Bingol sur le choix de la relation et la quantité d'informations. Dans un article, il a constaté que la recommandation d'un commerçant annonçant un certain article à un client potentiel importait encore plus lorsque le client se voyait proposer plus d'options.

"C’est-à-dire que si vous augmentez artificiellement le nombre de choix, vous pouvez obtenir de meilleurs résultats avec la même" impulsion marketing "", explique Bingol. En d'autres termes, il est beaucoup plus facile de manipuler une personne surchargée d'informations - pour les annonceurs et les pourvoyeurs de fausses informations. "Clairement, ce n'est pas difficile à faire aujourd'hui", ajoute-t-il.

Walter Quattrociocchi, informaticien à l'École des hautes études de l'IMT à Lucques en Italie, est plus sceptique quant au modèle d'Oliveira. "Trop simplifier la dynamique sociale complexe à la base de l'émergence de récits pourrait être trompeur", déclare Quattrociocchi, qui n'a pas participé à cette recherche. Par exemple, le modèle utilisé reposait sur l'hypothèse simplifiée que les utilisateurs de médias sociaux introduisent les nouvelles informations au même rythme et que les utilisateurs commencent tous avec la même durée d'attention.

Bien que l'étude soit intéressante, Quattrociocchi note que d'autres recherches ont montré comment des biais de confirmation et d'autres facteurs dépassant le cadre du modèle d'Oliveira peuvent avoir un impact significatif sur la diffusion de l'information en ligne.

Pour ses recherches futures, Oliveira espère améliorer son modèle avec certains de ces autres faits, notamment en ce qui concerne la relation d'une personne avec le partage d'informations sur la façon dont elle les traite, et la probabilité que les personnes changent d'avis après avoir reçu des informations en ligne qui sont en conflit avec leurs croyances actuelles.

En fin de journée, Oliveira pense que l’arrêt des fausses nouvelles commence par les lecteurs. Il suggère que les gens lisent attentivement ce qu'ils partagent en ligne, évitent de créer des échos en ligne, et évitent de supposer que quelque chose est digne de confiance même s'ils font confiance à la personne qui le partage. "Gardez à l'esprit que nos amis ne sont probablement pas de bons rédacteurs et sont davantage motivés par les émotions et les préjugés que par l'objectivité et la fiabilité", souligne-t-il.

Alors, donnez à cet article une autre lecture, et vérifiez d'où il vient avant de cliquer sur "partager".

Comment de fausses nouvelles brisent votre cerveau