„Fake News": Warnungen über Falschinfos ändern Verhalten

Markierte Tweets sind laut Analyse der University of Alabama in Huntsville weniger glaubwürdig, zuverlässig und interessant und werden so seltener geteilt.

(Symbolfoto)
© iStockphoto

Huntsville – Werden Falschinfos auf Twitter als "Fake News" gekennzeichnet, verändert sich das Nutzerverhalten in sozialen Medien oft. Warnhinweise führen nämlich dazu, dass Nutzer betreffende Tweets als weniger glaubwürdig, zuverlässig, genau, nützlich, relevant und interessant betrachten. Damit sinkt dann auch die Motivation, derartige Meldungen mit einem "Like" zu versehen oder weiter zu teilen, wie eine Studie der University of Alabama in Huntsville (UAH) zeigt.

"Amerika kämpft derzeit nicht nur mit einer Pandemie, sondern auch mit einer Infodemie", so Candice Lanius, Assistant Professor am Communication Arts Department der UAH. Dieser Begriff, der 2020 von der Weltgesundheitsorganisation WHO geprägt wurde, bezeichne unsere einzigartigen gegenwärtigen Umstände sehr gut: "Wir haben ein Überangebot an Information in sozialen und traditionellen Medien. Einige Leute teilen naiv schlechte Informationen. Es gibt aber auch Akteure, die das mit Absicht tun, weil sie ihre eigenen politischen und finanziellen Agenden verfolgen."

Genau wie die Corona-Pandemie sei auch die Infodemie ein ernsthaftes globales Problem. Um dieses zu lösen, gebe es verschiedene Ansätze, wie Lanius erläutert. Oftmals gehe es darum zu versuchen, das Verhalten der User zu verändern. "In den meisten Fällen führt das dann nur dazu, dass diese Leute noch stärker an ihren falschen Überzeugungen festhalten", betont die Forscherin: "In unserer Studie waren wir aber positiv überrascht zu sehen, dass Warnhinweise wirken", so die Wissenschaftlerin.

Corona-Nachrichten im Visier

Für ihre Untersuchung hat die UAH-Expertin gemeinsam mit ihren Co-Autoren William MacKenzie und Ryan Weber vor allem die Corona-Nachrichtenberichterstattung ins Visier genommen. Entsprechende Twitter-Meldungen etwa zu aktuellen Zahlen der Neuinfektionen wurden demnach mit zwei unterschiedlichen Flaggen als Warnhinweise versehen: die erste zeigte an, dass der betreffende Beitrag möglicherweise von einem Bot stammt und die zweite ließ auf Falschinformationen im Inhalt des Postings schließen.

TT-ePaper gratis lesen

Die Zeitung jederzeit digital abrufen, der Gratiszeitraum endet nach 4 Wochen automatisch.

TT ePaper

"Wir haben definitiv gesehen, dass beide Flaggen die Leute skeptischer werden lassen, was fehlerhafte Informationen betrifft", fasst Weber die Ergebnisse zusammen. Das sei auch deutlich geworden, weil betreffende Inhalte in weiterer Folge wesentlich seltener geliked oder geteilt wurden. "Einige scheinen allerdings immuner gegenüber Flaggen zu sein als andere", wie der Forscher anmerkt: "Zum Beispiel haben sie bei den Zusehern von Fox News weniger Wirkung gezeigt." (pte)


Kommentieren


Schlagworte