Information and Communication Technology Call 2020 - Digital HumanismICT20-028

Emotional Misinformation - The Interplay of Emotion and Misinformation Spreading on Social Media


Emotional Misinformation - The Interplay of Emotion and Misinformation Spreading...
Principal Investigator:
Co-Principal Investigator(s):
Annie Waldherr (University of Vienna)
David Garcia (Complexity Science Hub Vienna)
Status:
Abgeschlossen (01.11.2021 – 31.08.2025)
GrantID:
10.47379/ICT20028
Fördersumme:
€ 399.540

Dieses Projekt untersuchte, wie Emotionen und Gruppenzugehörigkeit Einstellungen und die
Verbreitung von Fehlinformation in sozialen Medien beeinflussen. Emotionen ziehen
Aufmerksamkeit auf sich und erhöhen die Wahrscheinlichkeit, dass Inhalte geteilt werden. Unsere
Einstellungen hängen stark damit zusammen, mit welchen Gruppen wir uns identifizieren. Weil
Emotionen und Gruppenzugehörigkeit in sozialen Medien eine zentrale Rolle spielen, erforschten
wir, wie sie mit dem Teilen und dem Glauben an Fehlinformationen zusammenhängen. Wir
testeten auch, ob psychologische oder algorithmische Interventionen, die bei Emotionen oder
Gruppenidentität ansetzen, hilfreich sein können. Wir führten dafür Online-Experimente durch,
analysierten große Twitter-Datensätze und entwickelten ein Computermodell, das das Teilen von
Nachrichten unter Politikern auf sozialen Medien simuliert.

Unsere Twitter-Analysen zeigten: Wut ist in Diskussionen über politische Nachrichten häufig –
und noch häufiger im Zusammenhang mit fragwürdigen Quellen. Gleichzeitig zeigte sich aber
auch: Nur etwa 5 % der Posts mit Nachrichtenlinks führten zu nicht vertrauenswürdigen Quellen –
und nur ein kleiner Teil der Nutzer:innen war für den Großteil ihrer Weiterverbreitung
verantwortlich. Im Vergleich zu vertrauenswürdigen Nachrichtenquellen hatten Fehlinformationen
nur kleine, aber kausale Effekte auf die Wut in Online-Diskussionen auf Twitter und erhöhte
Retweets, aber nicht Likes oder Kommentare. Allerdings zeigte sich in unseren Experimenten,
dass Emotionen allein Menschen nicht leichtgläubiger machen. Die Teilnehmenden hielten
vielmehr an ihren bestehenden Überzeugungen fest. Wut entstand meist dann, wenn eine
Schlagzeile im Widerspruch zu diesen Überzeugungen stand. Die meisten erkannten falsche
Behauptungen korrekt – und waren wütend, weil sie ihnen widersprachen.
Unsere psychologische Intervention, die die Gruppenidentität ansprach, konnte effektiv
Einstellungen verändern. Wenn wir darauf hinwiesen, dass alternativmedizinische Heilmethoden
wie Homöopathie historisch mit rechtsextremen Bewegungen verknüpft sind, veränderte das
Vertrauen in die alternative, aber nicht in evidenzbasierte Medizin – ein relevantes Ergebnis, da es
hier starke Zusammenhänge mit Impfskepsis gibt.

Schließlich zeigt unsere Analyse des Nachrichtenteilens unter Politikern auf Twitter dieselben
Muster für Nachrichten aus vertrauenswürdigen und wenig vertrauenswürdigen Quellen: Gruppen
(hier Parteien) oder Gruppenmitglieder zu erwähnen, erhöht die Wahrscheinlichkeit, dass ein
Tweet retweetet wird, stark. Auch Wut hat einen verstärkenden Effekt, während Traurigkeit
Retweets verringert. Eine Computersimulation, die auf diesen Ergebnissen basiert, konnte die
Dynamik rund um News auf Twitter sehr realistisch reproduzieren – und erlaubt dadurch in
Zukunft das Testen von algorithmischen Veränderungen.

Im Einklang mit aktuellen Studien sprechen unsere Ergebnisse für einen Strategiewechsel: Nicht
die Reduktion von Fehlinformationen, sondern das Vertrauen in und die Attraktivität von
hochwertigem Journalismus sollten im Fokus stehen. Denn die meisten Menschen sind nicht falsch
informiert, sondern uninformiert und zu skeptisch gegenüber vertrauenswürdigen Inhalten und
gesellschaftlichen Institutionen. Interventionen sollten sich auf jene konzentrieren, die den
Großteil der Fehlinformationen verbreiten, ein breites Publikum erreichen oder die Polarisierung
besonders stark beeinflussen – dazu gehören eine kleine, politisch motivierte, radikale Minderheit
an Social-Media-Nutzer:innen, politische Eliten und Medienakteure. Langfristig lässt sich die
gesellschaftliche Nachfrage nach feindseligen, polarisierenden Fehlinformationen nur durch
strukturelle Reformen verringern – etwa durch faire politische Repräsentation sowie transparente
und vertrauenswürdige Medien, Institutionen und politische Systeme.

 
 
Wissenschaftliche Disziplinen: Social psychology (40%) | Practical computer science (40%) | Communication science (20%)

Wir nutzen Cookies auf unserer Website. Einige von ihnen sind technisch notwendig, während andere uns helfen, diese Website zu verbessern oder zusätzliche Funktionalitäten zur Verfügung zu stellen. Weitere Informationen