Zurück zur Übersicht

„So werden Sündenböcke kreiert”

Die Lüge ist vermutlich so alt wie die menschliche Kommunikation, und doch wird es immer schwieriger, Fiktion von Wahrheit zu unterscheiden. Denn das Internet hat die Gesellschaft verändert.
Social-Media-Expertin Ingrid Brodnig spricht im Interview über die Schattenseiten der digitalen Kommunikation und erklärt, warum wir uns so leicht täuschen lassen.

Interview: Kim Kopacka

Die Lüge ist vermutlich so alt wie die menschliche Kommunikation, und doch wird es immer schwieriger, Fiktion von Wahrheit zu unterscheiden. Denn das Internet hat die Gesellschaft verändert.

Warum werden Fake News und Verschwörungsmythen so häufig geglaubt? Und wem dienen sie?

Das Kernproblem ist, dass wir Menschen nicht so neutral sind, wie wir meinen. In der Psychologie spricht man von Confirmation Bias, auf Deutsch: Bestätigungsfehler. Das bedeutet, dass eine Behauptung, die gut in das eigene Weltbild passt, eher unhinterfragt aufgenommen wird.

Falschmeldungen werden daher oft politisch genutzt, um Fans noch mehr auf seine Seite zu bringen, indem man bestätigt, was Menschen fürchten. Das können Feindbilder wie politische Gegnerinnen oder Gegner sein, aber auch ganze gesellschaftliche Gruppen. So werden Sündenböcke kreiert, die von den eigentlichen Problemen ablenken sollen.

Sind Menschen in Krisenzeiten anfälliger für Falschmeldungen und Verschwörungsmythen?

Ja, eindeutig. Krisenzeiten bedeuten eine Form von Kontrollverlust. Manche Menschen finden dann Halt in Verschwörungsmythen, weil diese ihnen das Gefühl geben, die Welt zu verstehen. Sie denken sich: „Ah, Bill Gates steckt dahinter“ oder „In Wirklichkeit ist das ein dunkler Plan, um die Massenüberwachung einzuführen“. Das ist ein Versuch, die Krise zu bewältigen, wenn auch kein besonders hilfreicher.

In der Pandemie kam noch hinzu, dass man durch die Lockdowns sehr viel allein war. Ich glaube, dass Verschwörungsmythen während Corona auch deswegen so groß werden konnten, weil man oft einsam vor dem Computer gesessen ist und da​​durch tiefer in bestimmte Themen hineingetrieben wurde. Bei manchen war das vielleicht die Frage, wie man seinen Garten am besten pflegt, andere wollten wissen, wer hinter der Pandemie steckt.

Ich vermute, dass sich manche Menschen durch fehlende soziale Kontakte, die oft auch ein Korrektiv sind, plötzlich umso tiefer in solche Online-Gruppen begeben und in wilde Theorien hineinsteigern konnten.

„Wut ist eine sehr aktivierende Emotion.“

Wie gefährlich sind Falschinformationen im Netz, und wie sehr kann man damit wichtige Entscheidungen wie etwa Wahlen beeinflussen?

Nicht alle Falschmeldungen manipulieren. Ein konkretes Beispiel sind die US-Wahlen 2016, die von den Politologen Andrew M. Guess, Brendan Nyhan und Jason Reifler eingehend untersucht wurden. Dazu haben sie das Internetverhalten von 2.500 Amerikanerinnen und Amerikanern in den entscheidenden Wochen vor der Wahl ausgewertet und herausgefunden, dass eine oder einer von vier mindestens eine Fake-News-Seite aufgerufen hatte. Das ist eine messbare Minderheit.

Doch auch wenn Falschmeldungen nicht 100 Prozent der Wählerschaft beeinflussen, so können sie doch manche verunsichern, denn sie wirken bei dem Publikum, für das sie geschrieben wurden. Wenn die Desinformation zum Beispiel die politische Gegnerin oder den politischen Gegner betrifft, funktioniert sie nur bei jenen, die dieser Person ohnehin schon skeptisch gegenüberstehen oder keine Meinung haben. Fans der attackierten Person werden sich denken: „Nein, das kann nicht stimmen.“ Trotzdem können Falschmeldungen zu einem Problem werden. Wenn zum Beispiel fünf Prozent der Bevölkerung Falschmeldungen rund um Impfungen glauben, kann damit, in einem System wie unserem, eine Partei ins Parlament gewählt werden, die selbst Impfmythen verbreitet.

Das heißt, selbst wenn der Effekt nicht riesig ist, kann Desinformation die politische Debatte erschweren und die Gräben innerhalb der Gesellschaft vergrößern.

Welche Rolle spielen Algorithmen bei der Verbreitung von Fake News und Verschwörungsmythen?

In der Wissenschaft wird darüber gestritten, ob Algorithmen wirklich so eine große Rolle spielen oder ob eher der Mensch ausschlaggebend ist, durch seine Prädisposition, bestätigt zu werden. Die Frage ist auch, wie bestimmte Algorithmen programmiert wurden. Da können wir nur Vermutungen anstellen, weil die großen Plattformen keine unabhängigen Untersuchungen zulassen. Bei Facebook wissen wir zumindest, dass Interaktion eine große Rolle spielt. Was viele Likes, Kommentare oder Shares bekommt, wird mehr Menschen eingeblendet.

Die Gefahr dabei ist, dass gerade wütend machende Falschmeldungen dazu führen, dass Menschen reagieren, weil Wut eine sehr aktivierende Emotion ist. Wenn der Algorithmus so programmiert ist, dass er Meldungen, die von vielen kommentiert werden, als wichtig ansieht und daher noch mehr Menschen zeigt, dann können Algorithmen wütend machende Inhalte noch verstärken.

Durch den Tod der Ärztin Lisa-Maria Kellermayr, die unzählige Morddrohungen erhalten hatte, ist das Thema Hass im Netz stärker in den öffentlichen Fokus gerückt. Was bringt es Menschen, andere derart zu verletzen?

In vielen Fällen weiß man nur wenig über die Täterinnen und Täter, weil sie auch oft nicht ausgeforscht werden. Ich vermute, dass es verschiedene Motive gibt. So kann es sich um Personen handeln, die einfach furchtbare Zeitgenossen sind und niedere Impulse wie Sadismus online ausleben wollen. Es können aber auch Menschen sein, die in ihrer Weltanschauung extrem geworden sind und Hasskommentare quasi als gerechte Strafe für ihre Opfer ansehen.

In manchen Gruppen heizt sich die Stimmung besonders auf, weil die Mitglieder zum Beispiel glauben, dass die Impfung alle umbringt oder sie wegen geflüchteter Menschen ihren Wohlstand verlieren. Die Gefahr dabei ist, dass man, wenn man sich bedroht fühlt, aggressive oder gehässige Kommentare nicht als Gewalt wahrnimmt, sondern als adäquate Reaktion, als eine Form der Verteidigung.

Und wie können Betroffene sich konkret wehren?

Da gibt es nicht die eine Wunderwaffe, aber ich kann zumindest ein paar Tipps geben. Erstens empfehle ich jeder und jedem, darauf zu achten, online die Privatsphäre zu schützen: Indem man zum Beispiel nicht leicht erkennbar macht, wo man wohnt, und keine Dinge preisgibt, die Leute, die einen anfeinden, besser nicht lesen sollten. Zweitens gibt es hilfreiche Einrichtungen: ZARA hat etwa eine Meldestelle gegen Hass im Netz, wo man von Juristinnen und Juristen beraten wird. Es gibt aber auch die App BanHate des Landes Steiermark, über die man solche Dinge melden kann.

Drittens ist es wichtig, nicht allein zu sein. Denn egal wie selbstsicher man ist, wenn man 100 Mal liest, wie furchtbar man sei, oder dass man sterben soll, kann das einen fertigmachen. Deshalb sollte man sich rasch an Familie, Freundinnen und Freunde oder Bekannte wenden, die einen darin bestätigen können, dass das, was man gerade erlebt, nicht in Ordnung ist.

Und da können wir alle ein Korrektiv sein, indem wir Betroffenen zeigen, dass sie nicht allein sind und wir hinter ihnen stehen.

INGRID BRODNIGist Publizistin und Buchautorin. Sie ist Expertin für Digitalisierung und deren gesellschaftliche Auswirkungen. Sie hält Vorträge und leitet Workshops zu digitalen Themen. In ihrem Buch „Einspruch! Verschwörungsmythen und Fake News kontern – in der Familie, im Freundeskreis und online“ widmet sie sich dem Umgang mit einem brisanten Streitthema unserer Zeit.

#GegenHassimNetz

Die ZARA Beratungsstelle erreichen Sie unter +43 1 9291399

Fotos: Franziska Liehl