Skip to content Skip to footer

Manipulation durch Social Media

Bild via Pixabay under CC0 Licence

Das Brexit Votum ist mittlerweile schon knapp einen Monat her, doch der Schock sitzt bei vielen immer noch tief. Während in London junge Erwachsene auf die Straßen gehen, um für den Verbleib ihrer Stadt in der EU zu protestieren, wurde mit Theresa May bereits die Nachfolge für den zurückgetretenen Premierminister David Cameron gewählt.

Social Media-Beeinflussung des Votums?

Das Ergebnis des Votums schieben viele Brexit-Gegner unter anderem auf den Einfluss der sozialen Medien. Während die ältere Generation hier nicht sehr stark vertreten ist, sind vor allem Millennials als Digital Natives hier sehr aktiv. Beim Referendum selbst zeigte sich eine tiefe Spaltung zwischen dem, was Alt und Jung sich für das Land wünschen. Während die meisten Wähler unter 49 Jahren mit “Remain” (Bleiben) stimmten, befürwortete der Großteil der über 49-Jährigen den Austritt aus der EU – und genau hier könnte die Krux liegen. Die meisten sozialen Netzwerke haben einen Algorithmus hinterlegt, der nach bestimmten Prinzipien die Beiträge herausfiltert, für die wir uns – seiner Logik nach – am meisten interessieren müssten. Im Zuge dessen sahen also viele Briten ihre Social Media Feeds auf Facebook, Twitter und Instagram etc. voller “Bremain”-Posts und gingen davon aus, dass der Großteil auch dafür stimmen würde zu bleiben. Umso schockierender war das letzliche Ergebnis der Abstimmung für sie.

Social Media Algorithmen: Freund oder Feind?

Während sich viele Menschen dem Algorithmus hilflos ausgelifert sehen und dies als Manipulation des Users werten, werfen neue Studienergebnisse ein noch schlechteres Licht auf Social Media, im aktuellsten Fall auf den Kurz-Nachrichtendienst Twitter. Demnach sollen im Vorfeld des Brexit-Referendums mehrere Chatbots sich in automatisch generierten Tweets für den Austritt aus der EU ausgesprochen haben.

140 Zeichen politischer Meinungsbeeinflussung

Inwieweit diese Tweets in ihrer Häufigkeit und Reichweite tatsächlichen Einfluss auf das Votum der Wähler hatten, kann nicht faktisch belegt werden. Es ist dennoch von Manipulation die Rede, vor allem weil Usern nicht ersichtlich gemacht wurde, ob es sich hierbei um einen automatisierten Chatbot, strategische Werbung oder einen anderen privaten User handelte.

Bereits Social Media-Urgestein Facebook musste in den letzten Monaten seinen Algorithmus verteidigen, nachdem ehemalige Mitarbeiter dem Unternehmen vorgeworfen hatten, die Nachrichten konservativer Medien zu unterdrücken. Facebook dementierte diese Vorwürfe zwar, zeigte allerdings in einem Selbstversuch, dass es sehr wohl möglich ist, die Gefühle seiner Nutzer mit gezielten Posts zu steuern. Bei dem Test wurden 680.000 User in zwei Gruppen unterteilt. Die eine Gruppe erhielt nur noch positiv gestimmte Beiträge ihrer Freunde und die andere nur noch negativ konnotierte Posts. Es zeigte sich deutlich, dass Facebook durch solche kleinen Änderungen in der Anzeige von Inhalten Einfluss auf die Gefühlswelt seiner User nehmen kann. Doch zumindest für die nächste Zeit brauchen sich Facebook-Nutzer keine Sorgen zu machen: Der Social Media-Riese hat angekündigt, den Algorithmus soweit anzupassen, dass Beiträge von Familie und Freunden wieder eine stärkere Gewichtung bekommen.