Skip to content Skip to footer

Fake Quake = Fake News?

Fake News sind Falsch- und Fehlinformationen, die häufig über elektronische Kanäle (vor allem soziale Medien) verbreitet werden…“. So lautet die Definition von Fake News nach dem Gabler Wirtschaftslexikon. Klar ist uns mittlerweile allen, dass für viele auch ohne die Erfüllung dieser Kriterien schnell die Rede von Fake News ist. Zum Beispiel auch schon, wenn es sich einfach um eine Berichterstattung handelt, die nicht in das eigene Weltbild passt.

Fake News! Sie sind (anscheinend) überall

Fake News haben insbesondere durch Webseiten, die zwar Content zur Verfügung stellen, diesen aber nicht selbst verfassen, viel Aufmerksamkeit erhalten. Dazu zählen u.a. Facebook, Google oder auch Twitter. Bei letzterem ist zudem der zahlreiche Einsatz von Bots, die falsche Meldungen propagieren, negativ aufgefallen. Aber auch etablierte Medienhäuser, ob nun die New York Times oder CNN, müssen sich immer mehr mit dem Vorwurf, „Fake News“ zu streuen, auseinandersetzen. Das Vertrauen in die Medien sinkt und viele Nutzer wissen mittlerweile nicht mehr, welcher Meldung sie überhaupt trauen können.

Besonders schädlich kann da schnell eine falsche Meldung sein, die aus Versehen von einem etablierten Medienhaus veröffentlicht wird. So erging es im jüngsten Beispiel der LA Times. Da es in Kalifornien, aufgrund der geografischen Lage, oft zu Erdbeben kommt, wird hier zur Meldung neuer Warnungen ein Bot eingesetzt. Damit soll gewährleistet werden, dass die Warnungen sofort rausgehen, wenn eine neue Meldung auf der United States Geological Survey (USGS) Seite erscheint.

Doch Social Bots haben ihren technischen Zenit noch nicht unbedingt erreicht und begehen daher noch den ein oder anderen Fehler. Das zeigte sich in diesem Fall, indem die Zeitung einen Tweet absetzte, der auf ein Erdbeben der Stärke 6,8 aufmerksam machte. Die Warnung galt für die Region rund um Santa Barbara. Von den Einwohnern merkte allerdings niemand etwas. Was war geschehen? Nun, das System der USGS hatte die geografischen Daten eines Erdbebens aus dem Jahr 1925 noch einmal aktualisiert. Der Bot der LA Times vernahm die aktualisierte Meldung allerdings als ein neues Ereignis. Daher setzte er einen automatisierten Tweet auf der offiziellen Twitter-Seite ab.

Ich war’s nicht!

Der Tweet wurde natürlich gelöscht und eine Richtigstellung wurde, sowohl als Tweet als auch als Artikel, veröffentlicht. Bereits in der Vergangenheit kam es immer mal wieder zu kleineren falschen Meldungen durch den Bot. Durch die beträchtliche Stärke des Erdbebens aus dem aktuellen Beispiel erhielt diese Meldung allerdings besonders viel Aufmerksamkeit. Denn, wenn sich Nutzer nicht mehr darauf verlassen können, dass die Meldungen eines neutralen Medienunternehmens korrekt sind, dann ist es doch nicht mehr weit davon entfernt, sich der steigenden Meinung anzuschließen und einfach alles als „Fake News“ zu deklarieren. Oder?

Die LA Times will dennoch in Zukunft nicht auf ihren Social Bot verzichten. Und zur schnellen Meldung von (tatsächlichen) Erdbeben ist das auch durchaus sinnvoll. Allerdings zeigt dieses Beispiel einmal mehr, dass im Bereich Künstliche Intelligenz und Chatbots noch einiges geschehen muss, um die Anwendungen einwandfrei in unseren Alltag einbetten zu können. Vor allem, wenn man verhindern will, der subjektiven „Fake News“ Meinung eines Nutzers ein reales Beispiel an die Hand zu geben.

Wenn aus einem Versehen Absicht wird

Daneben bleiben natürlich die Effekte für die Zukunft solcher Chatbots fraglich. Vordergründig sollen die technischen Helferleins sich immer weiterentwickeln, sodass sie in Zukunft einwandfrei funktionieren und den Menschen ihren Alltag erleichtern. Doch Chatbots werden schon heute von vielen für Propaganda und die Verbreitung von Fake News genutzt. Mit einer technischen Weiterentwicklung birgt die Zukunft also, neben ihren vielen potenziellen Vorzügen, auch einige deutliche Gefahren.

Auf welche Art oder Weise könnten sie zur Manipulation unseres Verhaltens oder, wie im Falle von Fake News, von Dritten zur Gewinnmaximierung genutzt werden? Interessant wird das Thema insbesondere, wenn ein Algorithmus mitspielt. Denn, wie wir bereits in der Vergangenheit beobachtet haben, können Algorithmen durch Social Bots ganz einfach manipuliert werden. Als Unternehmen hätte man schon heute die Möglichkeit, tausende von Chatbots zu erstellen, die sich für das eigene Produkt aussprechen. Baut man von diesen genügend, kann man es mit so einer Strategie sogar in die Trending Topics von Twitter schaffen und seine Reichweite damit maximieren. Allerdings spricht bislang – neben einem sehr unseriösen Eindruck – gegen eine solche Methode, dass die Accounts bei so einem Vorgehen schnell gesperrt werden.

Google im Visier

Und während Twitter allen voran mit Chatbots zu kämpfen hat, musste sich Google erst kürzlich mit seinem Algorithmus auseinandersetzen. Der erste Schritt, um sich Wissen anzueignen, geht bei vielen über die Suchmaschine – egal, um welches Thema es sich handelt. Gelbe Seiten adé. Auch Handwerker, Ärzte oder andere Dienstleister werden inzwischen gegoogelt. In den meisten Fällen sogar schon inklusive Bewertungen.

Zumindest hier sollten die Ergebnisse doch neutral bestimmt werden, oder? Sicher, auch hier gibt es Werbung. Aber die wird doch nur auf die eingegebenen Suchbegriffe angepasst, richtig? Mhm..nein, eben nicht. Der Google-Algorithmus sortiert die Ergebnisse nämlich nicht nur nach thematischer Relevanz und Qualität der Ergebnisseiten. In die Berechnung fließen auch das bisherige Such- und Nutzerverhalten des Users mit rein. Und nicht nur das. Laut einer Anklage des EU Kartells soll Google die hauseigenen Systeme wie z.B. Shopping gegenüber den Ergebnissen von Mitbewerbern bevorzugt haben. 2,42 Milliarden Euro Strafe sind nun fällig. Ist die Rechnung erst einmal gezahlt, hat sich der Fall für Google damit erst einmal erledigt. Nur der Nutzer sollte sich in Zukunft vielleicht mehr Gedanken darüber machen, warum er das sieht, was er da sieht.

Bild Credits: von rawpixel.com, under Creative Commons Zero Licence, via pexels.com