Haben sich Social Bots unauffällig zu den neuen Meinungsbeeinflussern unserer Zeit entwickelt?
Chatbots haben ihren Weg zur Menschheit schon seit längerem gefunden, wie nicht zuletzt das Computerprogramm Eliza beweist. Mit der Integrierung der schlauen Gesprächspartner in die sozialen Netzwerke hat sich auch der Begriff Social Bots bei uns manifestiert. Es steht schon lange im Raum, inwieweit uns soziale Medien in unseren Handlungen und Denkweisen manipulieren, im letzten Jahr wurden diese Bedenken infolge von überraschenden Wendungen wie dem Brexit noch lauter, denn Social Bots werden auch immer öfter in einem politischen Kontext genutzt.
Insbesondere Twitter hat sich als beliebtes Netzwerk für die Verbreitung solcher Nachrichten einen (negativen) Namen gemacht. Bereits nachdem die Briten sich Mitte letzten Jahres dazu entschlossen haben, die EU zu verlassen, wurde der Kurznachrichtendienst stark kritisiert. Der Grund hierfür war eine Vielzahl von Chatbots, die Pro Brexit Tweets in die Welt verbreiteten.
Social Bots als Tool der Zensur?
Daneben lassen sich Social Bots mittlerweile auch als ein Werkzeug der Zensur einsetzen. Diskutiert ein Bot mit einem Menschen in einer Kommentarspalte, wird dieser auch nach dem zwanzigsten Kommentar nicht müde seinen Standpunkt zu verteidigen, anders als beim realen Nutzer, dem das Ganze ab irgendeinem Punkt höchstwahrscheinlich auf den Keks gehen wird. Der Mensch gibt sich früher oder später geschlagen und wird dem Bot seinen Willen lassen. Hat sich dieser Ablauf erst einmal in unseren Alltag verfestigt, haben Nutzer eventuell gar keine Motivation mehr sich in den Kommentaren zu positionieren. Damit würde der Nutzer dazu gebracht werden zu verstummen, was einer Zensur gleichkommen würde.
Mehr Transparenz
Um dies zu verhindern oder zumindest dem Ganzen ein wenig entgegenzuwirken, arbeitet das Bündnis 90/Die Grünen an einem Gesetzesentwurf für mehr Transparenz bei Chatbots. Deren Nutzung kann nämlich durchaus auch positiv besetzt sein. Unternehmen haben sie zum Beispiel in Gebrauch um Anfragen schneller und effizienter beantworten zu können. Diese und alle anderen Chatbots sollen in Zukunft mit einer Art Vermerk versehen werden, auf dem darauf hingewiesen wird, dass es sich beim Gesprächspartner um einen Roboter und nicht um einen realen Menschen handelt. Das Problem an dieser Forderung liegt allerdings daran, dass die Chatbots, gegen die diese Initiative eigentlich wirken sollte, sich kaum selbst als Chatbot outen werden. Das Ziel der Betreiber liegt in den meisten Fällen darin, die Bots so realistisch wie möglich zu gestalten, damit eben nicht klar entschieden werden kann, ob es sich um einen Menschen oder Roboter handelt. Dass sich die Macher ohne weitere Anreize selbst preisgeben sollen, scheint erst einmal eher unwahrscheinlich.
Manipulation durch Überwachung entgegenwirken
Um die Manipulation durch Chatbots einzudämmen, stampfen auch schon andere Plattformen aus dem Boden, die sich der Enttarnung von Social Bots angenommen haben. Seiten wie Botswatch analysieren dabei Nutzerverhalten, Trending Topics sowie die dazu verbreitetsten Nachrichten und werten diese aus. Das Ergebnis lässt sich dann im Nachhinein ganz einfach auf der Seite einsehen. Allerdings gestaltet sich die Enttarnung von Chatbots nicht so einfach wie man vielleicht annehmen mag. Sie werden so aufgebaut, dass sie sich möglichst menschenähnlich präsentieren und mit jedem enttarnten gelöschten Account sprießen zehn neue aus dem Boden. Deswegen handhaben viele der sozialen Netzwerke es mittlerweile so, dass sie die Konten von Chatbots nicht mehr löschen, sondern sie in eine Art Paralleluniversum leiten, in dem es nur Chatbots gibt. Dort bleiben sie dann, bis der Entwickler irgendwann merkt, dass seine Seite keinen Traffic erzielt. Doch auch beim Verfahren der Enttarnung sind viele soziale Netzwerke noch sehr zögerlich. Denn wenn man erst einmal die Profile realer Nutzer fälschlicherweise gelöscht werden, dürfte der Aufschrei der Community dementsprechend groß werden.