25. Januar 2016 - 19:36 Uhr

Social Bots sind auf dem Vormarsch: Lassen Sie sich täuschen?

Nicht nur sogenannte Mitläufer passen sich an - Psychologen belegen schon längst, dass viele Menschen ihre Ansichten einer breiten Mehrheit anpassen - und das oft unbewusst. Dass manche Menschen also gerne andere Meinungen annehmen, ist im Bereich des Normalen. Aber wie sieht es mit der Meinung von Robotern aus? Was sich wie Science Fiction anhört, ist längst Realität: Diese Roboter sind nämlich auf dem Vormarsch. In sozialen Netzwerken tummeln sich tausende programmierte Nutzer, die nur eines im Sinn haben: Meinung manipulieren, Politik beeinflussen, Stimmungen kippen. Lassen wir uns von Social Bots beeinflussen? Von Julia Froolyks

Social Bots manipulieren - Roboter steht neben einem Mann
Social Bots lassen sich nicht als solche erkennen - und manipulieren unsere Meinung

Dr. Simon Hegelich, Geschäftsführer des Forschungskollegs 'FoKoS' der Universität Siegen ist Politikwissenschaftler. Mit seinem Forscherteam hat er im August 2015 das Projekt 'Social Media Forensics' (SoMeFo) ins Leben gerufen. Das Kooperationsprojekt des Forschungskollegs der Universität Siegen, der Cologne Business School und des GESIS entwickelt Algorithmen zur Identifizierung von Social Bots. In seinem Datenpool befinden sich schon zahlreiche Metadaten von ukrainischen Bots, die seit dem Ukraine-Konflikt im Netz in eine bestimmte Richtung Stimmung machen sollen.

Die Social Bots manipulieren also die öffentliche Meinung. Das gefährliche: Die Bots erkennen Sätze und können auch eigenständig schreiben. Diese Posts sind in durchschnittlich guter Qualität geschrieben – Fehler in Grammatik und Rechtschreibung fallen in sozialen Netzwerken überhaupt nicht als ungewöhnlich auf. Andere Nutzer sozialer Netzwerke können die Bots nicht als unecht identifizieren, zudem steckt ein gewöhnliches Profil hinter den menschlichen Sätzen. Eigentlich steckt hinter tausenden vermeintlichen Nutzern eine kleine Gruppierung, die ihre eigenen Interessen durchbringen will. Das klappt, weil die Meinung einer großen Gruppe auffällt, man sich damit auseinandersetzt und seine eigenen Grundsätze und Gedanken hinterfragt – frei nach dem Motto: "Irgendwas muss doch dran sein, wenn so viele Menschen dieses und jenes denken."

Die Professorin für Kommunikationswissenschaften, Elisabeth Noelle-Neumann, hat schon in den siebziger Jahren eine Theorie zur öffentlichen Meinung formuliert: Sie entwickelte die sogenannte Schweigespirale. Demnach hinge die Bereitschaft vieler Menschen, sich ihrer Meinung öffentlich zu bekennen, von der persönlichen Einschätzung des Meinungsklimas ab. Das bedeutet einfach formuliert, dass Menschen sich einem bestimmten Meinungsklima anpassen können und auch danach entscheiden, wann sie ihre Meinung überhaupt preisgeben.

Da es zu Zeiten von Noelle-Neumanns Forschungsansätzen noch kein frei zugängliches Internet gab, bezog sie sich vor allem auf die Fernsehberichterstattungen. Zahlreiche Meinungsforscher haben in den letzten Jahren unter anderem die Theorie der Schweigespirale auf heutige Online-Kommunikation angewandt. So veröffentlichten die beiden Forscher Peter Michael Bak und Thomas Keßler im 'Journal of Business and Media Psychology' (Heft 2, 2012) eine Studie unter dem Namen 'Mir gefällt's wenn's euch gefällt! Konformitätseffekte bei Facebook'.

Konformität bedeutet die Anpassung an eine vorhandene Meinung, Einstellung oder Verhaltensweisen. So konnten die beiden Forscher in einer Onlinestudie feststellen, "dass ein Bild bei Facebook besonders Intensivnutzern besser gefiel, wenn es bereits durch Likes entsprechend positiv etikettiert wurde".

Simon Hegelich und sein Team forschen noch ganz frisch am Problem der Social Bots, verzeichnen aber schon erste Erfolge: "Wir konnten bisher herausfinden, dass Social Bots mit Troll-Büros kooperieren. Die Verknüpfung von Manpower und Computerpower wird zu ganz neuen Techniken der Manipulation sozialer Medien führen", sagt der 39-Jährige. Der größte Erfolg sei die Sensibilisierung der Öffentlichkeit für das Thema der Social Bots. Aber auch die Entwicklung von Aufspür-Programmen zur Identifizierung der virtuellen Facebook-Nutzer sei vorangetrieben worden. "Wir haben einen Algorithmus entwickelt, der Bots anhand der verwendeten Avatar-Bilder erkennt", sagt Hegelich.

Neben hohen Mengen an Metadaten ist nämlich die Identifizierung der Profilbilder die einzige Möglichkeit, um auf einen Bot zu schließen. Oftmals werden keine Fotos von realen Personen verwendet, sondern Comic-Bilder. Wenn doch eine reale Person benutzt wird, kann schnell herausgefunden werden, dass es sich um ein geklautes Bild handelt. Aber auch hier arbeiten die sogenannten Troll-Büros akribisch an unauffälligen Lösungen, um Algorithmen der Netzwerke und Forscherteams zu umgehen. So werden echte Fotos beispielsweise so stark bearbeitet, dass eine Identifizierung überhaupt nicht mehr möglich ist. Das Bild wird dann als echt eingestuft, der Bot bleibt unentdeckt.

Falscher Ukraine-Tweet kündigt Krieg an

'Putin plant Krieg gegen die Ukraine noch in diesem Monat' - dieser Tweet konnte vom 'SoMeFo'-Team als Bot-Tweet identifiziert werden. "In meinen Ukraine-Daten finden sich Spuren in den Metadaten, die dies belegen", sagt Hegelich und nennt den Grund für die Problematik, solche Bot-Tweets zu identifizieren: "Die Bots in der Ukraine senden die meiste Zeit keine politischen Nachrichten. Dadurch soll Vertrauen aufgebaut werden". Vertrauen gegenüber Algorithmen, die kein auffälliges Spam-Verhalten in eine politische Richtung des Accounts feststellen können – die Identifizierung wird dadurch erschwert.

Generell arbeiten die Menschen hinter den Robotern mit sehr guten und aufwändigen Programmierungen, damit der Schwindel nicht auffällt. Der 'Islamische Staat' selbst betreibt einen großen Aufwand an digitaler Propaganda um mithilfe der Social Bots junge Muslime für die Terrormiliz zu rekrutieren. Die ebenfalls fragwürdige Gruppierung 'Anonymous.Kollektiv' hat in den letzten Monaten nach eigenen Angaben mehrere tausend Twitter-Accounts der 'Daesh' gehackt und gelöscht. Auch die sozialen Netzwerke selbst gehen gegen die unechten Nutzer vor, das bringt laut Hegelich auf Dauer allerdings nicht viel. "In meinen Ukraine-Daten sehe ich, dass Twitter Bots immer wieder zeitweise sperrt, sie aber wieder aktiviert werden", sagt er. Das liegt laut Hegelich daran, dass Twitter sich in einer Krise befinde und ein geringer Zuwachs an Nutzern zu beobachten sei. Das Löschen von Bots würde vermutlich aufdecken, wie schlecht die Nutzer-Zahlen wirklich sind und die Aktien gingen weiter runter.

Wieso sind die Bots gefährlich?

Die Social Bots stellen eine Gefahr dar, wenn soziale Netzwerke als Instrument für Meinungsforschung benutzt werden. "Immer mehr Entscheidungen basieren auf Informationen aus den sozialen Netzwerken. Wenn diese Daten manipuliert sind, können falsche Entscheidungen getroffen werden", sagt Hegelich. Als Beispiel verwendet er die Flüchtlingspolitik. In der Vergangenheit konnte man beobachten, dass die Stimmung in sozialen Netzwerken gegen Flüchtlinge besonders negative Ausmaße angenommen hat. Möglich ist, dass viele Bots die Stimmung in diese Richtung gelenkt haben und zumindest dazu beigetragen haben, das Stimmungsbild dermaßen negativ zu gestalten. Würde die Politik die sozialen Netzwerke als Meinungsspiegel der Bevölkerung nutzen, könne das laut Hegelich verheerende Konsequenzen haben.

Nicht nur die Politik ist Ziel der kriminellen Menschen hinter den Maschinen, auch die Wirtschaft soll beeinflusst werden. So werden zum Beispiel von Firmen Bots eingesetzt um den Wettbewerb mit Meinung zu manipulieren und Konkurrenz-Produkte vom Markt zu verdrängen. Hierzu hatte die Data-Plattform 'Kaggle' in der Vergangenheit schon Wettbewerbe ausgeschrieben mit dem Ziel, in echten Unternehmensdaten Bots aufzuspüren und den Schwindel öffentlich zu machen.

Soziale Netzwerke sind hilflos – trotz Sicherheitsvorkehrungen

In Zeiten sogenannter 'Captcha', die nur echte Menschen lesen können, sollte es doch kein Problem darstellen, das Phänomen Social Bots aus dem Internet zu vertreiben. Das könnte man so unterschreiben, wenn die Maschinen sich selbst programmieren würden. Hinter den Nullen und Einsen stehen immer noch Menschen aus Fleisch und Blut, die das böse Spiel vorantreiben. "Einmal registriert, kann ein Social Bot-Account für bestimmte Vorgänge an Menschen übergeben werde", so Hegelich. Sicherheitsfragen zur Identifizierung werden also wirklich von Menschen beantwortet, danach übernimmt wieder das Bot-Programm.

Die Regierung handelt genau richtig

Neben der Bereitstellung neuer Fördergelder für weitere Forscherteams, kann die Regierung nicht viel tun, um den kriminellen Machenschaften der Social Bot-Programmierer ein Ende zu setzen. Alles andere würde laut Hegelich in einer Zensur enden. "Man sollte sehr vorsichtig sein, politische Maßnahmen zu fordern, die eventuell das Gegenteil von dem erreichen, was man eigentlich will", sagt Hegelich und stellt die Frage: "Wollen wir wirklich, dass ein us-amerikanischer Internetkonzern aufgrund von Algorithmen entscheidet, was im Internet gepostet werden darf?" Nein – das wollen wir definitiv nicht.