Der Hype um Social Bots: Ist er gerechtfertigt?

„Im Moment sind die meisten Bots noch relativ dumm.“

Jörg Strebel vom Start-up BotStop glaubt nicht, dass Wahlentscheidungen hierzulande im großen Stil durch Social Bots beeinflusst werden. Die tatsächlichen Gefahren sieht er woanders.

Vor den Bundestagswahlen waren Bots ein großes Thema. Aber so richtig etwas darunter vorstellen, können sich nur die wenigsten. Erklären Sie uns, was Bots genau sind.

Ein Bot ist ein Stück Software, das im Internet unterwegs ist und dort selbständig Tätigkeiten ausführt. Meistens werden Bots mit Vorgängen in Verbindung gebracht, für die Menschen im richtigen Leben schräg angeschaut werden würden.

Die Programme klicken zum Beispiel automatisch Online-Werbung an. Oder sie bombardieren andere Server mit Netzwerkzugriffen. Diese werden dann so stark beansprucht, dass normale User keinen Zugang mehr dazu bekommen.

Bots können aber auch sinnvolle Sachen machen. In London gibt es zum Beispiel welche, die automatisch Einspruch gegen fälschlich ausgestellte Strafzettel wegen Falschparkens erheben. Sie ersetzen praktisch den Anwalt.

In der öffentlichen Debatte geht es derzeit allerdings meist um Social Bots. Das sind automatisierte und zentral gesteuerte Agenten innerhalb sozialer Netzwerke, die massenhaft Nachrichten absetzen oder weitergeben. Sie treten für gewöhnlich nicht als Einzelexemplare auf, sondern als Botnet, also als Netzwerk von Robotern.

Die Kosten für die Erzeugung von Bots sind niedrig, deshalb lassen sich leicht ganze Botarmeen einsetzen. Seit etwa 2011 werden sie vermehrt in sozialen Netzwerken eingesetzt. Unsere Auswertungen zeigen, dass auf Twitter zwischen 7 bis 15% der User Bots sind.

Was sind die Ziele von Leuten, die Bots losschicken?

Die allermeisten Bots werden momentan zu Werbezwecken genutzt. Das sind dann ganz simple Programme, die zum Beispiel die Aufgabe bekommen, unter bestimmten Hashtags irgendwelche Werbebotschaften zu verbreiten. Wenn der Hashtag trendet, sehen alle, die sich die dazugehörigen Tweets anschauen, die Werbung, die an sich gar nichts mit dem jeweiligen Thema zu tun hat.

Auch Click-Fraud ist weit verbreitet. Dabei klicken Bots so oft auf bestimmte Online-Werbeanzeigen bis das vom Unternehmen dafür bereitgestellte Budget aufgebraucht ist. Das Unternehmen hat dann für die Anzeigen gezahlt, ohne echte Kunden für ihre Produkte gewonnen zu haben.

In den USA sieht man auch etliche Social Bots mit politischen Zielen. In den Monaten vor und während der Präsidentschaftswahl gab es zum Beispiel automatisierte Accounts, die nichts anderes gemacht haben als Twitter nach Tweets mit bestimmten Trump-kritischen Schlagworten zu durchforsten und diese zu retweeten.

Was sind Ihre Beobachtungen kurz nach der Bundestagswahl: Waren solche Aktionen in Deutschland genauso verbreitet?

Zu Trump sind damals wirklich massiv viele Tweets herumgegangen, in Deutschland konnten wir das so nicht beobachten, obwohl die technischen Möglichkeiten hier ja prinzipiell die gleichen sind.

Wir haben relevante Hashtags rund um die Bundestagswahl analysiert und dabei festgestellt, dass die AfD schon ein Aufregerthema war. Hashtags zu AfD-nahen Themen waren tatsächlich gut frequentiert. Aber wenn man genauer hinschaut, waren viele dieser Tweets auch offizielle Ankündigungen der Partei. In denen haben sie dann über ihr Wahlprogramm oder irgendeine Veranstaltung gescrieben. Ich persönlich habe nicht den Eindruck, dass Automatisierung dabei eine besonders große Rolle spielt.

Die Gründer des Start-ups BotStop

Michael Fries und Jörg Strebel von BotStop

Bots haben hierzulande also insgesamt keinen großen gesellschaftlichen Einfluss?

Momentan ist das alles politisch betrachtet noch harmlos, auch wenn die Tweets in den Sozialen Medien teilweise sehr extrem sind. Ich kann mir nicht vorstellen, dass irgendjemand sein Kreuzchen bei der AfD macht, nur weil er Tweets von Bots gesehen hat, die alle in eine bestimmte politische Richtung gehen.

Ich glaube, das ist eher ein verstärkender Kreislauf: Jemand hat sowieso schon eine bestimmte politische Meinung und kriegt dann aufgrund von Algorithmen in Twitter oder Facebook nur solche Tweets zu sehen, die ihn in seiner Meinung weiter bestärken. Das ist ja in der Werbung gang und gäbe, allerdings wirkt das isolierend und damit durchaus verstärkend in der Meinungsbildung.

Aber das heißt nicht, dass Social Bots keine Gefahr sind. Durch die Programme können Diskussionen stark polarisiert werden. Bestimmte Meinungen oder auch Fake News  werden multipliziert und vermehrt weiterverbreitet.

So bilden sich Filterblasen, die dazu führen, dass wir nur noch Inhalte zu sehen bekommen, die unsere Weltsicht bestätigen. Das vielfache automatisierte Weiterverbreiten hat dann wieder Einfluss auf die Auswertungen sozialer Netzwerke, welche News sie hervorheben. Und sie bewirken etwas in uns: wenn wir die gleiche Meldung immer wieder sehen, glauben wir sie eher; vor allem wenn sie von verschiedenen „Personen“ verbreitet wird.

Außerdem könnte es irgendwann dazu kommen, dass wir in den sozialen Netzwerken nur noch mit vorgefertigten Textbausteinen und Meldungen kommunizieren. Wer ein Bot und wer ein echter Mensch ist, erkennen wir dann nicht mehr.

Woran sind Bots denn heutzutage zu erkennen?

Im Moment sind die meisten Bots noch relativ dumm. Technisch betrachtet sind sie simpel, sie basieren auf regelbasierten Algorithmen. Ihnen wurde beigebracht: Wenn das und das passiert, machst du Folgendes. Ich habe mal versucht, mich mit einigen zu unterhalten. Da kommt kaum eine Reaktion.

Einer hat mir zum Beispiel, als ich ihn zum ersten Mal angeschrieben habe, einen Like geschickt, beim zweiten Mal ist er mir automatisch gefolgt. Auf meine Frage, wie es ihm geht, hat er trotzdem nicht geantwortet. Das sind Reaktionen, die ergeben inhaltlich überhaupt keinen Sinn und täuschen Lebendigkeit noch nicht sonderlich gut vor.

Aber wir sehen, dass sich künstliche und sprachliche Intelligenz stetig weiterentwickeln. Das Feld der Social Bots wird in Zukunft stark wachsen. Wenn Bots anfangen, originären Content zu produzieren, ihn zu posten und echte Unterhaltungen führen, wird es gefährlich. Bots werden dann nicht nur wie Menschen sprechen, sondern sich auch so verhalten. Schon jetzt verfügen manche beispielsweise über einen menschlichen Schlafrhythmus.

Das Start-up BotStop hat einen Algorithmus zur Bot-Erkennung entwickelt und berät Unternehmen bei der Auswertung von Bot-Daten.

 

  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.