Der Kampf gegen Propaganda-Bots ist ein Wettrüsten für unsere Demokratie. Und wir laufen Gefahr, es zu verlieren. Bots – einfache Computerskripte – wurden ursprünglich dazu entwickelt, Routineaufgaben wie die Organisation von Inhalten oder die Wartung von Netzwerken zu automatisieren und den Menschen Stunden langweiliger Arbeit zu ersparen. Auch Unternehmen und Medienagenturen verwenden Bots, um damit Konten in den sozialen Medien zu betreiben, Nutzer schnell mit Schlagzeilen zu versorgen oder aktuelles Material unter die Leute zu bringen.

Aber Bots können auch dazu verwendet werden, große Mengen falscher Nutzerkonten zu betreiben. Dadurch werden sie zum idealen Instrument, um Menschen zu manipulieren. Bei unseren Forschungen am Computational Propaganda Project untersuchen wir die vielen Arten, auf die politische Bots mithilfe von Automatisierung und großen Datenmengen dazu verwendet wurden, falsche Informationen zu verbreiten und den Diskurs im Netz zu verzerren.

Bots haben sich als eine der besten Methoden erwiesen, in den sozialen Medien extremistische Sichtweisen zu verbreiten. Sie können aber auch in anderen, echten Nutzerkonten solche Ansichten verstärken – durch Likes, Weitergabe, Empfehlungen und Abonnements, genau wie es ein Mensch tun würde. So manipulieren sie die Algorithmen und betonen bestimmte Beiträge, indem sie sie stärker sichtbar machen. Und dies ist nur ein Vorgeschmack auf das, was uns zukünftig erwartet.

Nachdem die US-Wahlen im Jahr 2016 von Russland beeinflusst wurden, gab es eine Welle von Diskussionen darüber, wie man die Politik vor Propaganda schützen könnte. Twitter hat dieses Jahr viele Millionen verdächtige Konten gelöscht, darunter auch solche, die von Bots betrieben wurden. Die Regulierungsbehörden schlagen Bot-Verbote und Transparenzmaßnahmen vor und rufen zu besserer Zusammenarbeit mit den Internet-Plattformen auf.

Die nächste Generation von Bots entwickelt sich rasant. Diese Vertreter ihrer Art werden sich viel mehr wie echte Menschen verhalten. Dies liegt an den Fortschritten bei der Sprachverarbeitung.

Es scheint also, als würden wir in diesem Kampf die Oberhand gewinnen. Und teilweise stimmt das auch. Die Taktiken der Bots haben ihren Überraschungseffekt verloren, und wirklich raffiniert waren sie noch nie. Ihre Stärke lag in ihrer großen Zahl. Die Propagandisten haben ganze Armeen von ihnen dazu eingesetzt, das Internet mit Beiträgen und Antworten zu fluten, um zu versuchen, den echten demokratischen Diskurs in die Knie zu zwingen. Da wir aber technische Gegenmaßnahmen entwickelt haben, die das Verhalten von Bots besser erkennen, ist es leichter geworden, sie auszuschalten. Auch die Menschen sind aufmerksamer geworden und können sie so besser identifizieren. Der durchschnittliche Bot tut nur wenig, um seinen Robotercharakter zu verschleiern, und bereits ein schneller Blick auf seine Schreibmuster oder gar sein Profilbild kann ihn entlarven.

Die nächste Generation von Bots entwickelt sich allerdings rasant. Diese Vertreter ihrer Art werden sich viel mehr wie echte Menschen verhalten. Dies liegt an den Fortschritten bei der Sprachverarbeitung – derselben Technologie, die auch sprachbetriebene Schnittstellen wie Alexa von Amazon, den Google-Assistenten oder Cortana von Microsoft möglich macht.

Zugegeben, diese Konversationsschnittstellen funktionieren immer noch etwas holprig, aber sie werden immer besser und die Vorteile der erfolgreichen Dekodierung der menschlichen Sprache sind gewaltig. Digitale Assistenten sind dabei nur eine Art der Anwendung. Firmen setzen Chatbots auch zur Konversation im Kundendienst ein und Medienhäuser wie CNN verwenden sie, um personalisierte Medieninhalte zu verbreiten.

Solche Chatbots geben offen zu, Automaten zu sein, aber die Propaganda-Bots tun dies nicht. Zukünftig werden sie sich als menschliche Nutzer ausgeben, die in Kommentarbereichen, Gruppen-Chats und Nachrichtenforen online kommunizieren.

Anstatt Propaganda öffentlich und allgemein zu verbreiten, werden sich diese Bots dann direkt an einflussreiche Menschen oder politische Dissidenten wenden.

Entgegen der allgemeinen Ansicht ist dies momentan aber noch nicht der Fall. Die meisten Bots reagieren heute lediglich auf Schlüsselwörter, und zwar mit einer Standardreaktion, die kaum in den Kontext oder die Syntax einer vorhandenen Konversation passt. Die Antworten, die sie geben, sind meist leicht zu erkennen. Aber dies wird immer schwieriger. Einige einfache, vorprogrammierte Bot-Skripte waren in der Vergangenheit bereits in der Lage, Nutzer erfolgreich in die Irre zu führen. Und wenn die Bots lernen, Kontext und Absicht zu verstehen, können sie besser kommunizieren, ohne sich zu erkennen zu geben.

In einigen Jahren könnten Sprach-Bots dann empfängliche Nutzer erkennen und sie in privaten Chat-Kanälen persönlich ansprechen. Sie werden auf eloquente Weise Gespräche führen und die Daten dieser Nutzer analysieren, um ihnen vorgefertigte Propaganda zu liefern. So könnten sie Menschen im Gespräch extremistische Sichtweisen und Argumente nahe bringen.

Anstatt Propaganda öffentlich und allgemein zu verbreiten, werden sich diese Bots dann direkt an einflussreiche Menschen oder politische Dissidenten wenden. Sie werden Individuen mit programmierten Hassreden angreifen, sie mit Spam überschütten oder ihre Konten schließen, indem sie ihre Inhalte als missbräuchlich melden.

Dabei lohnt es sich zu betrachten, wie sich die künstliche Intelligenz, die hinter dieser Art von Bots steht, genau entwickelt. Die Methoden der Technologieunternehmen können auch gut dazu verwendet werden, die Fähigkeiten politischer Bots zu verbessern. Um zu funktionieren, brauchen Systeme zur Spracherkennung enorme Mengen an Daten. Technologiekonzerne wie Google oder Amazon bekommen diese Daten, indem sie ihre Algorithmen zur Sprachverarbeitung über so genannte APIs (Application Programming Interfaces) öffentlich verfügbar machen. Drittanbieter wie beispielsweise Banken, die die Interaktion mit ihren Kunden automatisieren wollen, können Rohdaten wie Audio- oder Textmitschnitte von Telefonaten an diese APIs senden. Die Algorithmen verarbeiten dann diese Aufzeichnungen und produzieren maschinenlesbare Daten, die in der Lage sind, Befehle auszulösen. Im Gegenzug erhalten die Technologiekonzerne, die diese APIs bereitstellen, Zugriff auf große Mengen von Gesprächsbeispielen, mit denen sie ihre maschinellen Lernprozesse und Algorithmen weiter verbessern können.

Indem sie Werkzeuge für automatisierte Konversation bereitstellen, bringen die Technologiekonzerne der Propaganda also unabsichtlich das Sprechen bei.

Zusätzlich dazu stellen fast alle großen Technologiekonzerne Entwicklern ihre quelloffenen Sprachalgorithmen zur Verfügung. Mit diesen können die Entwickler dann neue Anwendungen programmieren – beispielsweise Software für einen sprachgesteuerten Roboter. Und im Zuge dessen, dass die Entwickler die ursprünglichen Algorithmen verbessern und verfeinern, profitieren die Konzerne von deren Feedback. Das Problem dabei ist nun, dass solche Dienste dann für fast alle Interessenten verfügbar sind – darunter auch für die Entwickler politischer Bots. Indem sie Werkzeuge für automatisierte Konversation bereitstellen, bringen die Technologiekonzerne der Propaganda also unabsichtlich das Sprechen bei.

Bots, die die menschliche Sprache verstehen, sind heute immer noch in der Minderheit. Um sie mit hochklassigen Spracherkennungsalgorithmen auszustatten, sind immer noch erhebliche Fachkenntnisse, Rechenleistung und Evaluierungsdaten erforderlich. Aber diese Entwicklung ist nicht mehr außer Reichweite. Seit 2010 haben Regierungen und politische Parteien über eine halbe Milliarde Dollar dafür ausgegeben, die sozialen Medien zu manipulieren. So ist ein professioneller und gut finanzierter Wirtschaftssektor entstanden.

Bevor ein Bot in der Lage sein wird, einen Menschen im persönlichen Gespräch zu täuschen, wird noch einige Zeit vergehen. Wenn sich die Algorithmen aber weiter verbessern, werden sich diese Fähigkeiten entwickeln. Wie alle anderen Innovationen werden sich dann auch diese Techniken der Künstlichen Intelligenz, wenn sie erst einmal entstanden sind, unweigerlich von den begrenzten Anwendungen befreien, für die sie ursprünglich gedacht waren.

Aus dem Englischen von Harald Eckhoff.

(c) MIT Technology Review