Unheimlich und gefährlich

Nicht alles, was bei Twitter oder Facebook steht, ist von echten Menschen geschrieben. Social Bots verbreiten immer mehr Fake News. Das stellt hohe Anforderungen an die digitale Recherche der Redakteure.

Von Peter Welchering, Medienbüro Welchering, Stuttgart

iurii/Shutterstock.com

Donald Trump hat gezeigt, wie es geht. Mit Fake News, Social Bots und Big-Data-Algorithmen hat der politische Außenseiter einen unerwarteten Wahlerfolg geschafft. Seine Strategie gilt als Blaupause für den Bundestagswahlkampf hierzulande. Politiker befürchten die Manipulation der politischen Willensbildung. Dabei werden Social Bots & Co schon seit längerer Zeit eingesetzt. Doch Journalisten fallen allzu oft auf solche digitalen Manipulationswerkzeuge herein.

Die Redakteure des Spiegel haben es online wie im Print vorgemacht: Da wird schnell noch die Stimme des Volkes gesucht. Also kopiert sich der Redakteur flugs drei Tweets aus dem Kurznachrichtendienst Twitter und zwei Posts von Facebook in den Artikel. Anschließend kann er sich dann in der Redaktion feiern lassen, dass er nicht nur das Kaufpublikum als Prosumer beteiligt, sondern auch noch virtuos mit den sozialen Medien umzugehen weiß. Klingt nach dem alten und bekannten Spiel „Bullshit Bingo“, ist aber gefährlicher. Denn was da als Meinung des Volkes in Zeitschriften, Call-In-Sendungen und Talkshows präsentiert wird, ist nicht selten reine Propaganda.

Nicht selten sind Tweets reine Propaganda

Hinter dem Tweet oder Post steckt dann kein Mensch aus Fleisch und Blut mit seiner Meinung, sondern eine Propaganda- Software namens Social Bot. Donald Trump hat vier Millionen davon in seinem Wahlkampf eingesetzt.

Bereits Anfang des Jahres 2015 hat sein Wahlkampfteam unter Leitung seines Schwiegersohnes Jared Kushner damit begonnen, solche Computerprogramme, die Texte schreiben und Diskussionen in sozialen Netzwerken führen können, einzurichten.

Das Wahlkampfteam von Hillary Clinton hat zwar auch sehr früh auf Wahlkampf in den sozialen Netzen gesetzt. Aber sie haben erst ziemlich spät auf die vielen Propaganda-Bots von Donald Trump reagiert. Politikwissenschaftler halten das für wahlentscheidend. Journalisten zitieren nicht nur viel zu häufig Tweets oder Posts von Bots und stellen die dort geäußerte Meinung als Stimme des Volkes dar. Sie lassen sich auch von massenhaft verbreiteten Tweets bei ihrer Einschätzung der öffentlichen Meinung oder der redaktionellen Gewichtung eines Themas leicht in die Irre führen. Sie berichten dann über eine von ihnen wahrgenommene Diskussion, die nicht von Menschen, sondern von Bots geführt wurde.

„Social Bots sind Computerprogramme, die sinnvolle Texte schreiben und Diskussionen in sozialen Netzwerken führen können“, erläutert der Sprachwissenschaftler Joachim Scharloth. Er hat an der Technischen Universität Dresden einen solchen Propaganda- Bot gebaut, um zu zeigen, wie diese Software funktioniert und wie Regierungen Software-Bots für ihre strategische Kommunikation schon heute einsetzen. „Unser Bot ist eine ziemlich einfach gestrickte Software, die auf Putin- kritische Beiträge reagiert“, berichtet Scharloth.

Die Software analysiert die Art der Kritik und antwortet darauf. „Wenn Putin zum Beispiel vorgeworfen wird, er sei nationalistisch, antworte der Bot, Putin sei patriotisch und diene seinem Volk“, schildert Joachim Scharloth die Funktionsweise. Entwicklungsarbeiten wie die von Joachim Scharloth stehen bei vielen Regierungen dieser Welt und ihren Nachrichtendiensten hoch im Kurs. So hat der russische Auslandsgeheimdienst allein im Jahr 2015 mehr als eine Million US-Dollar in ein Entwicklungsprojekt namens Storm-13 gesteckt.

Software analysiert Kritik und antwortet darauf

 Im Projekt Storm-13 soll Software entwickelt werden, die über die ganze Welt verteilte Propaganda-Bot-Netzwerke steuern kann. Mehrere Millionen Propaganda- Bots sollen die Stimmung in allen gängigen Netzwerken im Sinne der russischen Regierung beeinflussen. Auch die amerikanischen Militärs sind in Sachen Propaganda-Bots äußerst umtriebig. So lässt die Forschungsagentur des Pentagon, die Defense Advanced Research Project Agency, bereits seit mindestens sechs Jahren Propaganda-Bots entwickeln. Das Cyber Command des US-Militärs setzt diese Software auch für gezielte Desinformation und Stimmungsmache im Internet ein.

Bots werden für gezielte Desinformation eingesetzt

Gegenwärtig läuft eine größere Ausschreibung der US-Forschungsagentur für Projekte, um die Bots für sehr anspruchsvolle politische Diskussionen im Netz fit zu machen. „Es wird komplizierter, je mehr Züge so eine Kommunikation hat“, erklärt Joachim Scharloth das Problem.

Direkt auf einen Tweet zu antworten, das können Propaganda-Bots schon heute ziemlich gut. Aber in einer verästelten Diskussion mit vielen unterschiedlichen Argumenten verraten sich die Bots dann doch als Maschinen, weil sie längere Diskussionsverläufe noch nicht überblicken. Auch mit Ironie und metaphernreichen Beiträgen kommen sie noch nicht so gut zurecht.

Doch das soll sich in den nächsten Monaten ändern. In den aktuellen russischen und amerikanischen Projekten lernen die Bots, wie sie besonders gut vorgaukeln können, ein Mensch zu sein. „Sie lernen, privates zu äußern, Katzenbilder zu posten und sich mit anderen Social-Media-Nutzern zu vernetzen“, erläutert Joachim Scharloth die Strategie.

 Die Bots der Zukunft tragen menschliche Züge

Bereits in der Berichterstattung über die Scharmützel in der Ost-Ukraine haben beide Seiten die Meinungsbildung durch Bots sehr stark beeinflusst. Journalisten, die über den „Krieg in der Ost-Ukraine“ berichteten, haben viel zu oft Tweets und Posts als Meinungsäußerung und Einschätzung der Lage von betroffenen Ukrainern zitiert, bei den sich dann später herausstellte, dass die Beiträge von Propaganda-Bots geschrieben und versendet worden waren.

Damit so etwas im Bundestagswahlkampf oder bei der Berichterstattung über Erfahrungen mit neuen Produkten nicht passiert, müssen Journalisten lernen, wie sie erkennen können, ob Tweets oder Posts von Social Bots stammen. Eine erste Einschätzung, ob zum Beispiel hinter einem Twitter-Account Propaganda-Bot steckt, liefert die Webseite „BotorNot“, die von Forschern der Indiana University Bloomington betrieben wird.

 Journalisten dürfen Social-Media-Beiträgen nicht blind vertrauen

Das Team aus Sprachwissenschaftlern und Informatikern wertet dabei das Verhalten aus, das bei einem Twitter-Account festgestellt werden kann. Solche Prüfseiten liefern allerdings nur Einschätzungen, die auf Wahrscheinlichkeitsberechnungen und ihnen zugrunde gelegter Verhaltensmodelle von Bots in sozialen Medien beruhen. Deshalb ist jeder Journalist gut beraten, weitere digitale Recherche zu betreiben. Natürlich gibt das Verhalten eines Accounts auf Twitter oder Facebook schon einen ersten Hinweis.

Setzt ein Account mehrere Dutzend Tweets oder Posts in wenigen Minuten ab, steckt vermutlich kein menschlicher Nutzer dahinter. Auch wenn über einen längeren Zeitraum – etwa von mehreren Monaten – täglich 50 und mehr Beiträge abgesetzt werden, deutet dieses Veröffentlichungsverhalten auf eine Software hin. Weitere Anzeichen für einen Social Bot ist die äußerst schnelle Reaktion auf einen Tweet. So wurden auf Tweets kritischen Inhalts zur Politik des türkischen Präsidenten Erdogan in Sekundenbruchteilen geantwortet. So schnell ist kein Mensch. Da ist dann eine Maschine, respektive eine Software am Werk. Ein weiteres rein quantitatives Anzeichen für einen Social Bot ist die Anzahl von Like oder faves. Je mehr Tweets ein Account favorisiert oder liked, umso wahrscheinlicher ist es, dass eine Software dahintersteckt.

Recherchiert werden sollte ebenfalls, ob die Person, die diesen Account betreibt, ausfindig gemacht werden kann. Nun steckt nicht hinter jedem anonymen oder pseudonymen Account ein Bot. Aber es lohnt schon, zumindest die Profilbeschreibung genauer zu lesen. Denn bei Bots steht dort häufig gar nichts oder es sind unsinnige Angaben zu finden.

Oft lohnt schon ein Blick auf die Profilbeschreibung

Auf jeden Fall sollte jede auf Social-Media-Plattformen geäußerte Meinung überprüft werden, bevor sie als Zitat oder im Rahmen einer „Vox-Pop“-Zusammenstellung zum Beispiel in Zeitschriften erscheint. Die Spiegel-Redakteure sind in der Vergangenheit ziemlich verantwortungslos mit solchen Tweets und Posts in ihren eigenen Beiträgen umgegangen, lernen aber gerade durchaus dazu.


WAS IST EIN BOT?

„Bot“ ist vom englischen Wort „Roboter“ abgeleitet. Als Bots bezeichnet man Computerprogramme, die Aufgaben selbstständig bearbeiten. Sie erhalten zum Programmstart Aufgabenleitlinien und Regeln für die Durchführung. Danach arbeiten sie ohne weiteres menschliches Zutun ihre Aufgaben solange ab, bis der in der Aufgabenleitlinie festgelegte Endpunkt erreicht ist. Die wohl bekanntesten Bots sind die sogenannten „Webcrawler“ oder „Such-Bots“ von Internet-Suchmaschinen.

Sie besuchen nach fest voreingestellten Leitlinien Web-Sites, deren Links ebenfalls vorgegeben sind und werten den Inhalt der Web-Sites über penibel festgelegte Datenfelder aus. Die vermutlich nervigsten Bots sind die sogenannten Spam-Spider, die E-Mail-Adressen für Werbezwecke sammeln. Sogenannte Exploit-Bots suchen auf per Link vorgegebenen Servern nach Sicherheitslücken in der dort installierten Software.


SO ARBEITEN PROPAGANDA-BOTS

Propaganda-Bots haben einen semantischen Teil und einen Analyse-Teil, um Nachrichten, Tweets usw. erkennen zu können. Ihnen wird eine Position mit einer weitgehenden inhaltlichen Beschreibung vorgegeben und dann mischen sie sich aktiv in Diskussionen auf Twitter oder Facebook oder auf Blogs ein und verbreiten die Botschaften, die ihre Herren und Meister gern im Netz hätten. Und sie antworten eben auch auf Posts oder Tweets des Gegners.

Die Bot-Entwickler gehen dabei von typischen Sprachhandlungen der Menschen aus, die sie in einer großen Datenbank gesammelt haben. In dieser Datenbank finden sich sprachliche Muster zu den Propagandaaussagen, die verbreitet werden sollen. Ein sprachliches Muster, das „Bewerten“ repräsentiert, enthält etwa Aussagen wie „ich finde“, „ich meine“, „nach meinem Dafürhalten“. Mit einer Big-Data-Anwendung wird berechnet, was Menschen üblicherweise sagen, wenn sie ein bestimmtes Sprachmuster benutzen. Diese Berechnung wird ergänzt durch die Analyse und Berechnung von Satzmustern, in die Aussagen hineinkopiert werden.

Bei den Bot-Botschaften aus dem Trump-Lager finden sich auffallend oft Redewendungen, wie sie in empirischen Studien dem weißen Mittelstand unterstellt werden, während die Bot-Propaganda aus dem Clinton-Lager sehr stark mit wirtschaftlichem und anderem „Experten“-Vokabular arbeitet. Das Grammatik-Modul sorgt dafür, dass der Satz in sprachlicher Hinsicht stimmig ist.

Jeder Bot imitiert einen einzelnen Social-Media-Nutzer, braucht also eine eigene Internet-Protokoll-Adresse. Die Bot-Kommunikation muss so aussehen, als säße ein Mensch am Rechner. Das funktioniert nur mit Bot- Netzwerken. Solche Bot-Netzwerke werden zur Miete angeboten. Die Preise für gemietete Bot-Netzwerke sind im Laufe des Jahres 2016 erheblich gefallen. 1000 Rechner, auf denen Bots laufen, kosteten vor einem Jahr noch knapp 50 Dollar, jetzt liegt der Preis bei unter 30 Dollar.

2018-01-12T08:52:50+00:00 04. Januar 2018|

impresso