Fake News in Großbritannien

“Es hat eine echte Polarisierung stattgefunden.”

Martin Robbins vom britischen Startup Factmata sprach mit uns über typische Fake News-Geschichten in Großbritannien sowie über die Grenzen menschlicher Fact-Checker.

Fake News? Eine Frau in London starrt irritiert auf ihr Handy.

In Deutschland drehen sich Falsch- und Desinformationen oft um Einwanderer und Flüchtlingskriminalität. Welche Themen kommen in Großbritannien besonders häufig vor?

Nach wie vor ist das wichtigste politische Thema bei uns der Brexit. Viele falsche Inhalte drehen sich darum. Aber auch Übertreibungen von linker oder rechter Seite sowie Angriffe aus Teilen der Bevölkerung auf Mainstream-Medien und große Institutionen beobachten wir häufig. Es hat eine echte Polarisierung stattgefunden.

Ganz allgemein betrachtet haben wir es oft mit extremer Einseitigkeit, Hate Speech, komplett erfundenen Geschichten sowie Fake News-artigen Spams zu tun. Eines der gängigsten Szenarien ist, dass jemand schreibt: „Oh, da gab es einen Protest und die BBC verschweigt uns das!“ Und das, obwohl die BBC in fast allen dieser Fälle durchaus darüber berichtet hat.

Solche Dinge passieren übrigens gerade auch auf lokaler Ebene. Wenn wir von Fake News sprechen, denken wir oft an diese großen Stories im Zuge der Trump-Wahl, des Brexits oder der Flüchtlingskrise in Deutschland. Aber das ist nur das Zeug, das nationale Aufmerksamkeit bekommt. Auf lokaler Ebene haben wir es mit einer anhaltenden Flut an Unsinn und erfundenen Geschichten zu tun, die in den sozialen Netzwerken großen Anklang finden.

Viele Städte und Gemeinden haben Facebookgruppen. Wir beobachten immer wieder, dass User darin Gerüchte sowie Klatsch und Tratsch über Ereignisse teilen, die angeblich gerade bei ihnen im Ort passieren. In Wirklichkeit haben diese Dinge aber nie stattgefunden!

In einer dieser Gruppen ging zum Beispiel das Gerücht um, das Rathaus solle abgerissen und in Wohnungen umgewandelt werden. Die Geschichte war komplett erfunden, aber die User haben darauf reagiert und irgendwann geisterte dieses Gerücht durch die ganze Stadt.

Wie steht ihr bei Factmata zum Begriff ‚Fake News‘?

Wie viele andere sind auch wir zu dem Schluss gekommen, dass ‘Fake News’ ein ziemlich vager Begriff ist. Wir finden es hilfreicher, unseren Fokus auf Teilbereiche der Thematik zu lenken.

Bei Factmata beschäftigen wir uns dehalb mit den Bereichen „Glaubwürdigkeit“ und “malicious content”. Dadurch, dass man das Problem auf seine einzelnen Komponenten runterbricht, wird es einfacher, eine Definition zu finden.

Schauen wir uns das Konzept der Glaubwürdigkeit an: Es gibt viele gute Signale für die Glaubwürdigkeit von Online-Inhalten. Wir können uns zum Beispiel den Schreibstil, Metadaten oder die Code-Komplexität auf einer Webseite anschauen. Die Frage, wer wessen Inhalte teilt, ist ebenfalls aussagekräftig.

Werden menschliche Fact-Checker überflüssig?

Das Grundproblem menschlicher Fact-Checker ist die Frage der Größenordnung. Initiativen wie die von Full Fact sind ein fantastischer Erfolg. Die Organisation hat es vor kurzem geschafft, 25 000 Artikel auf ihre Glaubwürdigkeit zu überprüfen.

Aber das Projekt war abhängig von 90 Kommentatoren, die komplexen Leitfäden folgen mussten, um das zu erreichen. In Anbetracht von Millionen von Artikeln, die Tag für Tag online gestellt werden, sind menschliche Fact-Checker machtlos.

Unser Ansatz ist deshalb ein anderer: Unsere Klassifizierungen erreichen vieleicht nicht die gleiche Qualität wie die von Full Fact oder der Credibility Coalition, aber dafür haben wir die Möglichkeit, Millionen von Artikeln gleichzeitig zu überprüfen. Wir hoffen, mit Factmata eine noch nie dagewesene Größenordnung erreichen zu können.

Was denkst du über Machine Learning im Fact-Checking-Bereich?

Automatisiertes Fact-Checking funktioniert ziemlich gut bei klar begrenzten Themenbereichen, und zwar dann, wenn man es mit einem speziellen Thema zu tun hat, zu dem immer wieder falsche Behauptungen auftauchen. Dann kann man themenspezifische Fakten in einer Datenbank speichern und neu aufkommende Behauptungen damit abgleichen.

Bei Nachrichten, die ja per Definition immer neu sind, funktioniert dieses Vorgehen in aller Regel jedoch nicht. Wenn wir heute von Enthüllungen aus dem Inneren der Trump-Verwaltung erfahren, es dazu aber keine in der Vergangenenheit zusammengestellte Faktendatenbank gibt, kann ich keinen automatisierten Faktencheck durchführen.

Um darüber hinauszugehen, müssen wir das, was wir im Fact-Checking-Bereich tun, umdrehen und uns mehr auf das Konzept der Glaubwürdigkeit konzentrieren. Es läuft daraus hinaus, zu denken wie ein Journalist.

Wenn sich ein Journalist einen Artikel anschaut, dann überprüft er nicht jeden einzelnen Fakt. Stattdessen achten Journalisten – oft sogar unbewusst – auf Dinge wie den Sprachstil oder die Emotionalität eines Texts. Das Ergebnis stimmt nicht immer zu 100 Prozent, aber dieses Urteil stimmt doch in sehr vielen Fällen. Genau das versuchen wir gerade nachzubilden und da sehen wir auch die Zukunft von Machine Learning in unserem Bereich.

Wir können nicht zu Schiedsrichtern über die Wahrheit werden, aber wir können basierend auf Erkenntnissen dazu, wie glaubwürdige und wie unglaubwürdige Inhalte aussehen, einen großen Beitrag zur Echtheits-Beurteilung leisten.

Die Ergebnisse von Machine Learning-Prozessen hängen stark von den vorher gesammelten Daten ab. Welche Folgen hat es, wenn Falsch- und Desinformationen meist aus ganz bestimmten politischen Lagern kommen?

Ich denke, auf diese Frage gibt es eine Reihe von Antworten. Erst einmal ist es so, dass extreme Fake News vielleicht tatsächlich selten von linker Seite kommen, aber sie existieren und es lassen sich auch genug Beispiele dafür finden.

In Großbritannien gibt es extrem parteiische linksextremistische Blogs, in den USA zirkulieren viele fragwürdige Inhalte rund um die Bernie Sanders-Kampagne und Hilary Clinton.

Der zweite Aspekt führt uns wieder zur Frage, wie wir Fake News definieren. Natürlich sind die Ergebnisse verzerrt, wenn wir uns nur auf Webseiten konzentrieren, die mit Gewinn-Absicht aufgesetzt wurden.

Wenn wir aber Inhalte einbeziehen, die lediglich sehr, sehr einseitig sind, unter Umständen auch bis zu dem Punkt, an dem sie unfair oder irreführend werden, haben wir eine größere Auswahl. Denn das kommt sowohl auf der politisch linken als auch auf der politisch rechten Seite vor.

Und drittens sollten wir nicht in die Falle tappen, nach dem “view of nowhere” zu streben, also der Idee, dass die Position eines unparteiischen Menschen genau zwischen links und rechts liegen muss. Das geht einfach an der Realität vorbei.

Die Ansichten von Linken und Rechten sind nicht immer gleich „richtig“. Wenn wir feststellen, dass mehr Fake News oder irreführende Inhalte in einem politischen Lager im Umlauf sind als in einem anderen, dann ist das eine Reflektion der Realität und bedeutet nicht, dass wir die Ergebnisse in die andere Richtung beeinflussen müssen.

Lesen Sie auch: Factmata – ein soziales Netzwerk, das auf Glaubwürdigkeit setzt.

Leave a Reply

Required fields are marked*