MOTIVATION
In der angeschlossenen Theoriearbeit zu diesem Projekt habe ich mich aus einem persönlichem Interesse heraus dem Komplex der Trend-Themen “Post-Truth”, “Fake News”, “Filter-Bubbles”, “Social-Bots” uvm. angenähert.
In meiner Recherche machte ich verschiedene historische Entwicklungen im Bereich der Propaganda, Medienbeeinflussung und journalistischer Berichterstattung als Grundbestandteile dieser Begriffe aus. Durch die technologischen Fortschritte und die digitale Echtzeitkommunikation verändern sich nun die Verbreitungsweisen und die Akteure in der Desinformations-Industrie. Ebenso sind die Vorraussetzungen und Barrieren, um Meinungsmanipulation mit gefälschten Nachrichten zu betreiben, kleiner als zuvor. In zwei Case Studies beleuchtete ich aktuelle Fälle der Meinungsmanipulation, vorrangig über soziale Netzwerke, und benannte die genutzten Technologien. Mir wurde klar, dass die genutzten Werkzeuge relativ trivial sind und viele Gesichtspunkte der Beziehung von berichterstattenden Medien und Medienkonsumenten den Manipulatoren die Arbeit erleichtern.
Das Ziel meines künstlerischen Projekts ist es nun einen äußeren Blick auf diese Beziehung zu ermöglichen.
DER DIGITALE RAUM
Um die Funktionsweise meiner Arbeit und die Dynamik zwischen Medien und Medienkonsument besser zu Verstehen machen wir einen kleinen Exkurs zur aktuellen Lage.
Das WWW stellt in seiner eigentlichen Form eine Vielzahl an Meinungen und Informationen zu allen Themen bereit. Überspitzt formuliert gibt es also zu jeder Frage auch jede Antwort.
Dies äußert sich in Nachrichtenportalen jeglicher politischer Richtung, über Meinungsaustausch in sozialen Netzwerken, bis hin zu Lügen und Desinformation in Fake-News-Portalen und Propagandaseiten.
NACHRICHTENMEDIEN <-> KONSUMENTEN
In jenem Raum kommt es nun zu Zusammenstößen.
Beim Aufeinandertreffen von Konsument und Nachrichtenmedium sind beide Akteure allerdings schon mit inneren Wiedersprüchen belegt.
So umgeben wir uns heutzutage größtenteils mit Informationen, die uns in unserer eigenen Meinung bestätigen und geben uns keine Mühe ein umfrangreiches Spektrum an Meinungen zu einem Thema einzuholen. Man könnte sagen, dass Nachrichten im gemeinen Alltag eher als Unterhaltung, als zur Weiterbildung dienen.
Überhöht formuliert findet jeder Nutzer seine persönlich passenden Nachrichten und umgibt sich ausschließlich mit diesen.
Ebenso handeln die Medien unter dem Druck, mit ihren Publikationen Profit zu machen. Auch also auf der publizierende Seite geschieht es, dass Informationen für die aktuelle Leserschaft attraktiver gemacht wird. Die schon in ihrer Informationsniesche sesshaften Konsumenten bekommen nun also noch mehr Infos genau nach ihrem Geschmack.
Dieser Gedanke, mit Nachrichten Profit erwirtschaften zu Müssen ist für mich ein Widerspruch.
Dies führt in vielen Fällen zu einer "Filter Bubble" oder auch "Echo Chamber", die einerseits selbst erzeugt ist, aber ebenso auch von den Medien mitgetragen wird.
Virtuell undurchbrechliche Grenzen entstehen im eigentlich so endlos vielfältigen Raum.
DER BLICK VON AUßEN
Mein dem Web vorgeschalteter Layer soll diese Prozesse dämpfen, errichtete Grenzen verwischen und auf die beschriebene problematische Beziehung einen äußeren Blick ermöglichen.
Zum einen wirke ich der Confirmation Bias, der aktiven Auswahl von Informationen, die die eigene Meinung unterstreichen, entgegen, indem ich verschiedene Nachrichtenmedien einer großen Meinungsbreite miteinander vermische. An Stellen, wo in der einen Zeitung ein Artikel zu einem Thema steht, kann nun eine neuer Artikel einer anderen Zeitung zum gleichen Thema stehen. Dem Endkonsumenten ist nun nicht mehr klar, welcher Artikel von welcher Publikation stammt.
Zum anderen wird ein mehrstündiger Delay in das System eingebaut. Dies soll das Wettrennen nach der ersten Meldung zu einem Ereignis entschleunigen. Die erste Meldung, die “Breaking News” zeichnen sich meiner Meinung nämlich vor allem durch dünne Beweislage und nicht vertrauenswürdige Quellen aus. Zu sehr unterscheiden sie sich in den meisten Fällen von einem Artikel, der Stunden später die wirklich brauchbaren Infos liefert. Nachrichten kommen nun erst nach einer Puffer-Zeit beim Rezipienten an, um etwaige Falschinformationen in der ersten Meldung dort zu belassen.
ALGORITHMUS
Um wirklich aussagekräftige Ergebnisse zu erzielen und der Zielsetzung des Projekts gerecht zu werden müssen relativ umfangreiche Datensätze erlangt und anschließend analysiert werden. Ebenso müssen diese Prozesse komplett maschinell und automatisch erledigt werden, da ein Eingriff den objektiven und installativen Charakter der Installation trüben würde.
Mein Kurator gliedert sich in 4 Unterprogramme auf, welche im folgenden umrissen werden...
SCRAPER
Der Scraper geht minütlich die beobachteten Publikationen ab und legt alle erschienenen Artikel in einer Datenbank, die für die anderen Unterprogramme zugänglich ist, ab. Dabei wird ebenso notiert, in welcher redaktionellen Reihenfolge die Artikel auf der Seite zu Sehen sind.
Die ermittelten Infos für jeden Artikel sind: Datum, Autor, Titel, Text, Keywords, Kurz-Zusammenfassung
MATCHING ENGINE
Dieser Teil ist das Kernmodul der Arbeit, denn er findet mit intelligenten Algorithmen zusammengehörige Artikel der verschiedenen Medien, um sie später in den Websites Auszutauschen.
Mithilfe des TextRank-Algorithmus werden die wichtigsten und aussagekräftigsten Wörter des Artikeltexts extrahiert.
Diese Reihe an Keywords wird dann mit den Keyword-Clustern aller anderen Artikeln verglichen. Um nicht nur einfache Wort-Übereinstimmungen finden zu können, sondern auch Beugungen, Pluralformen oder verwandte Wörter in den Vergleich mit einfließen zu lassen benutze ich die Sorensen-Dice-String-Distance.
Danach werden die Zeitungen neu zusammengesetzt. Das Programm legt eine Datenbank an, in der die neue Zeitung mit Original- und Alternativartikeln abgelegt wird.
TEMPLATING
Das Templating basiert komplett auf Textaustausch-Funktionen und der bestehenden Internetseite der Publikation. Nach Herunterladen der HTML-Dateien, zugehörigen Stylesheets und Skripts wurde die Webseite händisch aufgeräumt, also von interaktiven, tagesabhängigen Inhalten, Werbung, Trackingskripts und nicht benötigter Funktionen bereinigt. Alle auszutauschenden Code-Stellen werden nun mit Text-Tokens ausgetauscht. Ein Füll-Skript befüllt nun das Template aus der Datenbank, welche von der Matching-Engine erzeugt wurde und verlinkt zu den ebenfalls erstellten Artikel-Seiten.
DEVICE DELIVERY
Der Web-Inhalt ist nun fertig. Nun muss die Seite allerdings noch zum Konsumenten gelangen. Idealerweise sollte sie genau dort erreichbar sein, wo sie es sonst auch ist. Nämlich im Handybrowser der eigenen Wahl unter der bekannten Adresse.
Dies wird erreicht, indem ein eigener WLAN-Hotspot aufgesetzt wird. Dieser leitet alle Adressanfragen an einen lokal laufenden Nameserver weiter. Der Nameserver beantwortet alle Anfragen nach Adressen mit den richtigen IPs. Nur bei den acht Adressen der ausgetauschten Nachrichtenseiten leitet der Nameserver auf einen anderen Server weiter, als gewohnt.
Dieser Webserver befindet sich ebenfalls auf dem Raspberry PI, auf dem auch das restliche Projekt installiert ist. Er gibt nun die vom Templating generierten HTML-Seiten aus.
PHYSISCHE PRÄSENTATION
Die physische Präsentation verbindet die eigentlich komplett digitale Arbeit mit dem Narrativ. Der Datenfluss, also die Vorschaltung des Layers vor das ungefilterte Internet wird durch eine Objektifizierung des Projekts durch einen transluszenten Router erreicht.
An den Router angeschlossen ist ein Diagnose-Bildschirm. Dieser ermöglicht einen Blick hinter die Kulissen. Es wird nicht nur der Scraping- und Matching Prozess visualisiert, sondern auch in Echtzeit Anfragen der Nutzer angezeigt. Nun wird es möglich die auf dem eigenen Gerät gezeigte Internetseite mit all ihren Überschriften mit dem Diagnose-Bildschirm zu vergleichen. Hier findet man Informationen zu den neu generierten Seiten.
REFLEXION
Auf den zweiten Blick ist es dem Zuschauer also oft möglich vertauschte Artikel eindeutig zu benennen, obwohl sie am gewohnten Ort und visuell nicht mit dem Original zu verwechseln sind. Die inhaltlichen Unterschiede zu den Themen sind zwar eher subtil, aber trotzdem sichtbar. Schließlich fallen manche Artikel doch aus dem Schema der Publikation, in welche sie nun nahtlos eingebettet sind. Genau in dieser Subtilität findet sich aber nach kurzer Zeit eine Erkenntnis.
Verschiedene Erkenntnisse nach kurzer bis längere Nutzung lassen schnell Schlüsse über den Status Quo der Berichterstattung und auch über unsere Erwartungen an jene gleiche zu.
Mir liegt es jedoch fern hier eine wertende Instanz einzunehmen. Mein Algorithmus oder auch “Bot” versucht lediglich die sonst eher eingefahrene Interaktion von Nachrichten und Nachrichtenkosumenten von außen zu beleuchten. Er stellt keine Lösung für ein Problem dar, sondern soll wenn überhaupt das eigene Verhalten in diesem Kontext hinterfragen.
thanks to digitale klasse @ UDK berlin
thanks to Prof. Joachim Sauter (!!!)
thanks to Prof. Nathalie Bredella, KM Alexander Peterhänsel
if you want to read my full theoretical essay about the history, motivation and current state of electronic fake news distribution
click here -> ba_thesis_final.pdf