Maschine, Mensch, Meinung: Neuronale Netze im Journalismus

Artificial Storytelling verändert den Journalismus und auf mittlere Sicht auch die Aufgaben von Media Workern. Maschinen und Algorithmen, die selber lernen, Muster erkennen und allein produzieren, haben schon an einigen Stellen Einzug in Redaktionen, Agenturen und die Produktion gefunden. Das Ganze basiert auf Machine oder Deep Learning und neuronalen Netzen. Die können viel leisten. Andere Bereiche des Journalismus, wie beispielsweise Perspektivwechsel, Erzählen auf mehreren Ebenen, Anspielungen und Humor, können solche mathematischen Verfahren dagegen nicht übernehmen. Wer die Technologien dahinter verstanden hat, weiß, wo diese KI helfen kann und wo die Grenzen liegen.

Die KI-Technologien Machine Learning und Deep Learning basierend auf neuronalen Netzen funktionieren anders als die Tools und Programme, mit denen Media Worker bisher in ihrem Arbeitsalltag so zu tun haben. Und wie verändert sich der Journalismus dadurch? Die Antwort lautet: Prinzipiell überall da, wo es typische Muster gibt – sowohl bei den Inhalten (Daten) als auch bei den Prozessen und Abläufen – werden autonome Systeme und Netze Arbeiten übernehmen.
Das gilt zum Beispiel bei allen Formen der Bilderkennung. Die Suche und Auswahl von passenden Fotos zu Meldungen und Geschichten kann ein funktionierendes neuronales Netz übernehmen, das eben darauf trainiert worden ist. Für den täglichen Nachrichtenjournalismus ist das in viel umfassenderen Dimensionen der Fall, als dagegen bei Reportagen, für die eben speziell Fotos geschossen und produziert werden. Das gleiche gilt auch für Video-Content. Wenn es darum geht, passende Videos zu finden, sind neuronale Netze schneller, genauer und effektiver als menschliche Redakteure. Und auch für die Produktion von eigenem neuen Video-Content können neuronale Netze eingesetzt werden. Gesetzt den Fall, es gibt ausreichend Videomaterial zu einem Thema, welches das Netz auswerten kann, kann die Technologie daraus  einen passenden neuen Videobeitrag erstellen, der die erkannten Muster in den ausgewerteten Daten nutzt, um einen neuen Beitrag zu erstellen. Auf dem Artificial Storytelling Camp der NEXT Conference 2018 gab es genau dafür ein Beispiel. Und zwar ein Video-Statement vom ehemaligen Präsident der USA, Barack Obama. Das Besondere: Der Clip mit dem US-Politiker wurde so gar nicht gefilmt. Produziert hatte das Ganze eine KI, die mit diversen Nahaufnahmen Obamas trainiert wurde und aus diesen Daten ein komplett neues Video produzierte.

Wie funktioniert so etwas? Warum können Maschinen und Algorithmen aus Datenmengen neue Inhalte generieren, bei denen es für uns so schwer oder gar unmöglich ist herauszufinden, dass hier eine Künstliche Intelligenz am Werke war? Wer die technischen Hintergründe kennt, kann das besser verstehen.

Wichtig bei Machine oder Deep Learning ist die Tatsache, dass in diesem Verfahren das richtige Ergebnis für uns Menschen bekannt ist, weil wir die Eingangsdaten kennen, die in die Maschine bzw. das neuronale Netz eingegeben werden. Eingangsdaten können zum Beispiel Zahlen, Objekte oder Wörter sein. Das Netz oder die Maschine „kennt“ das richtige Ergebnis aber nicht, sondern soll es jetzt eben „lernen“. Das Lernen funktioniert dann auf folgende Weise: Nachdem die Netz-Struktur aufgebaut wurde, erhält jedes Neuron ein zufälliges Anfangs-Gewicht. Dann werden die Eingangs-Daten in das Netz gegeben, und jedes Neuron verbindet die Eingangssignale mit einem mathematischen Gewicht und gibt das Ergebnis weiter an die Neuronen der nächsten Schicht. Am letzten und abschließenden Output Layer des Netzes wird schließlich das Gesamt-Ergebnis berechnet. Dieses wird in der Regel erst einmal wenig mit dem bekannten tatsächlichen Ergebnis zu tun haben, da alle Neuronen am Anfang ein zufälliges Gewicht haben. Man kann jedoch die Größe des Fehlers berechnen, und den Anteil, den jedes Neuron an diesem Fehler hatte, und dann das Gewicht jedes Neurons ein kleines bisschen in die Richtung verändern, die den Fehler minimiert. Dann erfolgt der nächste Durchlauf, eine erneute Messung des Fehlers und Anpassung der Gewichte und so weiter. „Learning“ heißt also hier: Ein langsames mathematisch-statistisches Annähern an die geringste Fehlerrate.

Dazu kommen die eingangs erwähnten bekannten „richtigen“ Ergebnisse oder auch Beispiele ins Spiel. Ein Beispiel bedeutet in diesem Fall eine Kombination von echten Input-Output-Datenpaaren. Diese Beispiele werden im Rahmen des Trainings von künstlichen neuronalen Netzen verwendet, um alle Gewichte und eingerechnete Verzerrungen optimal einzustellen, sodass das Netz am Ende des Trainings für alle Input Daten und auch für bisher noch nicht gesehene neue Input-Daten das korrekte Ergebnis berechnen kann.

Dieser Prozess läuft voll automatisch ab. Das ist es, was dann mit „Intelligenz“ bezeichnet wird. Und genau hier liegt eigentlich der Kern des Unterschieds zwischen den allgemein bekannten und auch genutzten Programmen und Technologien, mit denen Media Worker bisher zu tun haben. Klassische Software mit denen Journalisten und Content-Produzenten arbeiten funktioniert eben so: Die Probleme und Fragen werden auf Basis von vorher festgelegten Regeln abgearbeitet. Selbstlernende Machine-Learning-Algorithmen können im Unterschied dazu die besten Regeln für die Lösung bestimmter Aufgaben selber lernen.

Dasselbe Prinzip kann nicht nur wie oben beschrieben auf Videos, sondern genauso gut  auch auf Texte angewendet werden. Wenn ein neuronales Netz entsprechend viele Trainingsdaten (Input) bekommt, kann es darauf aufbauend eigene Texte (Output) erstellen, die den gegeben Trainingsdaten in ihrer Art und Weise entsprechen. Oder anders gesagt: Gib einem Deep-Learning-Algorithmus das digitalisierte Archiv eines Publishers, um den Stil zu lernen und er wird dann auch neue Informationen so verarbeiten können, dass es dann eigenständig Texte erstellt, die dem gelernten Stil (Muster) entsprechen. Das gilt jedoch zunächst einmal nur für einfach und nicht sonderlich komplexe Inhalte. Wetterberichte, Verkehrsmeldungen, Börsenberichte oder kleine Sportberichte sind hierfür Beispiele. Hier werden nur Ergebnisse sozusagen in Text eingebettet und die Texterstellung erfolgt dabei automatisch. Mehr geht nicht und wird auch in absehbarer Zeit nicht möglich sein. Essays oder Reportagen, egal ob in Worten oder Bildern, kann kein noch so tiefes und leistungsfähiges neuronales Netz erstellen.

Wenn es aber um die relativ einfache „Chronistenpflicht“ geht, dann kann diese an Künstliche Intelligenz in Form von Deep-Learning-Algorithmen abgegeben werden. Neben den oben genannten Beispielen ist das auch in der Berichterstattung von Statements, Pressekonferenzen oder Präsentationen möglich. Spracherkennung funktioniert auch über das Lernen von Worten und Mustern durch neuronale Netze. Es ist also durchaus möglich, ein beliebiges Statement maschinell zu erfassen und in ein neuronales Netz einzuspeisen, das dann die Informationen verarbeitet und orientiert an bekannten und gelernten Mustern – wie ist journalistisch eine Meldung aufgebaut –  als neue Meldung ausgibt. Dafür gibt es auch heute schon Beispiele. Die Best Cases für Artificial Storytelling von nextMedia.Hamburg zählen hierfür unter anderem ein von einem neuronalen Netz verfasstes neues Buch zu „Game of Thrones“, einen von einem neuronalen Netz generierten Roman auf oder geschriebene Berichte in Echtzeit, die von der Tencent Software „Dreamwriter“ oder der chinesischen App „Toutiao“ erstellt werden. Das beschriebene Prinzip gilt auch für immer gleiche Prozessabläufe in der Produktion von Inhalten, da ja formalisierte Abläufe auch nichts anderes als Muster sind. So setzt die chinesische Nachrichtenagentur Xinhua für die Produktion von mehr oder weniger einfachen Inhalten auf eine KI mit dem Namen MAGIC, die mithilfe von Deep Learning arbeitet und extrem schnell Beiträge verschiedener Art eigenständig produziert. 

Auch sozusagen am anderen Ende der journalistischen Produktions- und Wertschöpfungskette können neuronale Netze Aufgaben übernehmen, nämlich in der Recherche. Wenn ein selbstlernender Algorithmus erfolgreich auch bestimmte Muster trainiert ist, kann er diese auch selbständig suchen und ausfindig machen, wenn es sie gibt. Journalisten können also sozusagen derartige Algorithmen in Form von Agenten in die Weiten des Netzes schicken mit dem Befehl „Wenn ein Bild von dieser Art auftaucht, dann…“ oder „Wenn ein Ereignis nach dem Muster XY auftaucht, dann…“. Nach dem „dann“ können verschiedene Fortsetzungen folgen von „Melde es“ über „Sammele es und füge es mit anderen passenden Ergebnissen zusammen“ bis hin zu „Schreib schon mal eine erste Zusammenfassung und ein Manuskript dazu“. Spätestens hier muss dann aber schon wieder ein menschlicher Profi ran. Denn bei der inhaltlichen Bewertung des zusammengetragenen Materials und vor allem bei der weiteren Abstraktion der Informationen, dem Schlüsse ziehen und Einordnen und dem gekonnten Formulieren und inszenieren, müssen auch die besten neuronalen Netze passen. Und das wird auch so bleiben. Denn diese Technologien sind darauf trainiert und perfektioniert, eine bestimmte Aufgabe besonders gut und nahezu fehlerfrei zu können. Alle darüber hinaus gehenden Aufgaben, die zum Beruf jedes Media Workers gehören, und vor allem deren kreative Kombination übersteigen bei Weitem die Fähigkeiten von Deep Learning Netzwerken.  

Und es gibt noch eine weitere Schwäche. Je mehr Beispiele ein künstliches neuronales Netz für das Training bekommt und je öfter es diese gesehen hat, desto kleiner wird der Fehler bei den Ergebnissen. Die Gefahr dabei: Wenn ein neuronales Netz während des Trainings alle bekannten Daten sehr oft gesehen hat, kann es dazu kommen, dass das künstliche neuronale Netz diese Daten eher auswendig lernt, statt ein abstraktes Konzept zu lernen. Dieses Problem wird auch als Overfitting bezeichnet. Da neuronale Netze auch hochkomplexe Funktionen abbilden können, besteht die Gefahr, dass sie irgendwann die perfekte Funktion für jeden bekannten Datenpunkt gefunden haben, diese Funktion aber für neue Daten nicht gut funktioniert. Um sicherzustellen, dass ein neuronales Netz von bekannten Beispieldaten abstrahieren und auch korrekte Ergebnisse für bisher nicht gelernte Input-Daten liefern kann, werden die Beispieldaten vor dem Training unterteilt in Trainingsdaten, Testdaten und Blind-Testdaten. Während des Trainings werden dann nur die Trainingsdaten verwendet, und die Fehlerquote wird jeweils sowohl für die Trainingsdaten als auch für die Test-Daten gemessen. Der gemessene Fehler der Test-Daten wird jedoch nicht in das Netz zurück gespeist. Dann wird das neuronale Netz durch Anpassungen aller Variablen so verbessert, dass es die maximale Performance in Bezug auf Trainings- und Test-Daten erreicht. Erst wenn das Netz vermeintlich vollständig trainiert ist, kommen die Blind-Testdaten zum Einsatz. Wenn das künstliche neuronale Netz auch im Blind-Test gut abschneidet, ist die Wahrscheinlichkeit hoch, dass es ein abstraktes Konzept gut gelernt hat. Und dieser Prozess muss von Menschen überwacht werden. Ebenso werden Menschen auch bei allen medialen Inhalten den größten Teil der Arbeit weiter übernehmen. Aber so ein neuronales Netz als Helferlein in der einen oder andere Form, kann diese Arbeit deutlich einfacher machen.

Zum Autor: Professor Doktor Andreas Moring ist Professor für Innovation & Digital Management an der International School of Management ISM in Hamburg. Die Schwerpunkte seiner wissenschaftlichen Arbeit sind Digitale Geschäftsmodelle für Medien und Innovationsmanagement. Vor seiner aktuellen Professur arbeitete er für die Axel Springer AG, Schickler Unternehmensberatung und die Deutsche Druck- und Verlagsgesellschaft. Er wurde für seine journalistische Arbeit und von ihm entwickelte Produkte und Formate in den letzten Jahren mehrfach ausgezeichnet.

KI, Neuronale Netze