Roboter-Journalisten
schreiben Zukunft

Stellen Sie sich vor, Sie schlagen am Sonntag die Zeitung auf und unter dem Wetterbericht steht: „Dieser Bericht wurde von einem Algorithmus verfasst.“ Das ist keine schrille Zukunftsmusik, sondern in den USA bereits Realität – und nur der Anfang einer Entwicklung, in der immer unwichtiger wird, wer Texte schreibt: Mensch oder Maschine. Werden Journalisten also bald von Robotern ersetzt? Was leisten Content-Algorithmen schon heute und welche Auswirkungen könnte das auf den Journalismus haben? Der Versuch einer Einordnung.

Die Aufgabe für die Studenten an der schwedischen Karlstad Universität mutete doch so einfach an. Sie sollten eigentlich nur die Qualität von Sportberichten bewerten, mit Hilfe mehrerer Kriterien zu Inhalt und Sprache. Das Tückische daran: Neben den Artikeln eines „LA Times“-Journalisten erhielten die Studenten auch Berichte, die ein Algorithmus generiert hatte. Das Ergebnis der kleinen Pilotstudie ist so überraschend wie beunruhigend: Die Studenten hielten die künstlichen Berichte für glaubwürdiger als die echten des Journalisten. Eine Studie des Instituts für Kommunikationswissenschaft und Medienforschung an der Ludwig-Maximilians-Universität zeigte, dass die 1024 Teilnehmer einer Online-Befragung Wetterberichte nicht eindeutig Mensch oder Maschine zuordnen konnten. Auch hier siegten die Computertexte, was die Glaubwürdigkeit betraf, über die natürlichen Texte. Immerhin: Beim Lesevergnügen schnitten die Texte der Journalisten besser ab.

{

50 % des Contents einer Tageszeitung könnten heute schon computergeneriert werden.

Saim Alkan

Daten rein, Content raus

Das Prinzip ist einfach: Content-Algorithmen lesen die Informationen, die für einen Text benötigt werden, aus Datenbanken aus und kombinieren sie zu semantisch sinnvollen Phrasen. Diese lesen sich keineswegs, wie man vielleicht annehmen könnte, trocken und leblos. Durch die Koppelung mit emotional belegten Wortgruppen erhalten die Texte eine hohe Authentizität und wirken durchaus natürlich. Die Vorteile von Algorithmen, was Zeit und Geld betrifft, liegen auf der Hand: Denn sie produzieren in Sekundenschnelle extrem viel Content für lächerlich wenig Geld. Saim Alkan ist Geschäftsführer von Aexea, einem der beiden einzigen Unternehmen in Deutschland, die Content-Algorithmen programmieren und verkaufen. Er verspricht: „Unsere Algorithmen könnten schon heute die Hälfte einer Tageszeitung mit qualitativ überzeugenden Texten füllen. In zwei Jahren könnten es schon 70 Prozent sein.“ Und die Fehlerquote? Fehler entstehen Alkan zufolge nur aufgrund nachlässig gepflegter Datenbanken – mit anderen Worten: shit in, shit out.

{

90 Millionen Texte am Tag, elf Sprachen – das kann kein Mensch.

Saim Alkan

Personalisierter Wetterbericht mit Pollenwarnung

Mit der automatisierten und dadurch viel günstigeren Nachrichtenproduktion wächst ein ganz neues Geschäftsfeld: personalisierte Nachrichten, zugeschnitten auf die individuellen Bedürfnisse der Konsumenten. Die können künftig die Ergebnisse der Handball-Kreisliga aufs Smartphone bestellen oder erhalten einen Wetterbericht inklusive Allergiewarnung bei Pollenflug. An der Börse aktive Menschen müssen sich nicht mehr mühsam durch Börsenberichte quälen, um den aktuellen Wert ihrer Aktien zu erfahren. Den bekommen sie dann direkt mitgeteilt – inklusive Interpretation der Trends.

Grenzen der programmierten Textredakteure

Sparen Content-Algorithmen in den Bereichen Sport, Wetter oder Börse schon jetzt bares Geld, erscheint das Verfassen komplexerer Texte durch Computer bislang undenkbar. Selbst kleinere Fachbeiträge würden der Pflege großer Datenbanken bedürfen, wodurch der Aufwand nicht mehr rentabel wäre. An dieser Stelle zeigen sich die Grenzen des Roboter-Journalismus. Unvorstellbar bleibt, dass Ressorts wie Politik, Kultur und Gesellschaft irgendwann von künstlicher Intelligenz dominiert werden. Doch so weit muss es gar nicht kommen, schon vorher dürften die ersten krisengeschüttelten Verlagshäuser Arbeitskräfte einsparen. Saim Alkan behauptet zwar, es sei nicht Ziel der Content-Algorithmen, Journalisten zu ersetzen. Doch die Automatisierung hat zu jeder Zeit ihren Tribut an menschlichen Arbeitskräften gefordert. Warum sollte ausgerechnet der Journalismus davon verschont bleiben? Dass sich Textredakteure Sorgen machen müssen, die heute für algorithmus-prädestinierte Sparten schreiben, scheint wahrscheinlich.

Kooperation zwischen Mensch und Maschine

Man würde der neuen Technologie jedoch nicht gerecht werden, würde man sie allein auf ihre Auswirkungen am Arbeitsmarkt reduzieren. Den Beweis dafür, dass Content-Algorithmen eine wertvolle Ergänzung für den Journalismus sein können, lieferte die „LA Times“ mit ihrem „Quakebot“, einem Algorithmus, der sich aus seismischen Daten speist. Diese bewertet auf der Basis historischer Vergleichswerte hinsichtlich ihres Gefahrenpotenzials. Wackelt die Erde, schickt der „Quakebot“ innerhalb weniger Minuten eine Warnmeldung ab und sorgt so nicht nur für mehr Sicherheit, sondern auch für mehr lukrativen Traffic: Denn die „LA Times“ war am 17. März 2014 die erste Zeitung, die über das schwache Beben berichtete. In weniger als vier Minuten hatte sie die erste Meldung online – und massenhaft Klicks auf ihrer Seite. Die meisten Menschen würden bei einem stärkeren Beben wohl der weiteren Vor-Ort-Berichterstattung durch jene Journalisten folgen, deren Nachrichtenportal die ersten Informationen lieferte.

{

Agenturdepeschen und Abschriften – Texte verlieren schon länger an Originalität. Roboterjournalismus ist da nur eine logische Konsequenz.

Prof. Dr. Vincent Kaufmann, Universität St. Gallen

Gezeichnet: Unbekannter Verfasser

Die kurze Meldung des „Quakebots“ war mit dem korrekten Hinweis versehen, dass ein Algorithmus die Nachricht erstellt hatte. Das Aufsehen, das dieser Vermerk in der Autorenzeile hervorrief, ist bemerkenswert angesichts einer seit Jahren immer schwächer werdenden Bedeutung der Autorenschaft im Journalismus. Prof. Dr. Vincent Kaufmann sieht in Content Algorithmen deshalb die logische Konsequenz einer seit langem voranschreitenden Entwicklung: Meldungen und Depeschen werden aus Zeit- und Kostengründen umgeschrieben, Stories nicht mehr selbst recherchiert, sondern aufgegriffen. Eine besorgniserregende Entwicklung, denn Zeitungen verlieren dadurch charakteristische Merkmale und letztlich auch ihre Identität, die sie doch für den Leser erst lesenswert machen.

Erlebniswelt Text – da war noch kein Roboter vor Ort

Den Berliner Journalisten Julian Maitra beschäftigen vor allem die alltäglichen Veränderungen durch die Text-Roboter. Im Rahmen seiner Promotion stellt er sich die Frage, was es eigentlich bedeutet, wenn Roboter zu Erzählern menschlicher Geschichten werden. Er ist sich sicher, dass überall da, wo persönliche Erfahrungen und Gefühle eine Rolle spielen, echte Journalisten unabdingbar bleiben. Nur schwer kann er sich einen Reisebericht vorstellen, den ein Roboterjournalist verfasst hat. Denn selbst wenn Gefühle perfekt mit Fakten und Erlebnissen kombiniert werden, bleibt – bei korrektem Autorenhinweis – das Gefühl, eine konstruierte Gefühlswelt zu lesen. Dass dafür jemand Geld ausgeben will, kann Maitra sich nicht vorstellen. Aber vielleicht gilt ja der umgekehrte Fall, und die Menschen entwickeln in einer von Content-Algorithmen bestimmten Nachrichtenwelt wieder Wertschätzung für natürliche Texte. Ach, wenn sie dafür dann auch noch mehr Geld ausgeben würden als für Robotertexte – der Gedanke mag romantisch sein, aber doch zutiefst menschlich.

Saiman Alkan, Geschäftsführer von aexea

A shallow magnitude 4.7 earthquake was reported Monday morning five miles from Westwood, California, according to the U.S. Geological Survey. The temblor occurred at 6:25 a.m. Pacific time at a depth of 5.0 miles. According to the USGS, the epicenter was six miles from Beverly Hills, California, seven miles from Universal City, California, seven miles from Santa Monica, California and 348 miles from Sacramento, California. In the past ten days, there have been no earthquakes magnitude 3.0 and greater centered nearby.

This information comes from the USGS Earthquake Notification Service and this post was created by an algorithm written by the author.

Einen Ich-Autor kann keine Maschine ersetzen.

Julian Maitra, Journalist, forscht zusammen mit Prof. Dr. Vincent Kaufmann am Institut für Medien- und Kommunikationsmanagement der Universität St. Gallen

Pin It on Pinterest

Share This
Lust beim kommenden Grundkurs Online
dabei zu sein?

Lust beim kommenden Grundkurs Online

dabei zu sein?

Dann schau hier vorbei:

Infos und Anmeldung

You have Successfully Subscribed!