Publishing-Automatisierung: Eine Chance für profitablen Online-Journalismus

Die digitale Welt beeinflusst den Medienkonsum der Nutzer fortwährend und nachhaltig. Doch die zunehmende Datenmenge stellt auch neue Anforderungen an die Erstellung und Distribution von Inhalten. Unterstützung der Redakteure, Producer und Digital Marketeers durch intelligente Technologie wird zum elementaren Wettbewerbsfaktor. Nur durch die Automatisierung von Prozessen wird es zukünftig möglich sein, kostengünstig individualisierte und vermarktungsrelevante Angebote zu produzieren und zu vertreiben.

Traditionelle und neue Geschäftsmodelle

Die traditionellen Medien-Unternehmen sind in Jahrhunderten zu einer Industrie geworden. In dieser langen Zeit haben sie es geschafft, die gesamte Wertschöpfungskette von der Erstellung der Inhalte bis zu ihrer Distribution zu besetzen und sie letztlich zu beherrschen. Die relevanten Player waren weitgehend bekannt, der Wettbewerb konzentrierte sich zunehmend auf die Anzahl erreichter Konsumenten und Geschwindigkeit. Herauszufinden, was genau der einzelne Endkunde wünschte, war nicht so wichtig: er suchte es sich aus den massiven Angeboten schon selbst heraus.

Die mobile Disruption

Das Internet brachte neue Typen von Wettbewerbern: Nachrichten-Portale, News-Aggregatoren, Blogs, E-Commerce-Unternehmen, Sharing-Plattformen, Soziale Netzwerke. Getrieben von neuen Technologien zur Speicherung und gezielten Auswertung von Nutzerdaten, besetzten sie am neuen Schauplatz schnell vordere Ränge. Ihre technische Reichweite nutzten sie, um immer mehr über die einzelnen Konsumenten und deren Vorlieben zu erfahren. Jede technische Innovation vergrößerte den Vorsprung der neuen Marktteilnehmer gegenüber den tradierten Medienunternehmen. Vor allem die Mobilisierung des webbasierten Konsums von Inhalten führt zu einer massiven Disruption. Denn das mobile Web

– intensiviert den Kontakt der Verbraucher mit Medien-Inhalten

– macht den Konsum digitaler Medien erstmals zum entspannenden „lean-back“-Erlebnis

– regt zum Teilen von Medien-Inhalten an und vereinfacht das Teilen

– vervielfacht die Zahl der Datenpunkte, die die Anwender den Anbietern zur Big-Data-Analyse liefern

– liefert granular und eindeutig zuordenbare personenbezogene Daten, da mobile Endgeräte meist nur von einer Person genutzt werden

 

Die Jaron Lanier-Dystopie

Die Geschäftsmodelle von Facebook, Amazon, Youtube erscheinen aus Sicht ihrer Betreiber wie riesige globale Computerspiele, an deren Joysticks ambivalente Genies wie Mark Zuckerberg, Jeff Bezos oder Larry Page sitzen. Sie bestehen aus mathematischen Regeln und den Computern und Netzwerken, auf denen diese Regeln ablaufen. Winken irgendwo Gefahr oder Profit, analysiert sie der „Game Master“, ändert eine Regel ab, misst erneut, ändert erneut und so fort in einer endlosen Iteration.

„Die Regeln bestimmen wir.“ Das ist der bestimmende Unterschied in den Geschäftsmodellen der neuen Technologie-Unternehmen zu dem der traditionellen Medien-Häuser und macht einen großen Teil von deren Gefährdungs-Potenzial aus; Jaron Lanier, E-Business-Vordenker und Träger des Friedenspreises des Deutschen Buchhandels 2014, hat zu Recht davor gewarnt.

 

Der Exodus aus der Content-Wirtschaft

Lange behaupteten die traditionellen Medien-Häuser, die Qualität ihrer Inhalte mache den Unterschied zwischen ihnen und den neuen Technologie-Unternehmen und sichere ihnen und ihren klassischen Geschäftsmodellen das Überleben. Leuchtende Beispiele wie das der ZEIT, der Süddeutschen Zeitung oder einiger Buchverlage schienen zu zeigen: Na, geht doch!

Heute sind sie sich nicht mehr so sicher. Der Exodus einiger großer Verlagsgruppen aus rein contentgetriebenen zu IT- und webgetriebenen Geschäftsmodellen weist darauf hin. Und fast jeder Großverlag steht schon längst mit wenigstens ein oder zwei Zehen in Aktivitäten, die man nicht mehr als verlegerisch bezeichnen kann.

 

Content ist nichts ohne Kontext. Und Kontext kommt aus Wissen und Technologie

Es wäre aber völlig verfehlt, die „Content-Industrie“ als sinkendes Schiff verlassen zu wollen. Die Menschen werden sich weiterhin an Inhalten orientieren oder mit Inhalten entspannen. Die Angebote der neuen Technologie-Unternehmen haben beim Verbraucher durchgesetzt, dass neben den  Content der Kontext als gleichberechtigter Erfolgsfaktor getreten ist – dass er neben dem „was“ auch Ansprüche stellt an das „wann“ und das „wie“.

Und diesen Kontext stellen zwei Faktoren her: Wissen und Technologie. Wissen aus der laufenden Analyse

– der Kunden und ihrer Bedürfnisse

– der produzierten Inhalte und ihrer Relevanz

Technologie ermöglicht und rationalisiert diese Analyse und die zielgenaue Ausspielung von Inhalten an die einzelnen Kunden. Nur der intelligente Einsatz von Technologie im Publishing dürfte auch in längerer Zukunft den Fortbestand contentgetriebener Geschäftsmodelle ermöglichen. In Verlagen wird Technologie zuweilen kritisch gesehen – als Werkzeug der Jobkiller und Rationalisierer, der Nivellierer und Durchleuchter, der Controller und entseelten Zahlen-Freaks. Dabei zeigt das Beispiel der neuen Technologie-Unternehmen: Technologie erlaubt es in besonderer Weise, Kunden-Bedürfnisse zu befriedigen. Dabei entfaltet Technologie eine besondere Zugkraft, wie der Erfolg von Netflix oder Spotify beweist. Wenn Verlage vor ihren Wagen neben das Zugpferd „Inhalte“ auch das Zugpferd „Technologie“ spannen, könnten sie wieder in eine vorteilhafte Position gegenüber dem Wettbewerb der neuen Technologie-Unternehmen gelangen.

 

Inhalte und Technologie – das stärkste und schnellste Gespann

Technologie bedeutet Analyse. Technologie bedeutet Automatisierung. Automatisierung von Prozessen, die zuvor manuell abliefen. Aber vor allem von Prozessen, die vorher unmöglich waren – unmöglich mangels Wissen oder mangels menschlicher Ressourcen. Eine viel diskutierte Möglichkeit nennt sich Roboterjournalismus. Er besteht darin, dass eine sprachbegabte Maschine aus Daten Texte macht. Ressorts wie

– Wirtschaft und Finanzen

Sport

Wetter

basieren zu einem großen Teil auf immer gleich strukturierten Daten aus der realen Welt – vom Jahreshöchstkurs der Bayer AG bis zur Schneehöhe am Arlberg. Die Berichterstattung orientiert sich an diesen Daten und bereitet sie in immer ähnlicher Weise für das intuitive menschliche Verständnis auf. Die Regeln sind relativ einfach – sprachbegabte Maschinen können sie heute ebenso gut abarbeiten wie Menschen: nur schneller. Schreibt also der Roboter den Börsenbericht, so kann dieser in gleicher Qualität, aber schneller an den Kunden ausgeliefert werden als der menschengemachte Beitrag.

Wenn danach ein Redakteur den maschinell erstellten Bericht noch überprüft und wie ein Chefkoch die „Würze“ seiner informierten Meinung darüber streut, kann daraus ein unschlagbares „Gericht“ entstehen und in Minuten serviert werden.

Im Gegensatz zum Menschen werden Maschinen immer qualifizierter und besser. Daher wird der Trend zu dieser Kollaboration von Maschine und Mensch sich fortsetzen und alle Bereiche der Erstellung von Sachtexten, alle Ressorts durchtränken. „2020 wird nicht mehr zu unterscheiden sein, ob ein Text von einem Computer generiert oder von einem Menschen geschrieben wurde,“ erwartet etwa Johannes Sommer, Geschäftsführer des Berliner Automations-Anbieters Retresco und selbst erfahrener Verlagsmann.

 

Automatisierung entlang der Wertschöpfungskette

Nicht nur die Erstellung von Text-Beiträgen kann man automatisieren. Bereits die Erhebung der Informationen und Daten lässt sich automatisieren. Dazu gehört – selbstverständlich in jeder Redaktion – die Recherche in Datenbanken oder im Web. Dazu gehören auch crowdbasierte Lösungen wie etwa die, dass Leser bestimmte Beobachtungen strukturiert in ihr Smartphone eingeben und damit eine Datenbank befüllen, die maschinell oder durch menschliche Aktivität in einen Bericht überführt wird. Dies nennt man Datenjournalismus. Weitere Schritte der Automatisierung entlang der Wertschöpfungskette im Online-Publishing sind unter anderem:

– die Analyse redaktioneller Inhalte und die Hinzufügung von bedeutungstragenden Kennzeichen („semantischen Mark-ups“), auf deren Basis die Redaktion effektiver als zuvor Themenseiten zusammenstellen kann. Diese Themenseiten sind für Besucher des Angebots spannend und halten sie länger auf den Seiten des Anbieters, wie die Schwäbische Zeitung gegenwärtig erfährt

– die maschinelle Zusammenstellung ähnlicher Berichte zu automatisch generierten Themenseiten. Die Vermarktung von Presse-Archiven kann dadurch erheblich verbessert werden, wie bei der Süddeutschen Zeitung

– die automatische Zusteuerung von Bildern zu Texten

– die automatische interne Verlinkung der Berichte. Sie erhöht zusätzlich die Relevanz des journalistischen Angebots aus Sicht der Suchmaschinen-Anbieter wie Google oder Bing

– die Zusteuerung von Links zu Fremd-Inhalten, wie es etwa die New York Times in ihrem Online-Angebot tut

– die personenbezogene Empfehlung und Ausspielung redaktioneller Inhalte aufgrund der Messung individueller Interessen und Vorlieben. Diese Messergebnisse können Medienhäuser auch durch Kooperation mit Vermarktern zukaufen. Der erwähnte Anbieter retresco bündelt zu diesem Zweck seine Dienstleistungen mit denen von nugg.ad, einem führenden Anbieter sogenannter Targeting-Dienstleistungen

– schließlich die personenbezogene Ausspielung von Werbe-Inhalten. Sie reduziert Streuverluste – ein wichtiger Erfolgsfaktor in der Vermarktung journalistischer Web-Angebote

Alle Pferde ziehen lassen!

All diese Beispiele zeigen eines: Online-Journalismus wird durch Automatisierung nicht schlechter. Er wird gezielter, er wird schneller, er wird reichhaltiger. Mit alledem wird er aus Verbrauchersicht bedeutsamer. Und Bedeutsamkeit ist das, was den Verbraucher bei der Marke hält – sowie den Inserenten bei der Stange.

 

 

Bildlizenz: CC0 Public Domain