True or False – die 5 häufigsten Mythen zum Roboterjournalismus

„Roboterjournalismus“ bezeichnet die konkrete Anwendung der Natural Language Generation (NLG) für journalistische Zwecke. Nach wie vor polarisiert der Einsatz der NLG-Technologie im Medienumfeld am meisten. Abseits von bereits heiß diskutierten Thematiken, wie dem Einfluss von Künstlicher Intelligenz und Automatisierung auf die Zukunft der Arbeit, schweben weitere, ungeklärte Mythen im Raum.

 

Mythos 1: „Roboterjournalismus“ bedeutet, ein Roboter schreibt journalistische Texte.

Falsch. Es scheint wie eine logische Schlussfolgerung dessen, was der Begriff „Roboterjournalismus“ impliziert. Jedoch ist die Aussage gleich mehrfach irreführend und gar fehlerhaft: Statt um tatsächliche Roboter handelt es sich um intelligente Algorithmen, die auf Basis von strukturierten Daten automatisch Inhalte generieren. Dies tun sie, indem sie sich eines vorgefertigten Sets aus Satzbausteinen und der Grammatik bedienen. Sinnvoll ist das für jeden Bereich, in dem in großem Umfang ähnlich aufgebaute Inhalte benötigt werden, beispielsweise zur Erstellung von Sport- oder Wetterberichten, nicht für jeden beliebigen journalistischen Text.

„Roboterjournalismus“ ist eine Metapher, die die komplexe NLG-Technologie in einem Wort verständlich macht, aber gleichzeitig zu umfassend interpretiert. Richtig definiert bedeutet Roboterjournalismus eher: Ein Algorithmus generiert Texte für datengetriebene Anwendungsfälle im Medienumfeld. Treffenderer, oder zumindest weniger irreführend, ist in diesem Sinne die Bezeichnung als „algorithmischer Journalismus“ oder, schlicht und ergreifend, die Zuweisung der automatischen Textgenerierung zum Anwendungsfeld der Medien.

 

Mythos 2: Durch ihr breites Weltwissen ordnen „Roboterjournalisten“ Informationen automatisch in ihren gesellschaftlichen Kontext ein.

Falsch. Automatisch generierte Texte beruhen auf Daten. Und zwar nur auf denen, die strukturiert im entsprechenden NLG-System verfügbar sind. Die Technologie erkennt keine Kontexte, die sich außerhalb dieser Daten abspielen. Damit kann sie auch keine unvorhergesehenen oder neuen Situationen abbilden: Wäre beispielsweise ein Fußballspiel durch die Wetterlage stark beeinflusst, ist die Schlagzeile für den menschlichen Reporter gefunden. Sofern diese Information aber nicht in den Daten verfügbar ist, lässt die Maschine dies hingegen unerwähnt.

Für die Einordnung von Geschehen in ihren gesellschaftlichen Kontext und Ableitung ihrer Konsequenzen sind und bleiben die menschlichen Journalisten zuständig. Der Einsatz des Roboterjournalismus schenkt ihnen darum mehr Zeit für tiefgehende Recherchen und kreative oder konzeptionelle Arbeit.

 

Mythos 3: Automatisch generierte Inhalte sieht weder Google noch der Leser gerne.

Falsch. In vielen Köpfen hält sich eine längst überholte Definition von automatisch generierten Texten. Tatsächlich sind generierte Inhalte in ihrem Anwendungsfall geradezu nicht mehr von den journalistisch verfassten zu unterscheiden. Leser schätzten die Robotertexte bereits in diversen Rezeptionsstudien (u.a. Graefe et al., Clerwall und Cebulla) als neutraler formuliert und als glaubwürdiger ein, die journalistischen Beiträgen dafür als besser lesbar. Die Zeiten, in denen die Maschine nur Keyword-überladene und grammatikalisch falsche Texte produziert, sind vorbei. Stattdessen entstehen qualitative und variantenreiche Inhalte aus Feder der Maschine, ohne Rechtschreib-, Grammatik- oder Syntaxfehler und damit ohne Notwendigkeit des Korrekturlesens.

So merkt auch Google keine Unterschiede: rein technisch findet sich im HTML des automatisch generierten Textes kein Hinweis auf die Herkunft des Contents. Google kann de facto nicht berechnen, ob eine Software an Erstellung der Inhalte beteiligt war. Für die Sichtbarkeit in den Suchmaschinen ergeben sich daher nur Vorteile.

Versuchen Sie sich am Textgenerator für Fußballspielberichte oder lassen Sie sich in einer Live-Demo die vielfältigen Anwendungsbereiche zeigen, um sich selbst von der Qualität generierter Texte zu überzeugen.

 

Mythos 4: Roboterjournalismus entzieht sich unserer Kontrolle und die Anfälligkeit für Falschmeldungen steigt.

Falsch. Eine „skalierbare Textproduktion auf Knopfdruck“ mag schnell unüberschaubar klingen, die Kontrolle liegt aber weiterhin in Menschenhand. Der Faktor Mensch ist für das Setup und die Steuerung des NLG-Systems verantwortlich und die Prozesse sind nachvollziehbar. Das entstehende Produkt, der Text, bedient sich objektiverer Formulierungen als der Mensch es unter Umständen täte. Die Inhalte sind abhängig von den Daten, auf denen sie beruhen. Unabdingbar ist daher die Verwendung von Daten aus hochwertigen und vertrauenswürdigen Quellen. Fehlerhafte oder inkonsistente Daten sorgen für fehlerhafte Texte – unabhängig von der Qualität des NLG-Systems und des vorangegangenen Trainings. Saubere Daten sind damit ein Must-Have für erfolgreiche NLG-Projekte.

 

Mythos 5: Roboterjournalismus funktioniert ohne Journalisten.

Falsch. Kollege Roboter setzt sich nicht einfach mit an den Tisch. Stattdessen trainieren die menschlichen Experten die NLG-Lösung für jeden neuen Anwendungsfall mit den gewünschten Formulierungen, Bedingungen und Schwellenwerten. Im Anschluss unterstützt die Textgenerierung sie bei einer skalierbaren Produktion von Inhalten. Journalisten gewinnen damit ein Tool, dass sie nach ihren Ansprüchen und Vorstellungen gestalten und einsetzen können.

Roboterjournalismus ist keine Revolution und ganz sicher keine Alternative zum Journalismus. Roboterjournalismus ist eine digitale Weiterentwicklung und ein effizientes Tool für Journalisten in Zeiten der Digitalisierung.

 

Über Retresco | @retresco

Bereits seit 2008 entwickelt Retresco führende KI-Lösungen im Bereich Content Automation. In den letzten Jahren hat sich das Unternehmen zunehmend zu einem der weltweit führenden Anbieter in der automatischen Textgenerierung (Natural Language Generation) entwickelt und dutzende Projekte für Kunden aus den Bereichen Medien, E-Commerce und Finanzdienstleistungen umgesetzt.