publisher_ki

KI-Lösungen für Publisher – Potenziale und Herausforderungen

Künstliche Intelligenz erlebt einen regelrechten Boom. Die Gründe dafür sind ebenso vielfältig wie spannend: Zum einen stehen heutzutage die für KI benötigten großen Datenmengen zur Verfügung, zum anderen kann durch Fortschritte in der Hardware – beispielsweise durch schnellere Prozessoren und leistungsfähige Komponenten o.ä.– nun auf die benötigte Rechenleistung zurückgegriffen werden. 

Künstliche Intelligenz in der Verlagsbranche

In der Verlagsbranche führt der Einsatz von KI-Technologien zu einem facettenreichen und vielschichtigen Wandel – ein Trend, der sich in den kommenden Jahren noch verstärken wird. So ergab die Anfang 2019 vorgestellte Studie “Trends der Zeitungsbranche 2019” des BVDZ und der Unternehmensberatung Schickler, dass Künstliche Intelligenz für die deutschen Zeitungsverlage von wachsender Bedeutung sei: 74 Prozent der Unternehmen halten demnach den Einsatz von KI-Technologie für “relevant bis sehr relevant”, bei den großen Verlagshäusern seien es sogar 96 Prozent. Starkes Ausbaupotenzial seien – so die Studie – insbesondere in der maschinellen Erstellung von Sport-, Wetter- und Börsenberichten sowie in der Klassifizierung von Content zu erwarten. 

Die Studie zeigt auf: Bereits heute hat die Medienbranche die Chancen Künstlicher Intelligenz erkannt und setzt sie beispielsweise zum automatisierten Verfassen von Artikeln, dem Aufspüren von Fake News sowie bei der Individualisierung von Inhalten ein. Darüber hinaus ermöglicht KI die Erschließung völlig neuer Geschäftsmodelle: Neue Contentformate können angeboten, effizient erstellt und zielgruppenspezifischer ausgespielt werden – eine Win-Win-Situation sowohl für Kundinnen und Kunden als auch für Medienunternehmen. 

Und obwohl Künstliche Intelligenz zunehmend allgegenwärtig ist, wissen nur wenige, was genau sie eigentlich ist. Das ist wenig verwunderlich: Künstliche Intelligenz trennscharf zu definieren, ist ein schwieriges Unterfangen. Es gibt keine allgemeine und von allen Akteuren konsistent genutzte Definition. Die folgende Eingrenzung gilt dem Versuch, etwas Klarheit und Transparenz in puncto KI und ihre Anwendungsbereiche zu schaffen.  

Definition & Verortung: Starke vs. schwache KI 

Sehr abstrakt lassen sich die Entwicklungsrichtungen von Künstlicher Intelligenz in zwei Kategorien zuordnen: der schwachen und der starken KI. Die schwache KI umfasst den Großteil aller Entwicklungstätigkeiten und ermöglicht eine effiziente Simulation spezifischer menschlicher Einzelfähigkeiten. Derzeit noch sehr realitätsfern ist die starke KI, welche die gleichen oder sogar noch höhere intellektuelle Fähigkeiten als der Mensch aufweist. 

Starke KI 

Die starke KI ist nicht nur dazu in der Lage, rein reaktiv zu handeln, sondern ist kreativ, flexibel, auch bei Unsicherheit entscheidungsfähig sowie aus eigenem Antrieb heraus motiviert – und daher dazu in der Lage, proaktiv und geplant zu handeln. Eine solche KI ist derzeit laut Expertenmeinung jedoch weder existent noch ist deren Existenz absehbar. In Wissenschaft und Philosophie ist es zudem heftigst umstritten, ob und wann eine starke KI überhaupt entwickelt werden kann.

Zu dem größten Streitpunkt gehört dabei die Frage, ob eine KI jemals über Empathie, Selbstreflexion und Bewusstsein – Eigenschaften, die bis dato zum Kern des Menschseins schlechthin gehören – verfügen wird. Daher sollten Äußerungen, welche die Existenz einer solchen starken bzw. allgemeinen KI (auch: AGI oder Artificial General Intelligence) verlautbaren oder in Aussicht stellen, mit Skepsis begegnet werden. Überzogene Erwartungen, die häufig mit dem Begriffen Superintelligenz oder Singularität verschlagwortet werden und übertriebene Ängste einer Roboterherrschaft schüren, führen lediglich zu einer populistisch aufgeladenen Debatte. Einem transparenten Diskurs sind sie alles andere als förderlich. 

Schwache KI 

Die schwache KI fokussiert sich hingegen auf die Lösungen einzelner Anwendungsprobleme, wobei die entwickelten Systeme zur Selbstoptimierung bzw. zum Lernen fähig sind. Dazu wird versucht, spezifische Aspekte menschlicher Intelligenz zu simulieren und zu automatisieren. Bei den meisten derzeit existierenden kommerziellen KI-Anwendungen (Chatbots, autonome Fahrzeugtechnologie, Diagnosesysteme im Gesundheitsbereich u.ä.) handelt es sich um Systeme der schwachen KI.  

Natural Language Processing als Schnittstellenbereich zwischen KI und Linguistik

Eines der herausforderndsten und zeitgleich spannendsten Anwendungsgebiete der Künstlichen Intelligenz ist die maschinelle Verarbeitung natürlicher Sprache – besser bekannt unter dem Begriff Natural Language Processing (NLP). Als interdisziplinäre Querschnittsdisziplin zwischen Linguistik und Künstlicher Intelligenz besteht das Ziel in der Entwicklung von Algorithmen, die Elemente von menschlicher Sprache aufgeschlüsselt und maschinell verarbeitet. Das heißt: All das, was Menschen schriftlich oder verbal ausdrücken, kann NLP in digital lesbare Informationen übersetzen. Dieser Prozess funktioniert jedoch auch in die umgekehrte Richtung: Daten lassen sich auch in Sprache oder Text verarbeiten. Diese beiden Prozessrichtungen markieren die beiden Teildisziplinen, in denen NLP aufgeteilt werden kann: Natural Language Understanding (kurz: NLU) und Natural Language Generation (auch: NLG oder Automatische Sprach- und Textgenerierung).  

 

KI-basierte Sprachtechnologien: Wenn aus Daten Texte werden – und umgekehrt 

Während bei Natural Language Understanding in der Regel Text zu Daten verarbeitet wird, entsteht bei NLG-Prozessen natürlichsprachiger Text aus Daten. In all jenen Bereichen, wo strukturierte Daten anfallen – beispielsweise im E-Commerce, in der Finanzwelt oder in der Berichterstattung für Sport, Wetter oder Wahlen – können NLG-Programme in Sekundenschnelle aus Daten leserfreundliche Texte erstellen. Auf diese Weise befreien NLG-Systeme Texter und Redakteure von monotoner Routine-Arbeit. Die eingesparte Zeit kann somit verstärkt in kreative oder konzeptionelle Arbeiten gesteckt werden. 

Natural Language Understanding hingegen hat das Ziel, einen natürlichsprachigen Text zu „verstehen“ und daraus strukturierte Daten zu erzeugen. Der Oberbegriff NLU kann auf eine Vielzahl von Computeranwendungen angewendet werden, die von kleinen, relativ einfachen Aufgaben wie kurzen Befehlen an Roboter bis hin zu hochkomplexen Aufgaben wie dem vollständigen Verständnis von Zeitungsartikeln reichen. 

Automatisierungspotenziale für die Verlagsbranche 

In Verlagen und Nachrichtenagenturen unterstützt Künstliche Intelligenz bereits heute unter anderem bei der automatisierten Moderation von Community-Foren, dem automatisierten Verfassen von Standardtexten, der Personalisierung von Inhalten und Produkten sowie bei dem zielgruppenspezifischen Ausspielen von Werbung im Anzeigengeschäft. 

Die Vorteile von KI-basierten Sprachtechnologien in der Verlagsbranche liegen folglich auf der Hand: Effizienter und skalierbarer Journalismus mit personalisierten Angeboten bei optimierten internen Prozessen. Bei der Umsetzung von KI-Lösungen ist insbesondere ein strategisch-ganzheitlich Ansatz von Interesse: Skalierbare Synergieeffekte sind nur dann zu erwarten, wenn die KI-Services nicht als Insellösung, sondern übergreifend und orchestriert im Verbund an verschiedensten Bereich innerhalb eines Medienunternehmens eingesetzt werden. Die Entwicklung von ganzheitlichen Konzepten und orchestrierten Strategien sollte in diesem Sinne an erster Stelle stehen.  

Darüber hinaus sollten auch Herausforderungen adressiert werden, die sich auf das Management und die strategische Nutzung von Daten beziehen. Die Fähigkeit, aus Daten (beispielsweise über Nutzerverhalten o.ä.) relevante Erkenntnisse generieren zu können, wird maßgeblich über die Zukunftsfähigkeit von Medienunternehmen entscheiden. Umso wichtiger ist es daher, früh genug die strategischen Weichen für ein datenorientiertes Wirtschaften zu stellen. Die Entwicklung einer durchdachten Datenstrategie sollte für Medienunternehmen ebenso selbstverständlich sein, wie eine elaborierte Produkt- oder Vertriebsstrategie. Nur durch einen professionellen Umgang mit Daten, der sämtliche Strukturen eines Verlags umfasst, kann wirtschaftlicher Mehrwert aus dem “neuen Gold” des 21. Jahrhunderts geschöpft werden.