Was ist Künstliche Intelligenz?

Künstliche Intelligenz ist allgegenwärtig. Ob in Sprachassistenten, Chatbots, semantischen Textanalysen, Streamingdiensten, smarten Fabriken oder autonomen Fahrzeugen – KI wird die Art und Weise, wie wir unseren beruflichen und privaten Alltag gestalten ebenso verändern, wie wir wirtschaften und als Gesellschaft zusammenleben. Auch die Politik erklärt KI zur grundlegenden Bedingung unseres zukünftigen Wohlstands.

Und obwohl immer mehr Menschen Künstliche Intelligenz nutzen, wissen nur wenige, was genau sie eigentlich ist. Das ist wenig verwunderlich: Künstliche Intelligenz trennscharf zu definieren, ist ein schwieriges Unterfangen. Ebenso wenig wie die Intelligenz des Menschen eindeutig beschrieben werden kann – beispielsweise wird zwischen kognitiver, emotionaler und sozialer Intelligenz differenziert –, gibt es für Künstliche Intelligenz keine allgemeingültige und von allen Akteuren konsistent genutzte Definition. Vielmehr handelt es sich um einen Oberbegriff für alle Forschungsbereiche, die sich damit beschäftigen, wie Maschinen eine Leistung menschlicher Intelligenz erbringen können. Die folgende Eingrenzung soll daher versuchen, etwas Klarheit und Transparenz schaffen.

KI: Definition und Geschichte

Historisch betrachtet geht der Begriff auf den US-amerikanischen Informatiker John McCarthy zurück, der 1956 Forscherinnen und Forscher aus verschiedensten Disziplinen zu einem Workshop mit dem Titel „Dartmouth Summer Research Project on Artificial Intelligence“ einlud. Das Leitthema des Zusammentreffens lautete: „The study is to proceed on the basis of the conjecture that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it.“ Unter diesem Leitthema wurde bereits 1956 der Grundstein dafür gelegt, was später zum Fachgebiet der Künstlichen Intelligenz avancierte.

KI: Simulation und Automatisierung kognitiver Fähigkeiten

Heute definieren zahlreiche Lexikoneinträge Künstliche Intelligenz als ein Teilgebiet der Informatik, das sich mit der maschinellen Nachahmung menschlicher Intelligenz beschäftigt. The English Oxford Living Dictionary beschreibt KI beispielsweise wie folgt: „The theory and development of computer systems able to perform tasks normally requiring human intelligence, such as visual perception, speech recognition, decision-making, and translation between languages.“

Auf eine ähnlich abstrakte Arbeitsdefinition verständigen sich derweil auch KI-Experten in Forschung und Praxis: Künstliche Intelligenz sei die Automatisierung und/oder die Simulation kognitiver Fähigkeiten, worunter u.a. die visuelle Wahrnehmung, Spracherkennung und -generierung, Schlussfolgern, Entscheidungsfindung und Handeln, sowie im Allgemeinen auch die Anpassungsfähigkeit an wechselnde Umgebungen gehören.

Die Leistungsfähigkeit dieser simulierten und/oder automatisierten kognitiven Fähigkeiten kann unterschiedlich stark ausgeprägt sein. Während sie etwa bei Sprachassistenten wie Alexa und Siri noch recht rudimentär vorhanden sind, übersteigen sie in manchen Bereichen die menschlichen Fähigkeiten schon heute bei weitem – so zum Beispiel in der Medizin bei der millionenfachen Auswertung von MRT-Scans.

Strong AI vs. Weak AI

Sehr abstrakt lassen sich die Entwicklungsrichtungen von Künstlicher Intelligenz in zwei Kategorien zuordnen: die schwache und die starke KI. Die schwache KI (auch: weak oder narrow AI) umfasst den Großteil aller Entwicklungstätigkeiten und ermöglicht eine effiziente Simulation spezifischer menschlicher Einzelfähigkeiten. Derzeit noch sehr realitätsfern ist die starke KI, welche die gleichen oder sogar noch höhere intellektuelle Fähigkeiten als der Mensch aufweist.

Starke KI

Die starke KI ist nicht nur dazu in der Lage, rein reaktiv zu handeln, sondern ist kreativ, flexibel, auch bei Unsicherheit entscheidungsfähig sowie aus eigenem Antrieb heraus motiviert – und daher dazu in der Lage, proaktiv und geplant zu handeln. Eine solche KI ist derzeit laut Expertenmeinung jedoch weder existent noch ist deren Existenz absehbar.

In Wissenschaft und Philosophie ist es heftigst umstritten, ob und wann eine starke KI überhaupt entwickelt werden kann. Zu dem größten Streitpunkt gehört dabei die Frage, ob eine KI jemals über Empathie, Selbstreflexion und Bewusstsein – Eigenschaften, die (bis dato) zum Kern des Menschseins schlechthin gehören – verfügen wird. Daher sollten Äußerungen, welche die Existenz einer solchen starken bzw. allgemeinen KI (auch: AGI oder Artificial General Intelligence) verlautbaren oder in Aussicht stellen, mit Skepsis begegnet werden. Überzogene Erwartungen an KI, die häufig mit dem Begriffen Superintelligenz oder Singularität verschlagwortet werden und übertriebene Ängste einer Roboterherrschaft schüren, führen lediglich zu einer populistisch aufgeladenen Debatte. Einem transparenten Diskurs sind sie alles andere als förderlich.

Schwache KI

Die schwache KI fokussiert sich hingegen auf die Lösungen einzelner Anwendungsprobleme, wobei die entwickelten Systeme zur Selbstoptimierung bzw. zum Lernen fähig sind. Dazu wird versucht, spezifische Aspekte menschlicher Intelligenz zu simulieren und zu automatisieren. Bei den meisten derzeit existierenden kommerziellen KI-Anwendungen handelt es sich um Systeme der schwachen KI. Aktuell werden schwache KI-Systeme u.a. in den folgenden konkreten Anwendungsfeldern eingesetzt:

  • Digitale Sprach- und Textverarbeitung (Natural Language Processing): KI-Systeme, die Inhalt und Kontext von Texten und Sprache voll- oder teilautomatisiert verstehen oder generieren können. Auf diese Weise können beispielsweise Fussball- oder Wahlberichte maschinell geschrieben, Texte übersetzt und Chatbots oder Sprachassistenten kommunizieren.
  • Robotik & autonome Maschinen: Smarte und autonom navigierende (Transport-)maschinen wie Drohnen, Autos und Schienenverkehrsfahrzeuge, die sich selbstständig an neue Umgebungssituationen anpassen können und in Echtzeit lernen.
  • Mustererkennung in großen Datensätzen: Steuerung und Optimierung von Infrastrukturen (u.a. im Straßenverkehrsfluss oder im Stromnetz); Identifikation von Betrugsfällen, Geldwäsche oder Terrorismusfinanzierung in der Finanzindustrie; Predictive Policing in der Kriminalitätsbekämpfung; KI-basierte Diagnosesysteme im Gesundheitsbereich (z.B. Auswertung von radiologischen Bilddaten) etc.

Künstliche Intelligenz und Mustererkennung

Im weiten Anwendungsfeld der Künstlichen Intelligenz spielt die Mustererkennung (auch: Pattern Recognition) eine besondere Rolle. Einerseits, weil zahlreiche aktuelle Fortschritte im KI-Bereich auf Fortschritte im Bereich der Mustererkennung zurückzuführen sind, andererseits, weil unterschiedliche Anwendungsfelder (z.B. Bild-, Text- und Spracherkennung etc.) zumindest in Teilen auch auf Mustererkennung zurückgreifen.

Bei ihr geht es darum, aus großen, unstrukturierten Datenmengen sinnvolle und relevante Informationen zu extrahieren, indem Regelmäßigkeiten, Wiederholungen oder Ähnlichkeiten maschinell erfasst werden. Grundlage ist die Fähigkeit zur Klassifizierung: Merkmale müssen identifiziert werden, die innerhalb einer Merkmalskategorie identisch sind, jedoch außerhalb dieser Kategorie nicht auftreten. Auf diese Weise können Gesichter auf digitalen Fotos erkannt, Songs identifiziert oder aber Verkehrszeichen aus einer Flut von Bilddaten gefiltert werden. Auch in der Sprach- und Texterkennung ist das systematische Erkennen von Mustern von größter Relevanz.

Künstliche Intelligenz und Sprache

Eines der herausforderndsten und zeitgleich spannendsten Anwendungsgebiete der Künstlichen Intelligenz ist die maschinelle Verarbeitung natürlicher Sprache – besser bekannt unter dem Begriff Natural Language Processing (NLP). Als interdisziplinäre Querschnittsdisziplin zwischen Linguistik und Künstlicher Intelligenz besteht das Ziel in der Entwicklung von Algorithmen, die Elemente von menschlicher Sprache aufgeschlüsselt und maschinell verarbeitet. Das heißt: All das, was Menschen schriftlich oder verbal ausdrücken, kann NLP in digital lesbare Informationen übersetzen. Dieser Prozess funktioniert jedoch auch in die umgekehrte Richtung: Daten lassen sich auch in Sprache oder Text verarbeiten. Diese beiden Prozessrichtungen markieren die beiden Teildisziplinen, in denen NLP aufgeteilt werden kann: Natural Language Understanding (auch: NLU) und Natural Language Generation (auch: NLG oder Automatische Sprach- und Textgenerierung).

Natural Language Generation

Während es sich bei der Übersetzung natürlicher Sprache oder Texten in Daten um typische Formen von Natural Language Understanding handelt, spricht man bei der umgekehrten Richtung von Natural Language Generation. Bei NLU wird in der Regel natürlicher Text zu Daten verarbeitet, bei NLG-Prozessen entsteht natürlicher Text durch Daten. In all jenen Bereichen, wo strukturierte Daten anfallen – beispielsweise im E-Commerce, in der Finanzwelt oder in der Berichterstattung für Sport, Wetter oder Wahlen – können NLG-Programme in Sekundenschnelle aus Daten leserfreundliche Texte erstellen. Auf diese Weise befreien NLG-Systeme Texter und Redakteure von monotoner Routine-Arbeit. Die eingesparte Zeit kann somit verstärkt in kreative oder konzeptionelle Arbeiten gesteckt werden.

Natural Language Understanding

Natural Language Understanding hingegen hat das Ziel, einen natürlichsprachigen Text zu „verstehen“ und daraus strukturierte Daten zu erzeugen. Der Oberbegriff NLU kann auf eine Vielzahl von Computeranwendungen angewendet werden, die von kleinen, relativ einfachen Aufgaben wie kurzen Befehlen an Roboter bis hin zu hochkomplexen Aufgaben wie dem vollständigen Verständnis von Zeitungsartikeln reichen.

Unterschiede und Gemeinsamkeiten: KI, Machine Learning, Deep Learning

Mit dem Begriff Künstliche Intelligenz eng verwandt sind u.a. die Termini Machine Learning und Deep Learning. Die Begriffe werden in der öffentlichen Diskussion häufig synonym gebraucht. Im Folgenden soll eine kurze Begriffseinordnung zu einem transparenten Umgang mit den unterschiedlichen Terminologien führen.

Während Künstliche Intelligenz als Oberbegriff für sämtliche Forschungs- und Entwicklungsbereiche dient, die sich – wie oben bereits dargestellt wurde – mit der Simulation und Automatisierung kognitiver Fähigkeiten beschäftigen, lassen sich Machine Learning und Deep Learning eher als Teilbegriffe von KI verstehen. Insbesondere Machine Learning wird häufig als deckungsgleich mit KI verstanden, ist aber viel eher ein Teilgebiet dessen. Im Grunde genommen bezieht sich allerdings die überwiegende Mehrheit der aktuellen Fortschritte in KI-Anwendungen auf Machine Learning. Umso hilfreicher erscheint es daher, zunächst den Begriff Machine Learning näher zu betrachten.

Machine Learning

Bei Machine Learning (auch: Maschinelles Lernen, ML) handelt es sich um eine bestimmte Kategorie von Algorithmen, die Statistiken verwenden, um Muster in großen Datenmengen, sogenannter Big Data, zu finden. Sie verwenden die gefundenen Muster in den historischen (und bestenfalls repräsentativen) Daten dann, um Vorhersagen über bestimmte Ereignisse zu treffen – wie z.B. darüber, welche Serie einem User auf Netflix gefallen könnte oder was genau mit einer spezifischen Spracheingabe bei Alexa gemeint ist. Bei Machine Learning sind Algorithmen daher dazu in der Lage, aus großen Datensets Muster zu lernen und eigenständig die Lösung eines bestimmten Problems zu finden, ohne dass jeder Einzelfall zuvor explizit programmiert wurde. Mithilfe von Machine Learning sind Systeme daher befähigt, aus Erfahrungen Wissen zu generieren. In diesem Sinne wurde der Begriff von dem US-amerikanischen Informatiker und KI-Pionier Arthur L. Samuel bereits 1959 als System beschrieben, das die „Fähigkeit zu lernen, ohne explizit programmiert worden zu sein“ besitzt.

Relevante Daten aus Big Data extrahieren und Vorhersagen treffen

In der Praxis heißt das Folgendes: In Streamingdiensten lernen Algorithmen (ohne dass im Vorhinein in irgendeiner Weise programmiert wurde, welche Seriengenres es überhaupt gibt) beispielsweise, dass es bestimmte Arten von Serien gibt, die von einer bestimmten Klasse von Usern geschaut werden. Im Gegensatz zu regelbasierten Systemen ist es bei Machine Learning daher nicht unbedingt notwendig, für jeden neu auftretenden Einzelfall konkrete Wenn-Dann-Regeln zu implementieren, die dann auf einen Datensatz (z.B. zu Klassifikationszwecken) angewandt werden. Vielmehr nutzt Machine Learning den vorhandenen Datensatz, um eigenständig relevante Daten zu extrahieren, zusammenzufassen und dadurch Vorhersagen zu treffen.

Sie können folglich zur Optimierung oder (Teil-)Automatisierung von Prozessen genutzt werden, die ansonsten manuell erledigt werden müssten, wie beispielsweise Text- oder Bilderkennung. Machine Learning ist der Prozess, der viele der Dienste antreibt, die wir heute nutzen – Empfehlungssysteme wie Netflix, YouTube, Spotify, Suchmaschinen wie Google und Baidu, Social Media Feeds wie Facebook und Twitter, Sprachassistenten wie Siri und Alexa. In all diesen Fällen sammelt jede Plattform so viele Daten wie möglich über ihre User – welche Genres gerne gesehen werden, auf welche Links geklickt wird, welche Songs bevorzugt gehört werden – und verwendet Maschinelles Lernen, um eine möglichst treffsichere Abschätzung darüber abzugeben, was User am liebsten sehen oder hören wollen.

Deep Learning

Deep Learning wird als Unterbegriff wiederum dem Maschinellen Lernen zugeordnet und ist damit ebenfalls als Teilgebiet von Künstlicher Intelligenz zu verstehen. Während es sich bei ML um eine Art selbstadaptiven Algorithmus handelt, der sich durch Erfahrung bzw. historische Daten verbessert, verfügt Deep Learning über die Fähigkeit, den Prozess des Maschinellen Lernens noch wesentlich zu verstärken und sich selbst zu trainieren. Die Technik, die dazu verwendet wird, wird als neuronales Netz bezeichnet. Es handelt sich dabei um eine Art mathematisches Modell, dessen Struktur an der Funktionsweise des menschlichen Gehirns angelehnt ist.

Neuronale Netze und Black Boxes

Neuronale Netze enthalten zahlreiche Schichten von Rechenknoten (ähnlich der menschlichen Neuronen), die orchestriert zusammenspielen, um Daten zu durchsuchen und ein Endergebnis zu liefern. Da die Inhalte dieser Schichten zunehmend abstrakt und weniger nachvollziehbar werden, bezeichnet man diese Ebenen auch als versteckte Schichten (oder: Hidden Layers). Durch das Zusammenwirken mehrerer dieser Schichten können zwischen den Schichten „neue“ Informationen gebildet werden, die eine Art abstrakte Repräsentation der ursprünglichen Informationen bzw. der Eingangssignale darstellen. Selbst Entwicklerinnen und Entwickler sind daher nicht oder nur noch begrenzt dazu in der Lage, nachzuvollziehen, was die Netze dabei überhaupt lernen oder wie sie zu einem bestimmten Ergebnis gekommen sind. Man spricht hier auch von dem sogenannten Black-Box-Charakter von KI-Systemen.  Zuletzt unterscheidet man bei Machine und Deep Learning zwischen drei Varianten des Lernens: überwacht, unbeaufsichtigt und verstärkt.

Überwachtes Lernen

Beim überwachten Lernen (auch: Supervised Learning), werden die zu analysierenden Daten zuvor klassifiziert, um dem ML-System zu sagen, nach welchen Mustern es suchen soll. Nach diesem Prinzip wird beispielsweise das automatische Klassifizieren von Bildern erlernt: Zunächst werden Bilder manuell hinsichtlich bestimmter Variablen markiert (z.B. ob es sich um einen traurigen, fröhlichen oder neutralen Gesichtsausdruck handelt); nach der tausendfachen Erstellung von Beispielen kann anschließend ein Algorithmus die Bilddaten automatisiert kategorisieren.

Unbeaufsichtigtes Lernen

Beim unbeaufsichtigten Lernen (auch: Unsupervised Learning) besitzen die zu analysierenden Daten keine zuvor klassifizierten Bezeichnungen. Daher müssen dem Algorithmus in einer vorgelagerten Trainingsphase auch keine exakten Zielvorgaben bereitgestellt werden. Vielmehr sucht das ML-System selbst nach jeglichen Mustern, die es finden kann. Unbeaufsichtigte Lernmethoden werden daher bevorzugt für die Exploration von großen Datensätzen eingesetzt. Unüberwachte Techniken sind (außer im Bereich der Cybersecurity) in der Praxis derzeit allerdings noch eher unüblich.

Verstärkungslernen

Als Verstärkungslernen (auch Reinforcement Learning) wird die Methode beschrieben, bei dem ein Algorithmus durch Belohnung und Bestrafung lernt. Ein Verstärkungsalgorithmus lernt also durch reines Ausprobieren, ob ein Ziel erreicht wird (Belohnung) oder verfehlt wird (Bestrafung). Verstärkungslernen wird beispielsweise beim Trainieren von Schach-Programmen eingesetzt: Beim (simulierten) Spiel gegen andere Schach-Programme kann ein System sehr schnell lernen, ob ein bestimmtes Verhalten zum gewünschten Ziel, dem Sieg, geführt hat (Belohnung) oder nicht (Bestrafung). Verstärkungslernen ist auch die Trainingsgrundlage von Googles AlphaGo, dem Programm, das die besten menschlichen Spieler im komplexen Spiel Go besiegt hat.

Grenzen und Möglichkeiten: was kann Künstliche Intelligenz (nicht)?

Nicht nur in medialen Diskursen, sondern auch in Expertenzirkeln kursieren teilweise recht unterschiedliche Definitionen von Künstlicher Intelligenz. Jedoch tragen unklare Vorstellungen und Definitionen davon, was KI ist und nicht ist, was sie kann und nicht kann, eher zu einer Verunsicherung denn zur Akzeptanz in der Gesellschaft bei. Sie münden in einer oftmals polarisierten und von unrealistischen Vorstellungen getriebenen Debatte. Eine Aufklärung über die Grenzen und Möglichkeiten von Künstlicher Intelligenz ist daher von größter Relevanz. Nur so können die Auswirkung von KI auf Gesellschaft, Wirtschaft, Kultur und Wissenschaft realistisch eingeschätzt werden.

Insgesamt werden mit dem Einsatz von Künstlicher Intelligenz große Hoffnungen verbunden: Eine KI-basierte medizinische (Krebs-)Diagnostik verspricht beispielsweise große Fortschritte im Gesundheitssektor und im Straßenverkehr könnte eine Reduktion von Unfällen oder Staus einerseits zu einer geringeren Anzahl von Verkehrstoten, andererseits zu einer geringeren Umweltbelastung führen. Auch die Art und Weise, wie wir arbeiten, scheint vor disruptiven Veränderungen zu stehen: KI könnte Arbeitskräfte von gefährlichen und monotonen Arbeiten entlasten.

Auf der anderen Seite warnen technologiekritische Skeptiker mit dystopischen Zukunftsprognosen vor dem Einsatz von KI und der daraus resultierenden vermeintlichen Machtübernahme einer Superintelligenz bzw. Singularität. Sogar Stephen Hawking und Tech-Visionär Elon Musk haben vor der Bedrohung durch KI gewarnt. Jedoch ist anzumerken, dass sich solche Befürchtungen weit weniger auf (schwache) KI-Systeme beziehen, die bislang existieren.

Eine ausgewogene Debatte, in der transparent und aufgeklärt über (mögliche) Vor- und Nachteile der Entwicklung und Implementation von KI diskutiert werden kann, ist unabdinglich. Letztlich sollte das Ziel sämtlicher KI-Systeme darin bestehen, gesellschaftlichen, kulturellen und wirtschaftlichen Mehrwert zu schaffen und somit einen Beitrag zum Wohle der Menschen leisten. Künstliche Intelligenz sollte Menschen im Alltag und im Beruf dort, wo es Sinn macht, intelligent unterstützen und unangenehme oder gefährliche Arbeiten übernehmen, ohne den Menschen überflüssig zu machen. Die Folge: Mehr Zeit und Ressourcen, um sich kreativen oder emotional und sozial wertvollen Aufgaben zu widmen, die dem Menschen Freude machen und die in der Gesellschaft, Wirtschaft und Kultur Sinn und Mehrwert stiften.

Ethik und KI: was darf Künstliche Intelligenz (nicht)?

Künstliche Intelligenz durchdringt unseren Alltag zunehmend; und damit auch die Frage nach ethischer und gesellschaftlicher Verantwortung. Schon heute entscheiden Algorithmen, welche Nachrichten der Leser ausgespielt und welche Produkte der Konsument angezeigt bekommt. Auf welcher Grundlage und durch welche technologischen Mechanismen diese Entscheidungen gefällt werden, ist den meisten weder bewusst noch nachvollziehbar. Problematisch wird es auch, wenn ein KI-System fehlerhafte oder sogar diskriminierende Entscheidungen trifft oder wenn die Möglichkeiten von KI zur Kontrolle, Überwachung und für Eingriffe in die Privatsphäre, der Bürger durch ihre Regierungen beispielsweise, missbraucht werden. Allgemein und sehr prominent stellt sich daher die Frage, was Künstliche Intelligenz darf, und was nicht.

Als erste internationale Institution hat sich die Europäische Kommission dieser Problemstellungen angenommen und auf Basis der EU-Grundrechtecharta und unter dem Titel “Ethics Guidelines for Trustworthy AI” Kriterien für die Entwicklung und Anwendung von vertrauenswürdiger KI festgehalten. Dabei wurden vier Themenfelder als ausschlaggebend für eine “Trustworthy AI” definiert: Fairness, Transparenz & Nachvollziehbarkeit, Verantwortlichkeit und Wertorientierung.

Um den nachhaltigen technologischen Fortschritt nach gemeinwohlorientierten Standards zu garantieren, ist die multilaterale Zusammenarbeit von Wirtschaft, Politik und Gesellschaft unbedingt notwendig. Immerhin birgt Künstliche Intelligenz die wohl größten Potentiale unserer Zeit – für das wirtschaftliche Wachstum, die Gesundheitsforschung, die Umwelt und unseren Alltag.

Künstliche Intelligenz programmieren

Aus IT-Perspektive gilt die Programmierung von KI-basierten Softwaretechnologien als eine Art Königsdisziplin. Jedoch sind die Tools, die zur Entwicklung einer Künstlichen Intelligenz hilfreich sind, in zahlreichen Fällen öffentlich frei verfügbar. Besondere Relevanz hat dabei die gut lesbare Programmiersprache Python; deren im Web frei zugänglichen Programmierbibliotheken ermöglichen die Auswertung von großen Datenmengen und sind damit prädestiniert für Maschinelles Lernen. Profi-Entwickler vertrauen auf Tensorflow, einer End-to-End Opensource Plattform für Maschinelles Lernen, die unter anderem auch hinter Google-Anwendungen steckt. Tensorflow wurde ursprünglich vom Google Brain Team für interne Zwecke programmiert, jedoch später unter einer Apache-2 Opensource Lizenz frei zugänglich veröffentlicht.

Quellen:

What is machine learning? (MIT Technology Review)

What is AI? We drew you a flowchart to work it out (MIT Technology Review)

The Key Definitions Of Artificial Intelligence (AI) That Explain Its Importance (Forbes)

Artificial intelligence (Britannica)

Understanding Natural Language Understanding (NLP Stanford Group)