Neuronale Netze (auch: Künstliche neuronale Netze oder Artificial Neural Networks, ANN) stellen einen wichtigen Entwicklungszweig im Bereich der Künstlichen Intelligenz dar und sind insbesondere Forschungsgegenstand der sogenannten Neuroinformatik, einer verhältnismäßig neuen Querschnittsdisziplin zwischen Informatik und Neurobiologie.
Neuronale Netze befähigen einen Computer mithilfe von speziell entwickelten Algorithmen und Deep Learning zur hocheffizienten Mustererkennung in Big Data. Neuronale Netze können folglich als eine Vielzahl von Algorithmen, die vage nach dem Vorbild des menschlichen Gehirns modelliert sind, Muster in großen Datenmengen zu erkennen.
Eng verwoben mit dem Begriff neuronale Netze ist das Deep Learning, das als Verfahren beschrieben werden kann, bei dem neuronale Netze in mehreren Ebenen übereinander geschichtet werden. Daher wird im Englischen häufig auch der Begriff “Stacked Neural Networks” synonym für Deep-Learning-Verfahren verwendet. Die Schichtenstruktur ermöglicht es, immer komplexere Informationen in großen Datensätzen analysieren bzw. clustern zu können – z.B. um den Inhalt eines Bilds oder ein Gesicht maschinell zu erkennen – , aber dazu später mehr.
Obwohl ihr Name anderes vermuten lässt, ist die Struktur von neuronalen Netzen streng genommen (noch) nicht 1:1 an ihrem biologischen Pendant, den Neuronen im Nervensystem eines Lebewesens, angelehnt – vielmehr nützt die Metapher der Verdeutlichung dessen, wie verschiedene (künstliche oder natürliche) Neuronen im Verbund miteinander zusammenarbeiten. Sowohl Tiefenstruktur als auch Funktionsweise der Netze unterscheiden sich jedoch bis dato voneinander: Arbeiten Computersysteme derzeit noch weitestgehend sequentiell, sind biologischen neuronale Netze zur Parallelverarbeitung von massiven Mengen an Informationen fähig.
Neuronale Netze interpretieren große Mengen an (in der Regel ungelabelten) Rohdaten durch ein spezifische Form des maschinellen Klassifizierens: Durch den mehrschichtigen Aufbau identifiziert das neuronale Netze aus Trainingsdaten zunächst grundsätzliche Muster und leitet nachfolgende daraus selbstständig noch komplexere Muster ab. Die Besonderheit: In Analogie zum biologischen Nervensystem sind neuronale Netze dazu in der Lage, die Stärke der Verbindungen untereinander passgenau zu ändern, je nach Wichtigkeit der Information, die sie vermitteln sollen.
Soll beispielsweise ein Gesicht in auf einem Foto analysiert werden, würde die erste Schicht der Rechenknote lediglich Unterschiede in den Helligkeitswerten der einzelnen Pixel registrieren. Die zweite Schicht hingegen würde vertikale und horizontale Linien erkennen, zu denen einige Pixel miteinander verbunden sind, während die dritte Schicht Formen und Muster erkennt usw. Auf diese Weise kann das System auf Basis von massiven Bildermengen lernen, dass sich z.B. das sich die Nase oberhalb der Lippe befindet und ein Gesicht zwei Augen hat.
Da die Inhalte dieser Schichten zunehmend abstrakt werden, bezeichnet man diese Ebenen auch als verdeckte Schichten (oder: Hidden Layers). Durch das Zusammenwirken mehrerer dieser Schichten können zwischen den Schichten „neue“ Informationen gebildet werden, die eine Art abstrakte Repräsentation der ursprünglichen Informationen bzw. der Eingangssignale darstellen. Selbst Entwicklerinnen und Entwickler sind daher nicht oder nur noch sehr begrenzt dazu in der Lage, nachzuvollziehen, was die Netze dabei überhaupt lernen oder wie sie zu einem bestimmten Ergebnis gekommen sind. Man spricht hier auch von dem sogenannten Black-Box-Charakter von KI-Systemen.
Die Fortschritte bei neuronalen Netzen tragen heute maßgeblich zu den großen Entwicklungssprüngen bei, die KI-Systeme heute aufzuweisen haben. Doch an sich ist die Basistechnologie von neuronalen Netzen nicht neu: Bereits in den frühen 40er Jahren haben die US-amerikanischen Forscher Warren McCulloch und Walter Pitts mit der Beschreibung des ersten Neuronenmodells den Grundstein der Neuroinformatik gelegt.
Aufgrund ihrer hohen Leistungsfähigkeit in Deep-Learning-Verfahren werden neuronale Netze insbesondere in jenen Bereichen und Problemstellungen angewandt, in den äußerst komplexe Muster in riesigen Datenmengen analysiert werden sollen. Einsatzmöglichkeiten von neuronalen Netzen finden sich damit typischerweise in der Gesichts-, Objekt- oder Spracherkennung (Natural Language Processing) und der automatischen Texterstellung.
Im Gebiet der Sprachverarbeitung führt die Implementation von neuronalen Netzen nicht nur bei der maschinellen Übersetzung eines Textes in andere Sprachen zu signifikanten Fortschritten. Auch im Bereich der End2End-Textgenerierung (Natural Language Generation) werden große Hoffnungen an die Implementation von neuronalen Netzen geknüpft: Der End2End zielt darauf ab, dass ein NLG-System sich den Prozess der Textgenerierung von den strukturierten Daten bis hin zum fertigen Text selbst aneignet, ohne dass menschliches Zutun notwendig wäre.
Wie Maschinen lernen lernen (Spektrum)
5 Essential Neural Network Algorithms (ODSC - Open Data Science)