CC BY-SA 3.0
Erstellt: 15. September 2010

Damit künstliche, neuronale Netze in der Lage sind, ihre Modell-Parameter so zu verändern dass man von einem lernenden Modell sprechen kann, verwendet man oft Sigmoidfunktionen als Aktivierungsfunktion. Sigmoidfunktionen, auch Schwanenhalsfunktionen oder logistische Funktionen, sind mathematische Funktionen mit einem S-förmigen Graphen. Sigmoid-Funktionen sind reelle, beschränkte und stetig differenzierbare Funktionn.

Die Funktionsgleichung lautet

S(x) = \frac{1}{1+e^{–x}} = \frac{e^{x}}{1+e^{x}}

und ist eine transformierte Tangensfunktion. Hier ist e = 2,71828… die Eulersche Zahl, eine der wichtigeren Zahlen der Mathematik, die in vielen Kontexten immer wieder eine besondere Rolle spielt.

Der sogenannten Backpropagation-Algorithmus, ein Lernmechnanismus der neuronalen Netzen das „Lernen“ ermöglicht, kann künstliche Neuronen gewichtet verarbeiten. Die Werte der künstlichen Neuronen sind nach einen „Durchlauf“ anschließend „verbessert“.
Praktisch gesehen „lernt“ ein Netz hauptsächlich durch Modifikation der Gewichte der Neuronen; die Sigmoidfunktion wird auf die Summe der gewichteten Eingabewerde angewendet. Sie wird aufgrund ihrer Eigenschaft der Differenzierbarkeit bevorzugt.
Dadurch können nichtlineare Funktionen über den Backpropagation-Algorithmus, der durch iterative oder rekursive Vorgehensweise aus vorhandenen Ein- und gewünschten Ausgangswerten alle Parameter der Funktion zu bestimmen versucht, neue und genauere Parameterwerte erlernen.

Bereits in den frühen 1940er Jahren begann das Interesse der KNN aufzukommen, aber auch heute spielen sie seit 2009 bei der Mustererkennung und dem maschinellen Lernen eine große Rolle. Klassische Beispiele sind die Bilderkennen, Texterkennung, Gesichtserkennung und Spracherkennung; einige Hunderttausend bis Millionen Pixel werden hier in eine nur keine Auswahl erlaubter Ergebnisse überführt.

Die weitere Anwendungsbreite ist schier enorm:
Regelung und Analyse komplexer Prozesse
Schrifterkennung (OCR)
Spracherkennung
Data-Mining
Zeitreihenanalyse (Wetter, Aktien usw.)
Sprachsynthese
Gesichtserkennung
Gesichtsaustausch
Klangsynthese
Frühwarnsysteme
Fehlererkennung
Optimierung
Klassifikation
Bildverarbeitung und Mustererkennung
Maschinenübersetzung
Informatik: Bei Robotik, virtuellen Agenten und KI-Modulen in Spielen und Simulationen
Medizinische Diagnostik, Epidemiologie und Biometrie
Strukturgleichungsmodell zum Modellieren von sozialen oder betriebswirtschaftlichen Zusammenhängen

Doch bei der Vorhersage von Zufällen oder Pseudozufällen kommen KNNs an ihre Grenzen.

Weitere spannende Erklärbärvideos über KNNs gibt es z. B. auf youtube.,

Künstliche neuronale Netze, komplexere Erklärung

Künstliche neuronale Netze – Computer lernen sehen, einfache Erklärung, 2017

Teile diesen Beitrag