Maschinelles Lernen und Datenanalyse

In der Werkstoff- und Prüftechnik

Prof. Dr. Stefan Bosse

Universität Koblenz - FB Informatik - Praktische Informatik

Universität Siegen - FB Maschinenbau / LMW

1 / 44

Stefan Bosse - Automatische Schadensdiagnostik - Modul F ::

20 Zusammenstellung von sechs unterschiedlichen Netzwerkarchitekturen. Der Name der Architektur steht über der Grafik, darunter folgt der hauptsächliche Anwendungsbereich.

2 / 44

Stefan Bosse - Automatische Schadensdiagnostik - Modul F Zustandsbasierte Netze ::

Zustandsbasierte Netze

Bisher wurden nur "vorwärtsgerichtete" ANN betrachtet (Feed forward/ FF-ANN)

Die Ausgänge von FF-ANN hängen nur von aktuellen Eingängen ab!

Rückgekoppelte ANN (Recurrent / RNN) besitzen Zustand und Gedächtnis!

Eignung für Daten- und Zeitserienprädiktion!

3 / 44

Stefan Bosse - Automatische Schadensdiagnostik - Modul F Zustandsbasierte Netze :: Wiederholung: FF-ANN

Wiederholung: FF-ANN

  • Ein vorwärtsgekoppeltes ANN (Feed forward) besteht aus Neuronen die jeweils durch Funktionen f(i):io repräsentiert werden können.

  • Die Funktionen f werden als azyklischer gerichteter Graph dargestellt (also das NN), d.h., kein Neuron hat ein Eingangssignal von nachfolgenden Neuronen (die das Ausgangssignal dieses Neurons enthalten)

D.h: Das aktuelle Ausgangssignal y eine FF-ANN hängt nur von den aktuellen Eingangssignalen x ab!

4 / 44

Stefan Bosse - Automatische Schadensdiagnostik - Modul F Zustandsbasierte Netze :: Wiederholung: FF-ANN

5 / 44

Stefan Bosse - Automatische Schadensdiagnostik - Modul F Zustandsbasierte Netze :: Recurrent ANN: Die Rückkopplung

Recurrent ANN: Die Rückkopplung

  • Ausgänge von Ausgangs- oder inneren Neuron werden auf Eingänge von vorherigen Neuronen gekoppelt

  • Dadurch werden die Netzwerke zustandsbasiert, d.h., die aktuellen Ausgänge hängen neben den aktuellen Werten der Eingänge von der Historie der Werte von Ein- und Ausgängen ab!

  • Recurrent ANN (RNN) sind durch hohe "Instabilität" schwierig mit gradientenbasierten Verfahren zu trainieren!

  • Daher im Laufe der Zeit verbesserte Architekturen wie LSTM oder GRU Netzwerke

6 / 44

Stefan Bosse - Automatische Schadensdiagnostik - Modul F Zustandsbasierte Netze :: LSTM Netzwerke

LSTM Netzwerke

  • Long-short-term Memory (LSTM) Netzwerke bilden eine bekannte Architektur die:
    • Für die Daten- und Zeitserienprädiktion verwendbar sind
    • Mit gradientenbasierten Trainingsverfahren einigermaßen stabil (konvergent) trainiert werden können

Daten- und Zeitserien

  • Es sei {xn}t eine Serie von Eingabedaten (z.B. zeitaufgelöstes Sensorsignal einer Ultraschallmessung), d.h. {xn}={x1,x2,..,xt}
  • Die einzelnen Werte (skalar oder vektoriell) sind aufeinander folgend → Ordnungsrelation
7 / 44

Stefan Bosse - Automatische Schadensdiagnostik - Modul F Zustandsbasierte Netze :: LSTM Netzwerke

fδ({si}ni,n):snm,snm+1,..snsn+δ

Datenserie und Prädiktion s(n+δ)

8 / 44

Stefan Bosse - Automatische Schadensdiagnostik - Modul F Zustandsbasierte Netze :: LSTM Netzwerke

  • Neben der Prädiktion von "zukünftigen" Entwicklungen einer Variable xi kann auch eine zukünftige Prognostik einer anderen Zielvariable yi erfolgen:

fδ({xi}ni,n):{xnm,xnm+1,..xn}yn+δ

  • Etwaige Zielvariablen könnten aus dem Signal abgeleitete Eigenschaften (Merkmale) sein:
    • Schadensinformation
    • Änderung einer zweiten Sensorvariable
    • Zustandsvariable
    • Veränderung von Betriebsbedingungen
    • Prozessparameter
9 / 44

Stefan Bosse - Automatische Schadensdiagnostik - Modul F Zustandsbasierte Netze :: Netzwerkarchitekturen

Netzwerkarchitekturen

(Oben) Die Datenserie kann sequentiell (in ein RNN/LSTM) oder auch (Unten) parallel in ein FNN eingegeben werden

10 / 44

Stefan Bosse - Automatische Schadensdiagnostik - Modul F Zustandsbasierte Netze :: LSTM Zelle

LSTM Zelle

  • Eine LST Zelle besteht aus:

    • Einer "Speicherzelle"
    • Mehreren Gattern die aktiv Verbindungen (Kanten) zwischen Neuronen steuern, d.h., effektiv das Kantengewicht in Abhängigkeit von Ausgangswerten von Neuronen verändern /Ventile/
  • Ein wichtige Rolle bei der Speicherung vergangener Daten (Gedächtnis) ist das Vergessen gesteuert durch das "Forget Gate"

Beispiel für eine "gedämpfte" Gedächtnisfunktion: Ein Tiefpassfilter 1. Ordnung

f(x,n)=f(n1)α+βx

11 / 44

Stefan Bosse - Automatische Schadensdiagnostik - Modul F Zustandsbasierte Netze :: LSTM Zelle

  • Der Parameter β=(0,1) bestimmt den Einfluss neuer Werte x und der Parameter α=(0,1) bestimmt den Einfluss alter Werte (Vergessen); i.A. α=1-β