- 106 -Weyde, Tillman: Lern- und wissensbasierte Analyse von Rhythmen 
  Erste Seite (i) Vorherige Seite (105)Nächste Seite (107) Letzte Seite (247)      Suchen  Nur aktuelle Seite durchsuchen Gesamtes Dokument durchsuchen     Aktuelle Seite drucken Hilfe 

f --> f1       a1 = 1
f --> f2       a2 = 1
f1  ox f2 --> fout      aout = mG(f1  ox f2 --> fout)
(5.52)

ersetzen. Daher bedeutet auch die folgende Forderung keine Einschränkung:

Forderung 5.3.3 Ist eine Regel f1  ox ...  ox fn --> y mit positivem Wahrheitswert in einem Programm enthalten, so sind f1,...,fn paarweise verschieden.

Da die Forderungen 5.3.1 bis 5.3.3 keine Einschränkungen für die Formulierung von fuzzy-logischen Programmen sind, läßt sich jedes Programm so anpassen, daß es diesen Forderungen genügt. Da jede Aussage aufgrund der Forderung 5.3.2 in maximal einer Regel in der Konklusion auftaucht, kann dem zugeordneten Neuron in eindeutiger Weise eine Netzeingabefunktion zugewiesen werden, die durch die Auswertungsfunktion des logischen Konnektivs der Regel bestimmt wird.

Da Backpropagation für feed-forward Netze definiert wurde, muß noch die folgende Forderung erfüllt sein:

Forderung 5.3.4 Ein fuzzy-logisches Programm, das in ein Neuronales Netz transformiert werden soll, darf keine Zyklen enthalten.

Diese Forderung stellt eine echte Einschränkung bei der Formulierung von Fuzzy-logischen Programmen dar. Allerdings ist die Vermeidung von Zyklen auch in fuzzy-logischen Programmen sinnvoll. Forderung 5.3.4 garantiert jedoch, daß die Propagation durch das Netz in endlich vielen Schritten abgeschlossen ist.

Alle Neuronen im generierten Netz, zu denen keine Verbindungen führen, können als Eingabe-Neuronen gekennzeichnet werden. Entsprechend sind alle Neuronen, die keine ausgehenden Verbindungen besitzen, Ausgabe-Neuronen. Alle übrigen Neuronen sind sog. versteckte Neuronen.

5.3.2.  Backpropagation für fuzzy-logische Netze

Im vorangegangenen Abschnitt wurde der Zusammenhang zwischen fuzzy-logischen Programmen und Neuronalen Netzen erläutert. Es wurde ebenfalls erwähnt, daß der Fehler der so entstandenen fuzzy-logischen neuronalen Netze durch Backpropagation minimiert werden kann. Dennoch gibt es bei diesen Netzen einige Unterschiede zum Multi-Layer-Perceptron, die eine Anpassung des Lernalgorithmus nötig machen.

Fuzzy-logische neuronale Netze sind zwar feed-forward Netze, sie weisen jedoch nicht die übliche Architektur eines MLP mit voll vernetzten Schichten auf. Backpropagation ist allerdings anwendbar, solange das Netz keine Zyklen enthält. Es muß nur gewährleistet sein, daß bei der Berechnung einer Gewichtsänderung  /_\ wij alle benötigten Delta-Werte dk bereits berechnet worden sind.

Die festen Gewichte in fuzzy-logischen neuronalen Netzen dürfen durch das Training nicht verändert werden. Die Gewichtsänderungen werden zwar berechnet, aber nicht durchgeführt. Dadurch wird sichergestellt, daß die benötigten Delta-Werte


Erste Seite (i) Vorherige Seite (105)Nächste Seite (107) Letzte Seite (247)      Suchen  Nur aktuelle Seite durchsuchen Gesamtes Dokument durchsuchen     Aktuelle Seite drucken Hilfe 
- 106 -Weyde, Tillman: Lern- und wissensbasierte Analyse von Rhythmen