Quadratsumme, denn dieses Verfahren entspricht bereits einer Minimierung des
CE-Fehlers.
Das Training mit den Beispielen aus dem letzten Abschnitt wurde für die FLN und MLP mit CE-Fehlermaß mit logistischer Aktivierungsfunktion des Komparatorneurons erneut durchgeführt. Tabelle 12.2 zeigt die Ergebnisse des Trainings. Auch hier wurde die Aktivierung auf 0 gesetzt, wenn die Netzeingabe größer als war, d.h. nur die Beispiele wurden trainiert die falsch oder ›beinahe falsch‹ klassifiziert wurden. Für die fuzzy-logischen Netze führt dies zu ähnlichen Ergebnissen wie die Quadratsumme und semilineare Funktion. Ein Test, in dem auch alle korrekt bewerteten Beispiele in das Training einbezogen wurden, führte für die FLN nicht zu einer Verbesserung der Trainingsergebnisse.
Die Verwendung der Trainingsmethode für Klassifikationsaufgaben ergab insgesamt keine Verbesserung der Ergebnisse. Die FLN zeigten insgesamt etwas schlechtere Ergebnisse. Die MLP erzeugten mehr Fehler auf der Trainingsmenge als mit Quadratsummenfehler, die Generalisierung für das MLP3/3 verbesserte sich, erreichte aber nicht ganz das Niveau der FLN. 12.4. Wirkung der NetzparameterEs gibt einige Parameter im Training, deren Wirkung im folgenden erörtert werden soll. Sie betreffen Backpropagation sowie relatives und iteratives Training.
|