- 174 -Weyde, Tillman: Lern- und wissensbasierte Analyse von Rhythmen 
  Erste Seite (i) Vorherige Seite (173)Nächste Seite (175) Letzte Seite (247)      Suchen  Nur aktuelle Seite durchsuchen Gesamtes Dokument durchsuchen     Aktuelle Seite drucken Hilfe 

10.2.3.  Klassifikation oder Regression

Bei relativem und iterativem Training von Bewertungen sind zwei Auffassungen der Lernaufgabe möglich. Man kann versuchen, den Betrag der Fehlbewertung zu minimieren, dann handelt es sich um eine Regressionsaufgabe, oder die Zahl der Fehlbewertungen, dann geht es um ein Klassifikationsproblem.

Für ein Regressionsproblem ist die quadratische Summe der Abweichungen ein geeignetes Fehlermaß. Man hält damit den Fehlerbetrag für jedes Beispiel klein, da die Ableitung des Gesamtfehlers nach der Fehlbewertung eines Beispiels proportional zur Fehlbewertung ist. Es wird hier implizit vorausgesetzt, daß große Aktivierungen des Komparatorneurons auch großen Fehlern der relativen Bewertung entsprechen. Dies ist aber nicht notwendigerweise der Fall. Beim Training mit relativen Bewertungen werden keine Informationen darüber verwendet, wieviel die EI besser bewertet werden sollte als die SI. Im Fall des iterativen Trainings steht diese Information auch nicht zur Verfügung, da der Experte keinen Vergleich vornimmt sondern nur die EI vorgibt. Daher wird als Zielwert des Komparatorneurons 0 angenommen, obwohl der Zielwert der relativen Bewertung t := t(xr) - t(xl) eigentlich negativ ist. Die Netzeingabe netKn des Komparatorneurons für ein Trainingsbeispiel n stellt also nur einen Anteil der relativen Fehlbewertung für ein Interpretationspaar aus EI und SI dar, nämlich netKn = y(xrn) - y(xln). netKn ist bei einem Fehlurteil des Systems positiv, der Zielwert tn dagegen negativ. Da der Zielwert der Bewertung t für verschiedene Trainingsbeispiele unterschiedlich groß sein kann, ist es möglich, daß für den gesamten Bewertungsfehler en := netKn - tn bei zwei relativen Beispielen n und m gilt en < em bei netKn > netKm. Das bedeutet, daß kleine Fehler einen stärkeren Einfluß auf das Training haben können als große Fehler.

Eine Alternative ist daher, die Aufgabe als Klassifikationsproblem zu interpretieren. Man klassifiziert die Beispiele, indem man für jedes Paar (xl,xr) feststellt, ob die rechte Interpretation, die EI, um e besser bewertet wird als die linke. Alle iterativ erzeugten relativen Beispiele sind in der Klasse der Beispiele mit besserer linker Eingabe. Das Komparatorneuron ist ein Indikator für Klassen mit besserer rechter Eingabe und sollte daher bei Bewertung der Beispiele immer 0 ergeben. Ziel dieses Ansatzes ist, die Zahl der falsch klassifizierten Paare zu minimieren. Dazu wird eine sigmoide Aktivierungsfunktion des Komparatorneurons verwendet, so daß sich für Beispiele mit korrekter relativer Bewertung eine Ausgabe nahe 0 und für Beispiele mit falscher Bewertung eine Ausgabe nahe 1 ergibt. Das dazu geeignete Fehlermaß ist die Cross-Entropie1

 sum 
 CE = - (tn ln onK + (1- tn)ln(1 - onK)),
 n
(10.11)

wobei tn den Zielwert und oKn die Ausgabe für das n-te Trainingsbeispiel bezeichnet. Da im ISSM für alle Beispiele t = 0 gilt, reduziert sich das CE-Maß in unserem


Erste Seite (i) Vorherige Seite (173)Nächste Seite (175) Letzte Seite (247)      Suchen  Nur aktuelle Seite durchsuchen Gesamtes Dokument durchsuchen     Aktuelle Seite drucken Hilfe 
- 174 -Weyde, Tillman: Lern- und wissensbasierte Analyse von Rhythmen