Grundlagen der Statistik enthält Materialien verschiedener Vorlesungen und Kurse von H. Lohninger zur Statistik, Datenanalyse und Chemometrie .....mehr dazu. |
![]() |
Home ![]() ![]() ![]() ![]() |
|||
Siehe auch: Generalisierung und Overtraining, Extrapolation | |||
Search the VIAS Library | Index | |||
Neuronale Netze und ExtrapolationAuthor: Hans Lohninger
Neuronale Netze weisen - im Vergleich zu linearen
Approximationsmethoden - einen großen Nachteil auf: Sie können nicht
extrapolieren. Das ist darauf zurückzuführen, dass ein neuronales Netzwerk fast
jede beliebige Funktion durch Anpassung seiner Parameter an die vorgegebenen
Trainingsdaten darstellen kann. Für Bereiche des Variablenraums, für die es
keine Trainingsdaten gibt, ist das Ergebnis des neuronalen Netzwerks
unzuverlässig. ![]() Grundsätzlich ist der Datenraum, der durch trainierte neuronale Netzwerke verarbeitet werden kann, in zwei Bereiche unterteilt:
![]()
Um das Extrapolationsproblem kontrollieren zu können, sollte man den Umfang
des Variablenraumes, in dem die Trainingsdaten verfügbar sind, in einer
geeigneten Weise festhalten. Dies kann durch die Berechnung der konvexen Hülle
der Trainingsdaten erfolgen. Wenn unbekannte Daten, die dem Netz vorgegeben
werden, in dieser Hülle liegen, kann das Ergebnis des Netzes als verlässlich
angesehen werden. Das Konzept der konvexen Hülle ist dennoch nicht
zufriedenstellend, da diese Hülle schwer zu berechnen ist und keine Lösung für
Probleme bietet, bei denen der Eingabedatenraum konkav ist. Eine bessere
Methode, vorgeschlagen von Leonard et al.
|
|||
Home ![]() ![]() ![]() ![]() |