Optimierungsmethoden
Author: Hans Lohninger
Die Bedeutung der Optimierung in der Datenanalyse spiegelt sich in der großen
Anzahl an Methoden und Algorithmen wider, die zur Lösung von
Optimierungsproblemen entwickelt wurden. Hier ein kurzer Überblick über
Optimierungsmethoden:
- Mathematische Lösungen in geschlossener Form: Sie sind nur
anwendbar, wenn die zu optimierende Funktion im mathematischen Sinne bekannt
ist. Maxima oder Minima können durch Differenzierung der Funktion und
Nullsetzen der ersten Ableitung berechnet werden.
- Brute-Force-Ansatz:
Das Optimum wird durch Berechnung aller möglichen Kombinationen berechnet.
Dieser Ansatz ist nur bei einem beschränkten Phasenraum möglich.
- Gradientenabstiegsmethoden:
Diese Methoden basieren auf der klassischen Idee, einen absteigenden
Gradienten entlangzugehen, um ein Minimum zu finden.
Gradientenabstiegsmethoden tendieren dazu, in einem lokalen Minimum hängen zu
bleiben.
- Monte-Carlo-Methoden:
Die Suche im Phasenraum erfolgt durch zufällige Suche.
- Kombinationsansätze:
Genetische Algorithmen kombinieren Gradientenabstiegs- und
Monte-Carlo-Methoden. Am effizientesten sind sie bei großen Phasenräumen.
Bevor eine der spezifischen Optimierungsmethoden ausgewählt wird, muss
eine wichtige Einschränkung bedacht werden: Es macht einen großen Unterschied,
ob der Wert einer Response-Funktion durch
Einsetzen der Parameter in eine mathematische Gleichung erhalten oder ob ein
reales Experiment mit neuen Parametersätzen (wie es zum Beispiel bei
Optimierungsprozessen der chemischen Industrie der Fall ist) durchgeführt wird.
|