Konjugiertes Gradientenverfahren für differenzierbare Funktionen
Im Fall von nichtquadratischen, aber zweimal stetig differenzierbaren Funktionen
 begnügen wir uns damit, kritische Punkte  von
begnügen wir uns damit, kritische Punkte  von  zu bestimmen.
 zu bestimmen.
Dabei ist eine Funktion zweimal stetig differenzierbar, wenn sowohl der Gradient, als auch die Hessematrix in allen Punkten
 stetige Funktionen sind.
 stetige Funktionen sind. 
Dazu wenden wir einfach das konjugierte Gradientenverfahren solange an, bis ein Abbruchkriterium (z.B. eine bestimmte Anzahl
 an Iterationsschritten oder
eine obere Schranke
 an Iterationsschritten oder
eine obere Schranke 
 für die Norm
 
für die Norm 
 des Gradienten) erreicht ist.
 des Gradienten) erreicht ist.
Damit erhalten wir den Algorithmus:
| 
            Konjugiertes Gradientenverfahren für differenzierbare Funktionen:
           | 
| 
              
Wähle einen Startpunkt   und  und setze  und  ; Solange  und  wiederhole  ; Bestimme ein Minimum  der Funktion  ; Setze  ; Setze  ; | 
Für die Wahl von
 gibt es verschiedene Vorschläge:
 gibt es verschiedene Vorschläge:
| ![\begin{displaymath}
\makebox[42mm][l]{\emph{Hestenes-Stiefel (1952)}:}\hspace*{...
...{d}_{k-1} (\nabla_f(\vec{x}_{k}) - \nabla_f(\vec{x}_{k-1}))^T} \end{displaymath}](img134.gif) | |
| ![\begin{displaymath}
\makebox[42mm][l]{\emph{Fletcher-Reeves (1964)}:}\hspace*{5...
...))^T}
{(\nabla_f(\vec{x}_{k-1})) (\nabla_f(\vec{x}_{k-1}))^T} \end{displaymath}](img135.gif) | |
| ![\begin{displaymath}
\makebox[42mm][l]{\emph{Polak-Ribiere (1969)}:} \hspace*{5m...
...)^T}
{(\nabla_f(\vec{x}_{k-1})) (\nabla_f(\vec{x}_{k-1}))^T}
\end{displaymath}](img136.gif) | 
Allerdings ist die Minimierung der Funktion
 hier
nicht mehr so einfach wie im quadratischen Fall.
 hier
nicht mehr so einfach wie im quadratischen Fall. 
Um das Minimum
 zu bestimmen, bietet sich z.B. das
(eindimensionale) Newton-Verfahren an,
 zu bestimmen, bietet sich z.B. das
(eindimensionale) Newton-Verfahren an, d.h. wir berechnen eine Folge von Werten
 gemäss
 gemäss 
 
 .
. 
Dieses Verfahren ist jedoch nicht sehr sicher, da es uns auch ein Maximum oder auch ein
 liefern kann.
 liefern kann. 
Wir werden daher im folgenden ein anderes Verfahren zur Schrittweitenbestimmung vorstellen,
welches wir anwenden, falls uns das Newton-Verfahren ein Maximum oder ein
 liefert.
liefert.
Dieses Verfahren bestimmt ein
 so, dass die beiden Bedingungen
 so, dass die beiden Bedingungen 
 
 und
 und  gesetzt)
 gesetzt) 
Die Bedingungen (W1) und (W2) werden als strenge Wolfe-Powell-Bedingungen bezeichnet.
Für die erste Ableitung der Funktion
 gilt
 gilt
 
 und für die zweite
 .
.
| 
            Line-Search Algorithmus zur Schrittweitenbestimmung:
           | 
| 
    
Setze   ,  und  ; Solange  wiederhole   Falls  oder (  und  ) Setze  und stoppe; Falls   Setze  und stoppe; Falls   Setze  und stoppe; Setze  ; Setze  und stoppe; | 
| Zoom(  ,  ): Setze  ; Solange  wiederhole   Setze  ; Falls   Setze  ; sonst Setze  ; Falls  oder   Setze  ; sonst Falls   Setze  ; Falls   Setze  und stoppe; Setze  ; Setze  und stoppe; | 
Es kann gezeigt werden, dass dieser Algorithmus mit einer Schrittweite  ,
welches die strengen Wolfe-Powell-Bedingungen
,
welches die strengen Wolfe-Powell-Bedingungen 
erfüllt, terminiert, falls  eine Abstiegsrichtung ist,
entlang der
 eine Abstiegsrichtung ist,
entlang der  nach unten beschränk ist.
 nach unten beschränk ist. 
Falls der Algorithmus jedoch mit  terminiert, so ist entweder
 terminiert, so ist entweder
 keine Abstiegsrichtung
 keine Abstiegsrichtung 
oder 
 nicht
nach unten beschränkt.
 nicht
nach unten beschränkt. 
Da das konjugierte Gradientenverfahren aber immer Abstiegsrichtungen  berechnet, muss der zweite Fall gelten.
berechnet, muss der zweite Fall gelten. 
Dann ist aber auch die Funktion  in Richtung von
 in Richtung von  nicht nach unten
beschränkt und das Gradientenverfahren bricht erfolglos
 nicht nach unten
beschränkt und das Gradientenverfahren bricht erfolglos 
 
ab, d.h. vom Startvektor
 aus kann das Verfahren kein strenges lokales Minimum finden.
 aus kann das Verfahren kein strenges lokales Minimum finden.
|  |  | 







