Geränderte Hesse-Matrix
Die geränderte Hesse-Matrix (engl. bordered Hessian) dient zur Klassifikation von stationären Punkten bei mehrdimensionalen Extremwertproblemen mit Nebenbedingungen. Sie ist mit der „normalen“ Hesse-Matrix verwandt. Im Gegensatz zur Hesse-Matrix, welche auf positive oder negative Definitheit untersucht wird, ist bei der geränderten Hesse-Matrix die Vorzeichenfolge der Determinante von gewissen Hauptminoren entscheidend.
Genauer: Liegen bei einem Extremwertproblem <math>m</math> Nebenbedingungen vor, so betrachtet man die Folge der Vorzeichen derjenigen führenden Hauptminoren von <math>k</math>-ter Ordnung mit <math>k > 2 m </math>.
Untersucht man beispielsweise eine Funktion nach einer Variablen mit einer Nebenbedingung, muss man wegen <math>k > 2 \cdot 1 = 2</math> die Vorzeichen bei den führenden Hauptminoren erst ab 3. Ordnung betrachten (siehe auch nachfolgendes Beispiel).
Sei <math>U\subset\mathbb{R}^n</math> offen. Die Funktion <math>f:U\rightarrow\mathbb{R}</math> sei zweimal stetig differenzierbar und sie habe in <math>a\in U</math> ein lokales Extremum unter der Nebenbedingung <math>F=0</math>, wobei <math>F=(F_1,\ldots,\,F_m):U\rightarrow\mathbb{R}^m</math> mit <math>m<n</math>. Sei nun
- <math>
L(\lambda_1,\ldots,\,\lambda_m,\,x):=f(x)-\sum_{i=1}^m\lambda_iF_i(x) </math> die Lagrange-Funktion für <math>x\in U</math> mit <math>m</math> Hilfsgrößen <math>\lambda_1,\ldots,\lambda_m</math>, die auch Lagrange-Multiplikatoren oder Lagrange-Parameter genannt werden. Die geränderte Hessesche Matrix ist dann die <math>(n+m)\times(n+m)</math>-Matrix
- <math>
\begin{align} \operatorname{\overline{H}}(\lambda_1,\ldots,\lambda_m,\,a)&:=\left(\begin{array}{cccccc} 0 & \ldots & 0 & -\frac{\partial F_1}{\partial x_1} & \ldots & -\frac{\partial F_1}{\partial x_n} \\ \vdots & \ddots & \vdots & \vdots & & \vdots \\ 0 & \ldots & 0 & -\frac{\partial F_m}{\partial x_1} & \ldots & -\frac{\partial F_m}{\partial x_n} \\ -\frac{\partial F_1}{\partial x_1} & \ldots & -\frac{\partial F_m}{\partial x_1} & \frac{\partial^2 L}{\partial x_1^2} & \ldots & \frac{\partial^2 L}{\partial x_1\partial x_n} \\ \vdots & & \vdots & \vdots & \ddots & \vdots \\ -\frac{\partial F_1}{\partial x_n} & \ldots & -\frac{\partial F_m}{\partial x_n} & \frac{\partial^2 L}{\partial x_n\partial x_1} & \ldots & \frac{\partial^2 L}{\partial x_n^2} \end{array}\right)(\lambda_1,\ldots,\lambda_m,\,a). \end{align} </math> Die auffallenden Nullen oben links sind die zweiten Ableitungen von <math>L</math> nach den Hilfsgrößen <math>\lambda_1,\ldots,\lambda_m</math>; diese zweiten Ableitungen verschwinden aber nach Konstruktion.
Form (2-dimensionaler Fall)
Für eine zweidimensionale Funktion mit einer Nebenbedingung hat die geränderte Hesse-Matrix folgende Gestalt.
Sei <math> L(x_1,x_2) = f(x_1,x_2) + \lambda g(x_1,x_2)</math> die Lagrangefunktion, wobei <math> f:\mathbb R^2 \rightarrow \mathbb R, (x_1,x_2)\mapsto f(x_1,x_2)</math> eine beliebige zweidimensionale Funktion und <math> g(x_1,x_2) = 0\,</math> die Nebenbedingung ist, unter welcher optimiert werden soll.
- <math>
\operatorname{\bar{H}}(x)= \begin{pmatrix} 0&g_{x1}&g_{x2}\\ g_{x1}&L_{x1x1}&L_{x1x2}\\ g_{x2}&L_{x2x1}&L_{x2x2}\\ \end{pmatrix} = \begin{pmatrix} 0&\frac{\partial g}{\partial x_1}&\frac{\partial g}{\partial x_2}\\[1.5ex] \frac{\partial g}{\partial x_1}&\frac{\partial^2 L}{\partial x_1^2}&\frac{\partial^2 L}{\partial x_1\partial x_2}\\[1.5ex] \frac{\partial g}{\partial x_2}&\frac{\partial^2 L}{\partial x_2\partial x_1}&\frac{\partial^2 L}{\partial x_2^2}\\ \end{pmatrix} </math>
Die <math>0</math> auf der Position oben links in der Matrix kommt durch <math>\operatorname{\bar{H}}_{11}=\frac{\partial^2L}{\partial\lambda^2}</math> zustande.
Eine stationäre Stelle <math>x_0</math> von <math>f</math> ist dann unter der Nebenbedingung <math>g</math>
- lokales Maximum, wenn <math> \det \bar{H}(x_0)>0 </math>
- lokales Minimum, wenn <math> \det \bar{H}(x_0)<0 </math>
- unentscheidbar, wenn <math> \det \bar{H}(x_0)=0 </math>
Weblinks
- Geränderte Hesse-Matrix. Wirtschaftsuniversität Wien.
- Robert Koschig: Das Optimierungsverfahren mit Lagrange-Multiplikatoren.