Orthonormalbasis

Eine Orthonormalbasis (ONB) oder ein vollständiges Orthonormalsystem (VONS) ist in den mathematischen Gebieten lineare Algebra und Funktionalanalysis eine Menge von Vektoren aus einem Vektorraum mit Skalarprodukt (Innenproduktraum), welche auf die Länge eins normiert und zueinander orthogonal (daher Ortho-normal-basis) sind und deren lineare Hülle dicht im Vektorraum liegt. Im endlichdimensionalen Fall ist dies eine Basis des Vektorraums. Im unendlichdimensionalen Fall handelt es sich nicht um eine Vektorraumbasis im Sinn der linearen Algebra.

Verzichtet man auf die Bedingung, dass die Vektoren auf die Länge eins normiert sind, so spricht man von einer Orthogonalbasis.

Der Begriff der Orthonormalbasis ist sowohl im Fall endlicher Dimension als auch für unendlichdimensionale Räume, insbesondere Hilberträume, von großer Bedeutung.

Endlichdimensionale Räume

Im Folgenden sei V {\displaystyle V} ein endlichdimensionaler Innenproduktraum, das heißt, ein Vektorraum über R {\displaystyle \mathbb {R} } oder C {\displaystyle \mathbb {C} } mit Skalarprodukt , {\displaystyle \langle {\cdot },{\cdot }\rangle } . Im komplexen Fall wird dabei vorausgesetzt, dass das Skalarprodukt linear im zweiten Argument und semilinear im ersten ist, also

λ v , w = λ ¯ v , w = v , λ w {\displaystyle \lambda \langle v,w\rangle =\langle {\bar {\lambda }}v,w\rangle =\langle v,\lambda w\rangle }

für alle Vektoren v , w V {\displaystyle v,w\in V} und alle λ C {\displaystyle \lambda \in \mathbb {C} } . Mit = , {\displaystyle \|{\cdot }\|={\sqrt {\langle {\cdot },{\cdot }\rangle }}} wird die durch das Skalarprodukt induzierte Norm bezeichnet.

Definition und Existenz

Unter einer Orthonormalbasis eines n {\displaystyle n} -dimensionalen Innenproduktraums V {\displaystyle V} versteht man eine Basis B = { b 1 , , b n } {\displaystyle B=\{b_{1},\ldots ,b_{n}\}} von V {\displaystyle V} , die ein Orthonormalsystem ist, das heißt:

  • Jeder Basisvektor hat die Norm eins:
    b i = b i , b i = 1 {\displaystyle \|b_{i}\|={\sqrt {\langle b_{i},b_{i}\rangle }}=1} für alle i { 1 , , n } {\displaystyle i\in \{1,\ldots ,n\}} .
  • Die Basisvektoren sind paarweise orthogonal:
    b i , b j = 0 {\displaystyle \langle b_{i},b_{j}\rangle =0} für alle i , j { 1 , , n } {\displaystyle i,j\in \{1,\ldots ,n\}} mit i j {\displaystyle i\neq j} .

Jeder endlichdimensionale Vektorraum mit Skalarprodukt besitzt eine Orthonormalbasis. Mit Hilfe des Gram-Schmidtschen Orthonormalisierungsverfahrens lässt sich aus jeder Basis eine Orthonormalbasis erzeugen.

Da Orthonormalsysteme stets linear unabhängig sind, bildet in einem n {\displaystyle n} -dimensionalen Innenproduktraum ein Orthonormalsystem aus n {\displaystyle n} Vektoren bereits eine Orthonormalbasis.

Händigkeit der Basis

Gegeben sei eine geordnete Orthonormalbasis B = ( b 1 , , b n ) {\displaystyle B=({b}_{1},\ldots ,{b}_{n})} von V {\displaystyle V} . Dann ist die Matrix

Q = ( b 1 b 2 b n ) {\displaystyle Q={\begin{pmatrix}{b}_{1}&{b}_{2}&\ldots &{b}_{n}\end{pmatrix}}}

gebildet aus den als Spaltenvektoren notierten Vektoren b i {\displaystyle {b}_{i}} orthogonal. Im Fall reeller Vektorräume muss dann die Determinante +1 oder −1 sein. Falls det ( Q ) = + 1 {\displaystyle \operatorname {det} (Q)=+1} bilden die Vektoren b 1 , , b n {\displaystyle {b}_{1},\ldots ,{b}_{n}} ein Rechtssystem.

Beispiele

Die Orthonormalbasis i , j , k {\displaystyle {{\vec {i}},{\vec {j}},{\vec {k}}}} im R 3 {\displaystyle \mathbb {R} ^{3}} und ein mit ihr dargestellter Vektor r = 3 i + 2 j + 3 k {\displaystyle {\vec {r}}=3{\vec {i}}+2{\vec {j}}+3{\vec {k}}}
Beispiel 1
Die Standardbasis des R 3 {\displaystyle \mathbb {R} ^{3}} , bestehend aus den Vektoren
i = e 1 = ( 1 0 0 ) ,   j = e 2 = ( 0 1 0 ) ,   k = e 3 = ( 0 0 1 ) , {\displaystyle {\vec {i}}={\vec {e}}_{1}={\begin{pmatrix}1\\0\\0\end{pmatrix}},\ {\vec {j}}={\vec {e}}_{2}={\begin{pmatrix}0\\1\\0\end{pmatrix}},\ {\vec {k}}={\vec {e}}_{3}={\begin{pmatrix}0\\0\\1\end{pmatrix}},}
ist eine Orthonormalbasis des dreidimensionalen euklidischen Vektorraums R 3 {\displaystyle \mathbb {R} ^{3}} (ausgestattet mit dem Standardskalarprodukt): Sie ist eine Basis des R 3 {\displaystyle \mathbb {R} ^{3}} , jeder dieser Vektoren hat die Länge 1, und je zwei dieser Vektoren stehen senkrecht aufeinander, denn ihr Skalarprodukt ist 0.
Allgemeiner ist im Koordinatenraum R n {\displaystyle \mathbb {R} ^{n}} bzw. C n {\displaystyle \mathbb {C} ^{n}} , versehen mit dem Standardskalarprodukt, die Standardbasis { e 1 , , e n } {\displaystyle \{e_{1},\dots ,e_{n}\}} eine Orthonormalbasis.
Beispiel 2
Die zwei Vektoren
b 1 = ( 3 5 4 5 ) {\displaystyle {\vec {b}}_{1}={\begin{pmatrix}{\tfrac {3}{5}}\\[1ex]{\tfrac {4}{5}}\end{pmatrix}}}   und    b 2 = ( 4 5 3 5 ) {\displaystyle {\vec {b}}_{2}={\begin{pmatrix}-{\tfrac {4}{5}}\\[1ex]{\tfrac {3}{5}}\end{pmatrix}}}
bilden in R 2 {\displaystyle \mathbb {R} ^{2}} mit dem Standardskalarprodukt ein Orthonormalsystem und daher auch eine Orthonormalbasis von R 2 {\displaystyle \mathbb {R} ^{2}} .

Koordinatendarstellung bezüglich einer Orthonormalbasis

Vektoren

Ist B = { b 1 , , b n } {\displaystyle B=\{b_{1},\dots ,b_{n}\}} eine Orthonormalbasis von V {\displaystyle V} , so lassen sich die Komponenten eines Vektors v V {\displaystyle v\in V} bezüglich dieser Basis besonders leicht als Orthogonalprojektionen berechnen. Hat v {\displaystyle v} bezüglich der Basis B {\displaystyle B} die Darstellung

v = v 1 b 1 + + v n b n = i = 1 n v i b i , {\displaystyle v=v_{1}b_{1}+\dots +v_{n}b_{n}=\sum _{i=1}^{n}v_{i}b_{i},}

so gilt

v i = b i , v {\displaystyle v_{i}=\langle b_{i},v\rangle } für i = 1 , , n {\displaystyle i=1,\dots ,n}

denn

b i , v = b i , j = 1 n b j v j = j = 1 n b i , b j v j = j = 1 n b i , b j v j = j = 1 j i n b i , b j 0 v j + b i , b i v i = v i {\displaystyle \langle b_{i},v\rangle =\left\langle b_{i},\sum _{j=1}^{n}b_{j}v_{j}\right\rangle =\sum _{j=1}^{n}\left\langle b_{i},b_{j}v_{j}\right\rangle =\sum _{j=1}^{n}\left\langle b_{i},b_{j}\right\rangle v_{j}=\sum _{j=1 \atop j\neq i}^{n}\underbrace {\left\langle b_{i},b_{j}\right\rangle } _{0}v_{j}+\left\langle b_{i},b_{i}\right\rangle v_{i}=v_{i}}

und damit

v = i = 1 n b i , v b i . {\displaystyle v=\sum _{i=1}^{n}\left\langle b_{i},v\right\rangle b_{i}.}

Im Beispiel 2 oben gilt für den Vektor v = ( 2 7 ) {\displaystyle {\vec {v}}={\begin{pmatrix}2\\7\end{pmatrix}}} :

b 1 , v = 3 5 2 + 4 5 7 = 34 5 {\displaystyle \left\langle {\vec {b}}_{1},{\vec {v}}\right\rangle ={\frac {3}{5}}\cdot 2+{\frac {4}{5}}\cdot 7={\frac {34}{5}}}   und
b 2 , v = 4 5 2 + 3 5 7 = 13 5 {\displaystyle \left\langle {\vec {b}}_{2},{\vec {v}}\right\rangle =-{\frac {4}{5}}\cdot 2+{\frac {3}{5}}\cdot 7={\frac {13}{5}}}

und damit

v = 34 5 b 1 + 13 5 b 2 = 34 5 ( 3 5 4 5 ) + 13 5 ( 4 5 3 5 ) . {\displaystyle {\vec {v}}={\frac {34}{5}}\,{\vec {b}}_{1}+{\frac {13}{5}}\,{\vec {b}}_{2}={\frac {34}{5}}\,{\begin{pmatrix}{\tfrac {3}{5}}\\[1ex]{\tfrac {4}{5}}\end{pmatrix}}+{\frac {13}{5}}\,{\begin{pmatrix}-{\tfrac {4}{5}}\\[1ex]{\tfrac {3}{5}}\end{pmatrix}}.}

Das Skalarprodukt

In Koordinaten bezüglich einer Orthonormalbasis hat jedes Skalarprodukt die Form des Standardskalarprodukts. Genauer:

Ist B = { b 1 , , b n } {\displaystyle B=\{b_{1},\dots ,b_{n}\}} eine Orthonormalbasis von V {\displaystyle V} und haben die Vektoren v {\displaystyle v} und w {\displaystyle w} bezüglich B {\displaystyle B} die Koordinatendarstellung v = v 1 b 1 + + v n b n {\displaystyle v=v_{1}b_{1}+\dots +v_{n}b_{n}} und w = w 1 b 1 + + w n b n {\displaystyle w=w_{1}b_{1}+\dots +w_{n}b_{n}} , so gilt

v , w = v 1 w 1 + + v n w n {\displaystyle \langle v,w\rangle =v_{1}w_{1}+\dots +v_{n}w_{n}}

im reellen Fall, bzw.

v , w = v ¯ 1 w 1 + + v ¯ n w n {\displaystyle \langle v,w\rangle ={\bar {v}}_{1}w_{1}+\dots +{\bar {v}}_{n}w_{n}}

im komplexen Fall.

Orthogonale Abbildungen

Ist f : V V {\displaystyle f\colon V\to V} eine orthogonale (im reellen Fall) bzw. eine unitäre Abbildung (im komplexen Fall) und ist B {\displaystyle B} eine Orthonormalbasis von V {\displaystyle V} , so ist die Darstellungsmatrix von f {\displaystyle f} bezüglich der Basis B {\displaystyle B} eine orthogonale bzw. eine unitäre Matrix.

Bezüglich beliebiger Basen ist diese Aussage falsch.

Unendlichdimensionale Räume

Definition

Sei ( V , , ) {\displaystyle (V,\langle \cdot ,\cdot \rangle )} ein Prähilbertraum und sei = , {\displaystyle \|\cdot \|={\sqrt {\langle \cdot ,\cdot \rangle }}} die durch das Skalarprodukt induzierte Norm. Eine Teilmenge S V {\displaystyle S\subset V} heißt Orthonormalsystem, falls e = 1 {\displaystyle \|e\|=1} und e , f = 0 {\displaystyle \langle e,f\rangle =0} für alle e , f S {\displaystyle e,f\in S} mit e f {\displaystyle e\neq f} gilt.

Ein Orthonormalsystem, dessen lineare Hülle dicht im Raum liegt, heißt Orthonormalbasis oder Hilbertbasis des Raums.

Es ist zu beachten, dass im Sinne dieses Abschnitts, im Gegensatz zur endlichen Dimension, eine Orthonormalbasis keine Hamelbasis, also keine Basis im Sinn der linearen Algebra ist. Das heißt, ein Element aus V {\displaystyle V} lässt sich im Allgemeinen nicht als Linearkombination aus endlich vielen Elementen aus S {\displaystyle S} darstellen, sondern nur mit abzählbar unendlich vielen, also als unbedingt konvergente Reihe.

Ein Orthonormalsystem S = ( e n ) n N {\displaystyle S=(e_{n})_{n\in \mathbb {N} }} heißt vollständig, wenn für alle x V {\displaystyle x\in V} gilt

lim n x k = 0 n x , e k e k = 0 {\displaystyle \lim _{n\to \infty }\Vert x-\sum _{k=0}^{n}\langle x,e_{k}\rangle e_{k}\Vert =0} .

Charakterisierung

Für einen Prähilbertraum H {\displaystyle H} sind folgende Aussagen äquivalent:

  • S H {\displaystyle S\subset H} ist eine Orthonormalbasis.
  • S {\displaystyle S} ist ein Orthonormalsystem und es gilt die parsevalsche Gleichung:
x 2 = v S | x , v | 2 {\displaystyle \|x\|^{2}=\sum _{v\in S}|\langle x,v\rangle |^{2}} für alle x H {\displaystyle x\in H} .

Ist H {\displaystyle H} sogar vollständig, also ein Hilbertraum, ist dies zusätzlich äquivalent zu:

  • Das orthogonale Komplement S {\displaystyle S^{\perp }} von S {\displaystyle S} ist der Nullraum, denn allgemein gilt für eine Teilmenge T {\displaystyle T} , dass T = span ( T ) ¯ {\displaystyle {T^{\perp }}^{\perp }={\overline {\operatorname {span} (T)}}} .
  • Konkreter: Es gilt genau dann x = 0 {\displaystyle x=0} , wenn für alle v S {\displaystyle v\in S} das Skalarprodukt x , v = 0 {\displaystyle \langle x,v\rangle =0} ist.
  • S {\displaystyle S} ist ein bezüglich der Inklusion maximales Orthonormalsystem, d. h. jedes Orthonormalsystem, das S {\displaystyle S} enthält, ist gleich S {\displaystyle S} . Wäre ein maximales S {\displaystyle S} kein Orthonormalsystem, so existierte ein Vektor im orthogonalen Komplement, normierte man dieses und fügte es zu S {\displaystyle S} hinzu, erhielte man wiederum ein Orthonormalsystem.

Existenz

Mit dem Lemma von Zorn lässt sich zeigen, dass jeder Hilbertraum H {\displaystyle H} eine Orthonormalbasis besitzt: Man betrachte die Menge aller Orthonormalsysteme in H {\displaystyle H} mit der Inklusion als partieller Ordnung. Diese ist nichtleer, da die leere Menge ein Orthonormalsystem ist. Jede aufsteigende Kette solcher Orthonormalsysteme bezüglich der Inklusion ist durch die Vereinigung nach oben beschränkt: Denn wäre die Vereinigung kein Orthonormalsystem, so enthielte sie einen nicht normierten oder zwei verschiedene nicht orthogonale Vektoren, die bereits in einem der vereinigten Orthonormalsysteme hätten vorkommen müssen. Nach dem Lemma von Zorn existiert somit ein maximales Orthonormalsystem – eine Orthonormalbasis. Statt aller Orthonormalsysteme kann man auch nur die Orthonormalsysteme, die ein gegebenes Orthonormalsystem enthalten, betrachten. Dann erhält man analog, dass jedes Orthonormalsystem zu einer Orthogonalbasis ergänzt werden kann.

Alternativ lässt sich das Gram-Schmidt-Verfahren auf H {\displaystyle H} oder eine beliebige dichte Teilmenge anwenden und man erhält eine Orthonormalbasis.

Jeder separable Prähilbertraum besitzt eine Orthonormalbasis. Hierfür wähle man eine (höchstens) abzählbare dichte Teilmenge und wende auf diese das Gram-Schmidt-Verfahren an. Hierbei ist die Vollständigkeit nicht notwendig, da stets nur Projektionen auf endlichdimensionale Unterräume durchzuführen sind, welche stets vollständig sind. Hierdurch erhält man eine (höchstens) abzählbare Orthonormalbasis. Umgekehrt ist auch jeder Prähilbertraum mit einer (höchstens) abzählbaren Orthonormalbasis separabel.

Entwicklung nach einer Orthonormalbasis

Hauptartikel: Parsevalsche Gleichung

Ein Hilbertraum ( H , , ) {\displaystyle (H,\langle \cdot ,\cdot \rangle )} mit einer Orthonormalbasis S {\displaystyle S} hat die Eigenschaft, dass für jedes v H {\displaystyle v\in H} die Reihendarstellung

v = u S u , v u {\displaystyle v=\sum _{u\in S}\langle u,v\rangle u}

gilt. Diese Reihe konvergiert unbedingt. Ist der Hilbertraum endlichdimensional, so fällt der Begriff der unbedingten Konvergenz mit dem der absoluten Konvergenz zusammen. Diese Reihe nennt man auch verallgemeinerte Fourier-Reihe. Wählt man nämlich den Hilbertraum L 2 ( [ 0 , 2 π ] ) {\displaystyle L^{2}([0,2\pi ])} der reellwertigen quadratintegrierbaren Funktionen mit dem Skalarprodukt

f , g = 0 2 π f ( x ) g ( x ) d x , {\displaystyle \langle f,g\rangle =\int _{0}^{2\pi }f(x)g(x)\,\mathrm {d} x,}

dann ist

S = { c 0 } { c n , s n n N } {\displaystyle S=\{c_{0}\}\cup \{c_{n},s_{n}\mid n\in \mathbb {N} \}}

mit

c 0 ( x ) = 1 2 π ,   c n ( x ) = 1 π cos ( n x ) ,   s n ( x ) = 1 π sin ( n x ) {\displaystyle c_{0}(x)={\frac {1}{\sqrt {2\pi }}},\ c_{n}(x)={\frac {1}{\sqrt {\pi }}}\cos(nx),\ s_{n}(x)={\frac {1}{\sqrt {\pi }}}\sin(nx)} für x [ 0 , 2 π ] {\displaystyle x\in [0,2\pi ]} und n N {\displaystyle n\in \mathbb {N} }

ein Orthonormalsystem und sogar eine Orthonormalbasis von L 2 ( [ 0 , 2 π ] ) {\displaystyle L^{2}([0,2\pi ])} . Bezüglich dieser Basis sind

f , c 0 = 1 2 π 0 2 π f ( x ) d x , {\displaystyle \left\langle f,c_{0}\right\rangle ={\frac {1}{\sqrt {2\pi }}}\int _{0}^{2\pi }f(x)\,\mathrm {d} x,}
f , c n = 1 π 0 2 π f ( x ) cos ( n x ) d x {\displaystyle \left\langle f,c_{n}\right\rangle ={\frac {1}{\sqrt {\pi }}}\int _{0}^{2\pi }f(x)\cos(nx)\,\mathrm {d} x}

und

f , s n = 1 π 0 2 π f ( x ) sin ( n x ) d x , n N {\displaystyle \left\langle f,s_{n}\right\rangle ={\frac {1}{\sqrt {\pi }}}\int _{0}^{2\pi }f(x)\sin(nx)\,\mathrm {d} x,\quad n\in \mathbb {N} }

gerade die Fourier-Koeffizienten der Fourier-Reihe von f {\displaystyle f} . Daher ist die Fourier-Reihe gerade die Reihendarstellung eines Elements aus L 2 ( [ 0 , 2 π ] ) {\displaystyle L^{2}([0,2\pi ])} bezüglich der gegebenen Orthonormalbasis.

Weitere Beispiele

Sei 2 {\displaystyle \ell ^{2}} der Folgenraum der quadratsummierbaren Folgen. Die Menge S = { e n : n N } {\displaystyle S=\{e_{n}\colon n\in \mathbb {N} \}} ist eine Orthonormalbasis von 2 {\displaystyle \ell ^{2}} .

Literatur

  • Gerd Fischer: Lineare Algebra. Vieweg-Verlag, ISBN 3-528-03217-0.
  • Dirk Werner: Funktionalanalysis. 6., korrigierte Auflage. Springer-Verlag, Berlin 2007, ISBN 978-3-540-72533-6, S. 222–236.