🎓 Ui, schon PrĂŒfungszeit? Hier geht's zur Mathe-PrĂŒfungsvorbereitung.
Springe zum Inhalt oder Footer
SerloDie freie Lernplattform

Kurs

Lineare Abbildungen

1 Motivation

Lineare Abbildungen sind spezielle Abbildungen zwischen VektorrÀumen, die sich gut mit der Vektorraumstruktur vertragen. Sie sind eines der wichtigsten Konzepte der linearen Algebra und haben zahlreiche Anwendungen.

Motivation

Die Besonderheit linearer Abbildungen

Wir haben die Struktur der VektorrÀume kennengelernt und verschiedene Eigenschaften von ihnen untersucht. Nun wollen wir VektorrÀume nicht nur isoliert voneinander betrachten, sondern auch Abbildungen zwischen ihnen. Manche dieser Abbildungen vetragen sich gut mit der zugrundeliegenden Vektorraumstruktur und werden deswegen lineare Abbildungen oder Vektorraumhomomorphismen genannt.

Dass wir solche strukturerhaltenden Abbildungen untersuchen, ist eine typische Vorgehensweise der Algebra. FĂŒr viele algebraische Strukturen wie Gruppen, Ringe oder Körper untersucht die Algebra die dazugehörigen strukturerhaltenden Abbildungen zwischen den jeweiligen algebraischen Strukturen – Gruppenhomomorphismen, Ringhomomorphismen und Körperhomomorphismus. Bei VektorrĂ€umen sind die strukturerhaltenden Abbildungen die linearen Abbildungen bzw. die Vektorraumhomomorphismen.

Seien also VV und WW zwei VektorrĂ€ume. Wann ist eine Abbildung f:V→Wf:V\to W strukturerhaltend bzw. vertrĂ€gt sich gut mit den zugrundeliegenden Vektorraumstrukturen in VV und WW? Wiederholen wir hierzu, was die Vektorraumstruktur ausmacht: VektorrĂ€ume sind Strukturen, in denen zwei Operationen möglich sind:

Wiederholen wir hierzu, was die Vektorraumstruktur ausmacht: VektorrĂ€ume sind Strukturen, in denen zwei Operationen möglich sind:ï»ż

  • Addition von Vektoren: Zwei Vektoren können miteinander addiert werden, wobei die Addition der Addition von Zahlen in ihren Eigenschaften Ă€hnelt.

  • Skalare Multiplikation: Vektoren können mit einem Skalierungsfaktor aus einem Körper skaliert (gestaucht, gestreckt oder gespiegelt) werden.

VertrÀglichkeit der Addition

Beginnen wir mit der Addition von Vektoren: Wann vertrĂ€gt sich eine Funktion f:V→Wf:V\to W mit den Additionen +V+_{_{V}} und +W+_{_{W}} auf den jeweiligen VektorrĂ€umen VV und WW? Hier kann man folgende Hypothese aufstellen:

Eine Abbildung ist vertrÀglich mit der Addition, wenn eine Summe durch die Abbildung erhalten bleibt. Wenn also v3=v1+Vv2v_{3}=v_{1}+_{_{V}}v_{2} im Vektorraum VV eine Summe ist, so bilden auch die Bilder von v1v_{1}, v2v_{2} und v3v_{3} im Vektorraum WW eine entsprechende Summe: f(v3)=f(v1)+Wf(v2)f(v_{3})=f(v_{1})+_{_{W}}f(v_{2})

Eine mit der Addition vertrĂ€gliche Abbildung erfĂŒllt somit fĂŒr alle v1,v2,v3∈Vv_{1},v_{2},v_{3}\in V die Implikation:

v3=v1+Vv2  âŸč  f(v3)=f(v1)+Wf(v2)\displaystyle v_{3}=v_{1}+_{_{V}}v_{2}\implies f(v_{3})=f(v_{1})+_{_{W}}f(v_{2})

Diese Implikation kann in einer Gleichung zusammengefasst werden, indem die PrĂ€misse v3=v1+Vv2v_{3}=v_{1}+_{_{V}}v_{2} in die zweite Gleichung eingsetzt wird. Es soll also fĂŒr alle v1,v2∈Vv_{1},v_{2}\in V gelten:

f(v1+Vv2)=f(v1)+Wf(v2)\displaystyle f(v_{1}+_{_{V}}v_{2})=f(v_{1})+_{_{W}}f(v_{2})

Diese Gleichung beschreibt die charakteristische Eigenschaft der linearen Abbildung, vertrĂ€glich zur Vektoraddition zu sein. Wir können sie auch gut fĂŒr Abbildungen R2→R2\mathbb {R} ^{2}\to \mathbb {R} ^{2} visualisieren. Eine Abbildung vertrĂ€gt sich genau dann mit der Addition, wenn das durch die Vektoren v1v_{1}, v2v_{2} und v3=v1+Vv2v_{3}=v_{1}+_{_{V}}v_{2} gegebene Dreieck im Definitionsbereich durch die Abbildung erhalten bleibt. Sprich: Auch die drei Vektoren f(v1)f(v_{1}), f(v2)f(v_{2}) und f(v3)=f(v1+Vv2)f(v_{3})=f(v_{1}+_{_{V}}v_{2}) bilden ein (Additions-)Dreieck:

Abbildungen sind vertrÀglich mit der Addition, wenn sie Dreiecke durch sie erhalten bleiben

Wenn ff sich nicht mit der Addition vertrĂ€gt, gibt es Vektoren v1v_{1} und v2v_{2} mit f(v1+Vv2)≠f(v1)+Wf(v2)f(v_{1}+_{_{V}}v_{2})\neq f(v_{1})+_{_{W}}f(v_{2}). Das durch v1v_{1}, v2v_{2} und v3=v1+Vv2v_{3}=v_{1}+_{_{V}}v_{2} erzeugte Dreieck bleibt dann nicht erhalten, weil die Dreiecksseite v1+Vv2v_{1}+_{_{V}}v_{2} des Ausgangsdreiecks nicht auf die Dreiecksseite f(v1)+Wf(v2)f(v_{1})+_{_{W}}f(v_{2}) des Zieldreiecks abgebildet wird:

Sind Abbildungen nicht vertrÀglich mit der Addition, so bleibt mindestens ein Dreieck durch die Abbildung nicht erhalten.

VertrÀglichkeit mit der skalaren Multiplikation

Analog können wir uns ĂŒberlegen, dass eine Abbildung f:V→Wf:V\to W genau dann vertrĂ€glich mit der skalaren Multiplikation ist, wenn diese durch die Abbildung erhalten bleibt. Es sollte also fĂŒr alle w,v∈Vw,v\in V und fĂŒr alle Skalare λ∈K\lambda \in K gelten:

w=λ⋅Vv  âŸč  f(w)=λ⋅Wf(v)\displaystyle w=\lambda \cdot _{_{V}}v\implies f(w)=\lambda \cdot _{_{W}}f(v)

Beachte, dass λ\lambda ein Skalar und kein Vektor ist und damit nicht durch die betrachtete Funktion veĂ€ndert wird. Damit wir in der obigen Implikation denselben Skalar verwenden können, mĂŒssen beide VektorrĂ€ume denselben zugrundeliegenden Körper haben. Sowohl der Definitionsbereich VV als auch der Wertebereich WW muss ein KK-Vektorraum sein.

Lineare Abbildungen erhalten also Skalierungen. Aus w=λvw=\lambda v folgt f(w)=λf(v)f(w)=\lambda f(v). FĂŒr den Fall, dass f(v)≠0f(v)\neq 0 ist, werden Geraden der Form {λv:λ∈R}\{\lambda v:\lambda \in \mathbb {R} \} auf die Gerade {λf(v):λ∈R}\{\lambda f(v):\lambda \in \mathbb {R} \} abgebildet. Obige Implikation kann in eine Gleichung zusammengefasst werden. Es soll also fĂŒr alle v∈Vv\in V und λ∈K\lambda \in K gelten:

f(λ⋅Vv)=λ⋅Wf(v)\displaystyle f(\lambda \cdot _{_{V}}v)=\lambda \cdot _{_{W}}f(v)

FĂŒr Abbildungen R2→R2\mathbb {R} ^{2}\to \mathbb {R} ^{2} bedeutet dies, dass ein skalierter Vektoren λ⋅Vv\lambda \cdot _{_{V}}v auf die entsprechende Skalierung λ⋅Wf(w)\lambda \cdot _{_{W}}f(w) des Bildvektors abgebildet wird:

Lineare Abbildungen erhalten Skalierungen.

Wenn eine Abbildung nicht vertrĂ€glich zur skalaren Multiplikation ist, so gibt es einen Vektor vv und einen Skalierungsfaktor λ\lambda, so dass f(λ⋅Vv)≠λ⋅Wf(w)f(\lambda \cdot _{_{V}}v)\neq \lambda \cdot _{_{W}}f(w) ist:

Abbildung bei der eine Skalierung nicht erhalten bleibt. Eine solche Abbildung ist keine lineare Abbildung.

2 Definition

DefinitionLineare Abbildung

Seien V\color {Orange}V und W\color {Purple}W VektorrĂ€ume ĂŒber demselben Körper KK. Dabei seien +V ⁣:V×V→V{\color {Orange}+_{{}_{V}}}\colon {\color {Orange}V}\times {\color {Orange}V}\to {\color {Orange}V} und +W ⁣:W×W→W{\color {Purple}+_{{}_{W}}}\colon {\color {Purple}W}\times {\color {Purple}W}\to {\color {Purple}W} die jeweiligen inneren VerknĂŒpfungen. Weiter seien ⋅V ⁣:K×V→V{\color {Orange}\cdot _{{}_{V}}}\colon K\times {\color {Orange}V}\to {\color {Orange}V} und ⋅W ⁣:K×W→W{\color {Purple}\cdot _{{}_{W}}}\colon K\times {\color {Purple}W}\to {\color {Purple}W} die skalaren Multiplikationen.

Nun sei f ⁣:V→Wf\colon {\color {Orange}V}\to {\color {Purple}W} eine Abbildung zwischen diesen VektorrĂ€umen. Wir nennen ff eine lineare Abbildung von V{\color {Orange}V} nach W{\color {Purple}W}, wenn die folgenden beiden Eigenschaften erfĂŒllt sind:

  1. AdditivitĂ€t: FĂŒr alle v1,v2∈Vv_{1},v_{2}\in V gilt, dass f(v1+Vv2)=f(v1)+Wf(v2)f\left(v_1 {\color{Orange} +_{{}_V} } v_2\right)=f(v_1) {\color{Purple} +_{{}_W}} f(v_2)

  2. HomogenitĂ€t: FĂŒr alle v∈Vv\in V und λ∈K\lambda \in K gilt, dass f(λ⋅Vv)=λ⋅Wf(v)f(\lambda {\color{Orange} \cdot_{{}_V}} v) = \lambda {\color{Purple} \cdot_{{}_W}} f(v)

Beachte

Wenn es aus dem Kontext klar ist, schreiben wir zukĂŒnftig auch einfach „++“ anstatt +V{\color{Orange} +_{{}_V} } und +W{\color{Purple} +_{{}_W}}. Ebenso wird hĂ€ufig „⋅\cdot“ anstelle von ⋅V{\color{Orange} \cdot_{{}_V}} und ⋅W{\color{Purple} \cdot_{{}_W}} verwendet. Manchmal wird der Punkt fĂŒr die skalare Multiplikation auch ganz weggelassen.

Hinweis

In der Literatur wird fĂŒr den Begriff ''lineare Abbildung'' auch der Begriff ''Vektorraumhomomorphismus'' oder kurz ''Homomorphismus'' genutzt. Das altgriechische Wort homĂłs steht fĂŒr „gleich“, morphĂ© steht fĂŒr „Form“. Wörtlich ĂŒbersetzt ist ein ''Vektorraumhomomorphismus'' also eine Abbildung zwischen VektorrĂ€umen, welche die „Form“ der VektorrĂ€ume gleich lĂ€sst.

3 ErklÀrung zur Definition

Die charakteristischen Gleichungen der linearen Abbildung sind f(v1+v2)=f(v1)+f(v2)f(v_{1}+v_{2})=f(v_{1})+f(v_{2}) und f(λ⋅v)=λ⋅f(v)f(\lambda \cdot v)=\lambda \cdot f(v). Was bedeuten diese beiden Eigenschaften intuitiv? Nach der AdditivitĂ€tseigenschaft ist es egal, ob man v1v_{1} und v2v_{2} zuerst addiert und dann abbildet oder ob man beide Vektoren erst abbildet und dann addiert. Beide Wege fĂŒhren zum selben Ergebnis:

f(v1+v2⏟Addition)⏟Funktionsabbildung =f(v1)⏟Funktionsabbildung+f(v2)⏟Funktionsabbildung⏟Addition\displaystyle {\color {Green}\underbrace {f({\color {Blue}\underbrace {v_{1}+v_{2}} _{\text{Addition}}})} _{\text{Funktionsabbildung }}}={\color {Blue}\underbrace {{\color {Green}\underbrace {f(v_{1})} _{\text{Funktionsabbildung}}}+{\color {Green}\underbrace {f(v_{2})} _{\text{Funktionsabbildung}}}} _{\text{Addition}}}

Was besagt die HomogenitÀtseigenschaft? UnabhÀngig davon ob man zuerst vv mit λ\lambda multipliziert und dann abbildet oder den Vektor erst abbildet und dann mit λ\lambda multipliziert, ist das Ergebnis das Gleiche:

f(λ⋅v⏟skalare Multiplikation)⏟Funktionsabbildung =λ⋅f(v)⏟Funktionsabbildung⏟skalare Multiplikation\displaystyle \def\arraystretch{1.25} {\color {Green}\underbrace {f({\color {Blue}\underbrace {\lambda \cdot v} _{\begin{array}{c}{\text{skalare Multiplikation}}\end{array}}})} _{\begin{array}{c}{\text{Funktionsabbildung }}\end{array}}}={\color {Blue}\underbrace {\lambda \cdot {\color {Green}\underbrace {f(v)} _{\text{Funktionsabbildung}}}} _{\text{skalare Multiplikation}}}

Die charakteristischen Eigenschaften der linearen Abbildungen verdeutlichen also, dass die Reihenfolge der Funktionsabbildung und der Vektorraumoperationen egal ist.

4 Charakterisierung: Linearkombinationen werden auf Linearkombinationen abgebildet

Neben der definierenden Eigenschaft, dass lineare Abbildungen sich gut mit der zugrundeliegenden Vektorraumstruktur vertragen, können lineare Abbildungen auch ĂŒber folgende Eigenschaft charakterisiert werden:

Lineare Abbildungen sind genau die Abbildungen, die Linearkombinationen auf Linearkombinationen abbilden.

Dies ist eine wichtige Eigenschaft, weil ĂŒber Linearkombinationen wichtige Struktureigenschaften von Vektoren wie die lineare UnabhĂ€ngigkeit oder das Erzeugendensystemen definiert werden. Auch die Definition der Basis grĂŒndet sich auf den Begriff der Linearkombination. Den Zusammenhang zu den Linearkombinationen erkennt man, wenn man sich die beiden charakteristischen Gleichungen linearer Abbildungen anschaut:

f(v1+v2)=f(v1)+f(v2)f(λ⋅v)=λ⋅f(v)\displaystyle \def\arraystretch{1.25} \begin{array}{rl} f(v_1 + v_2) &= f(v_1) + f(v_2)\\ f(\lambda \cdot v) &= \lambda \cdot f(v) \end{array}

Wir können auf eine Linearkombination wie 3⋅u+5⋅w−2⋅z3\cdot u+5\cdot w-2\cdot z fĂŒr Vektoren u,wu,w und zz aus VV die beiden obigen Formeln schrittweise anwenden. So können wir diese Linearkombination aus der Funktion schrittweise „herausziehen“:

f(3⋅u+5⋅w−2⋅z)↓ Additivitašt von f=f(3⋅u)+f(5⋅w−2⋅z)↓ Additivitašt von f=f(3⋅u)+f(5⋅w)+f(−2⋅z)↓ Homogenitašt von f=3⋅f(u)+5⋅f(w)−2⋅f(z)\displaystyle \def\arraystretch{1.25} \begin{array}{rl} & f(3\cdot u + 5\cdot w -2 \cdot z) \\[0.3em] & {\color{208000}\left\downarrow\ \text{AdditivitĂ€t von } f \right.} \\[0.3em] = & f(3\cdot u) + f(5\cdot w -2 \cdot z) \\[0.3em] & {\color{208000}\left\downarrow\ \text{AdditivitĂ€t von } f \right.} \\[0.3em] = & f(3\cdot u) + f(5\cdot w) + f(-2 \cdot z) \\[0.3em] & {\color{208000}\left\downarrow\ \text{HomogenitĂ€t von } f \right.} \\[0.3em] = & 3\cdot f(u) + 5\cdot f(w) -2 \cdot f(z) \end{array}

Die Linearkombination 3⋅u+5⋅w−2⋅z3\cdot u+5\cdot w-2\cdot z wird durch ff auf 3⋅f(u)+5⋅f(w)−2⋅f(z)3\cdot f(u)+5\cdot f(w)-2\cdot f(z) abgebildet und bleibt damit in ihrer Struktur erhalten. Ähnlich verhĂ€lt es sich bei anderen Linearkombinationen. Denn durch die Eigenschaft f(v1+v2)=f(v1)+f(v2)f(v_{1}+v_{2})=f(v_{1})+f(v_{2}) sind Summen und durch die Eigenschaft f(λ⋅v)=λ⋅f(v)f(\lambda \cdot v)=\lambda \cdot f(v) sind skalare Multiplikationen herausziehbar. Wir erhalten damit folgende alternative Charakterisierung der linearen Abbildung:

Satz

Eine Abbildung f:V→Wf:V\to W zwischen zwei KK-VektorrĂ€umen VV und WW ist genau dann eine lineare Abbildung, wenn sie Linearkombinationen erhĂ€lt. Sprich: Jede lineare Abbildung bildet die Linearkombination von Elementen auf die Linearkombination von den Bildern der Elemente ab. Formal bedeutet das, dass fĂŒr endlich viele v1,
,vn∈Vv_{1},\dots ,v_{n}\in V und λ1,
,λn∈K\lambda _{1},\dots ,\lambda _{n}\in K gilt:

f(∑i=1nλi⋅Vvi)=∑i=1nλi⋅Wf(vi)\displaystyle f \left( \sum_{i=1}^n \lambda_i \cdot_{{}_V} v_i \right) =\sum_{i=1}^n \lambda_i \cdot_{{}_W} f \left( v_i \right)
Vorgehen

Wir wollen zeigen, dass fĂŒr alle vi∈Vv_{i}\in V und λi∈K\lambda _{i}\in K gilt:

f(∑i=1nλi⋅Vvi)=∑i=1nλi⋅Wf(vi)  âŸș  f ist eine lineare Abbildung.\displaystyle f{\bigg (}\sum _{i=1}^{n}\lambda _{i}\cdot _{V}v_{i}{\bigg )}=\sum _{i=1}^{n}\lambda _{i}\cdot _{W}f(v_{i})\iff f\text{ ist eine lineare Abbildung.}

Wir wissen aus der Definition der linearen Abbildung, dass fĂŒr diese die Eigenschaften der AdditivitĂ€t und HomogenitĂ€t gelten, welche wir uns zu Nutze machen.

FĂŒr die Richtung von links nach rechts des Beweises wĂ€hlen wir 2 Linearkombinationen so, dass wir durch Einsetzen in die obige Formel die zwei Eigenschaften erhalten.

FĂŒr die RĂŒckrichtung wissen wir, dass ff eine lineare Abbildung ist. Wir können durch vollstĂ€ndige Induktion zeigen, dass obige Formel fĂŒr alle Elemente gilt. Dabei reduzieren wir die Linearkombination auf einzelne Additionen und Skalarmultiplikationen, auf die wir die AdditivitĂ€t und HomogenitĂ€t anwenden können.

Beweis

Beweisschritt:

(∀v1,
,vn∈V ∀λ1,
,λn∈K: f(∑i=1nλi⋅Vvi)=∑i=1nλi⋅Wf(vi))  âŸč  f ist eine lineare Abbildung.\displaystyle \left(\forall v_1,\dots,v_n \in V\,\forall\lambda_1,\dots,\lambda_n \in K:\,f\left(\sum_{i=1}^n \lambda_i \cdot_{{}_V} v_i \right) =\sum_{i=1}^n \lambda_i \cdot_{{}_W} f \left( v_i \right)\right)\\\implies f\text{ ist eine lineare Abbildung.}

Seien v,v1,v2∈Vv,v_{1},v_{2}\in V und λ∈K\lambda \in K. Die beiden Terme v1+v2v_{1}+v_{2} und λ⋅v\lambda \cdot v sind zwei Linearkombinationen in VV. Wenn wir diese in die Formel f(∑i=1nλi⋅Vvi)=∑i=1nλi⋅Wf(vi)f \left( \sum_{i=1}^n \lambda_i \cdot_{{}_V} v_i \right) =\sum_{i=1}^n \lambda_i \cdot_{{}_W} f \left( v_i \right) einsetzen, so erhalten wir

f(v1+v2)=f(v1)+f(v2)f(λ⋅v)=λ⋅f(w)\displaystyle \def\arraystretch{1.25} \begin{array}{rl} f(v_1 + v_2) & = f(v_1) + f(v_2) \\[0.5em] f(\lambda \cdot v) & = \lambda \cdot f(w) \end{array}

Damit erfĂŒllt ff die Definition einer linearen Abbildung.

Beweisschritt:

f ist eine lineare Abbildung  âŸč  (∀v1,
,vn∈V ∀λ1,
,λn∈K: f(∑i=1nλi⋅Vvi)=∑i=1nλi⋅Wf(vi))\displaystyle f\text{ ist eine lineare Abbildung}\implies\\ \left(\forall v_1,\dots,v_n \in V\,\forall\lambda_1,\dots,\lambda_n \in K:\,f\left(\sum_{i=1}^n \lambda_i \cdot_{{}_V} v_i \right) =\sum_{i=1}^n \lambda_i \cdot_{{}_W} f \left( v_i \right)\right)

Sei ff eine lineare Abbildung. Wir beweisen die Gleichung mit vollstĂ€ndiger Induktion ĂŒber nn:

Aussageform, deren AllgemeingĂŒltigkeit fĂŒr n∈Nn\in \mathbb {N} bewiesen werden soll:

∀v1,
,vn∈V ∀λ1,
,λn∈K: f(∑i=1nλi⋅Vvi)=∑i=1nλi⋅Wf(vi)\displaystyle \forall v_1,\dots,v_n \in V\,\forall\lambda_1,\dots,\lambda_n \in K:\,f \left( \sum_{i=1}^n \lambda_i \cdot_{{}_V} v_i \right) =\sum_{i=1}^n \lambda_i \cdot_{{}_W} f \left( v_i \right)

1. Induktionsanfang:

Wir fangen die Induktion bei n=1n=1 an und stellen fest, dass hierfĂŒr die Eigenschaft der HomogenitĂ€t ausreicht:

f(λ1⋅Vv1)↓ Homogenitašt von f=λ1⋅Wf(v1)\displaystyle \def\arraystretch{1.25} \begin{array}{rl} & f \left( \lambda_1 \cdot_{{}_V} v_1 \right) \\[0.3em] & {\color{208000} \left\downarrow\ \text{HomogenitĂ€t von } f \right.} \\[0.3em] = & \lambda_1 \cdot_{{}_W} f \left( v_1 \right) \end{array}

2. Induktionsschritt:

2a. Induktionsvoraussetzung:

∀v1,
,vn∈V ∀λ1,
,λn∈K: f(∑i=1nλi⋅Vvi)=∑i=1nλi⋅Wf(vi)\displaystyle \forall v_1,\dots,v_n \in V\,\forall\lambda_1,\dots,\lambda_n \in K:\,f \left( \sum_{i=1}^n \lambda_i \cdot_{{}_V} v_i \right) =\sum_{i=1}^n \lambda_i \cdot_{{}_W} f \left( v_i \right)

2b. Induktionsbehauptung:

∀v1,
,vn,vn+1∈V ∀λ1,
,λn,λn+1∈K: f(∑i=1n+1λi⋅Vvi)=∑i=1n+1λi⋅Wf(vi)\displaystyle \forall v_1,\dots,v_n,v_{n+1} \in V\,\forall\lambda_1,\dots,\lambda_n,\lambda_{n+1} \in K:\,f \left( \sum_{i=1}^{n+1} \lambda_i \cdot_{{}_V} v_i \right) =\sum_{i=1}^{n+1} \lambda_i \cdot_{{}_W} f \left( v_i \right)

2c. Beweis des Induktionsschritts:

Seien v1,
,vn+1∈Vv_1,\dots,v_{n+1} \in V und λ1,
,λn+1∈K\lambda_1,\dots,\lambda_{n+1} \in K. Dann

f(∑i=1n+1λi⋅Vvi)↓ Summe aufteilen=f((∑i=1nλi⋅Vvi)+V(λn+1⋅Vvn+1))↓ Additivitašt von f=f(∑i=1nλi⋅Vvi)+Wf(λn+1⋅Vvn+1)↓ Homogenitašt von f=f(∑i=1nλi⋅Vvi)+W(λn+1⋅Wf(vn+1))↓ Induktionsannahme=(∑i=1nλi⋅Wf(vi))+W(λn+1⋅Wf(vn+1))↓ Summe zusammenfassen=∑i=1n+1λi⋅Wf(vi)\displaystyle \def\arraystretch{1.25} \begin{array}{rl} & f \left( \sum_{i=1}^{n+1} \lambda_i \cdot_{{}_V} v_i \right) \\[0.3em] & {\color{208000} \left\downarrow\ \text{Summe aufteilen} \right.} \\[0.3em] = & f \left( \left( \sum_{i=1}^{n} \lambda_i \cdot_{{}_V} v_i \right) +_{{}_V} \left( \lambda_{n+1} \cdot_{{}_V} v_{n+1} \right) \right) \\[0.3em] & {\color{208000} \left\downarrow\ \text{AdditivitĂ€t von } f \right.} \\[0.3em] = & f \left( \sum_{i=1}^{n} \lambda_i \cdot_{{}_V} v_i \right) +_{{}_W} f\left( \lambda_{n+1} \cdot_{{}_V} v_{n+1} \right) \\[0.3em] & {\color{208000} \left\downarrow\ \text{HomogenitĂ€t von } f \right.} \\[0.3em] = & f \left( \sum_{i=1}^{n} \lambda_i \cdot_{{}_V} v_i \right) +_{{}_W} \left( \lambda_{n+1} \cdot_{{}_W} f\left( v_{n+1} \right) \right) \\[0.3em] & {\color{208000} \left\downarrow\ \text{Induktionsannahme} \right.} \\[0.3em] = & \left( \sum_{i=1}^{n} \lambda_i \cdot_{{}_W} f \left( v_i \right) \right) +_{{}_W} \left( \lambda_{n+1} \cdot_{{}_W} f\left( v_{n+1} \right) \right) \\[0.3em] & {\color{208000} \left\downarrow\ \text{Summe zusammenfassen} \right.} \\[0.3em] = & \sum_{i=1}^{n+1} \lambda_i \cdot_{{}_W} f \left( v_i \right) \end{array}

5 Beispiele

Streckung in xx-Richtung

Unser erstes Beispiel ist die Streckung um den Faktor ÎČ\beta in xx-Richtung in der Ebene R2\mathbb{R}^{2}. Dabei wird jeder Vektor a=(ax,ay)T∈R2a=(a_{x},a_{y})^{T}\in \mathbb{R}^{2} abgebildet auf f(a)=(ÎČax,ay)Tf(a)=(\beta a_{x},a_{y})^{T}. Die folgende Grafik zeigt diese Abbildung fĂŒr ÎČ=2\beta =2. Die yy-Koordinate bleibt dabei gleich und die x x-Koordinate wird verdoppelt:

Streckung eines Vektors

Schauen wir uns nun an, ob diese Abbildung vertrÀglich mit der Addition ist. Nehmen wir also zwei Vektoren aa und bb, bilden die Summe a+ba+b und strecken diese dann in xx-Richtung. Das Ergebnis ist dasselbe, als wenn wir beide Vektoren zuerst in xx-Richtung strecken und dann addieren:

Streckung der Summe zweier Vektoren

Das lÀsst sich auch mathematisch zeigen. Unsere Abbildung ist die Funktion

f:R2→R2, f((x,y)T)=(ÎČx,y)T.\displaystyle f:\mathbb{R}^{2}\to \mathbb{R}^{2},\ f\left((x,y)^{T}\right)=(\beta x,y)^{T}.

Wir können nun die Eigenschaft f(a+b)=f(a)+f(b)f(a+b)=f(a)+f(b) nachprĂŒfen:

f(a+b)=f((axay)+(bxby))=f((ax+bxay+by))=(ÎČ(ax+bx)ay+by)=(ÎČax+ÎČbxay+by)=(ÎČaxay)+(ÎČbxby)=f((axay))+f((bxby))=f(a)+f(b)\displaystyle \def\arraystretch{1.25} \begin{array}{rl} f(a+b) &= f\left(\begin{pmatrix}a_x\\a_y\end{pmatrix}+\begin{pmatrix}b_x\\b_y\end{pmatrix}\right) \\[0.5em] &= f\left(\begin{pmatrix}a_x + b_x\\a_y + b_y\end{pmatrix}\right) \\[0.5em] &= \begin{pmatrix}\beta(a_x+b_x)\\a_y+b_y\end{pmatrix} \\[0.5em] &= \begin{pmatrix}\beta a_x+\beta b_x\\a_y+b_y\end{pmatrix} \\[0.5em] &= \begin{pmatrix}\beta a_x\\a_y\end{pmatrix}+\begin{pmatrix}\beta b_x\\b_y\end{pmatrix} \\[0.5em] &= f\left(\begin{pmatrix}a_x\\a_y\end{pmatrix}\right)+f\left(\begin{pmatrix}b_x\\b_y\end{pmatrix}\right) \\[0.5em] &= f(a)+f(b) \\[1em] \end{array}

Schauen wir uns nun die VertrÀglichkeit mit der skalaren Multiplikation an. Die folgende Grafik zeigt, dass es egal ist, ob der Vektor aa zuerst mit einem Faktor λ\lambda skaliert und dann in xx-Richtung gestreckt wird oder zuerst in xx-Richtung gestreckt und dann mit λ\lambda skaliert wird:

Streckung und Skalierung eines Vektors

Das lÀsst sich auch mathematisch zeigen. Unsere Abbildung ist die Funktion

f:R2→R2, f((x,y)T)=(ÎČx,y)T.\displaystyle f:\mathbb{R} ^{2}\to \mathbb{R} ^{2},\ f(\left(x,y)^{T}\right)=(\beta x,y)^{T}.

Wir können nun die Eigenschaft f(a+b)=f(a)+f(b)f(a+b)=f(a)+f(b) nachprĂŒfen:

f(a+b)=f((axay)+(bxby))=f((ax+bxay+by))=(ÎČ(ax+bx)ay+by)=(ÎČax+ÎČbxay+by)=(ÎČaxay)+(ÎČbxby)=f((axay))+f((bxby))=f(a)+f(b)\displaystyle \def\arraystretch{1.25} \begin{array}{rl} f(a+b) &= f\left(\begin{pmatrix}a_x\\a_y\end{pmatrix}+\begin{pmatrix}b_x\\b_y\end{pmatrix}\right) \\[0.5em] &= f\left(\begin{pmatrix}a_x + b_x\\a_y + b_y\end{pmatrix}\right) \\[0.5em] &= \begin{pmatrix}\beta(a_x+b_x)\\a_y+b_y\end{pmatrix} \\[0.5em] &= \begin{pmatrix}\beta a_x+\beta b_x\\a_y+b_y\end{pmatrix} \\[0.5em] &= \begin{pmatrix}\beta a_x\\a_y\end{pmatrix}+\begin{pmatrix}\beta b_x\\b_y\end{pmatrix} \\[0.5em] &= f\left(\begin{pmatrix}a_x\\a_y\end{pmatrix}\right)+f\left(\begin{pmatrix}b_x\\b_y\end{pmatrix}\right) \\[0.5em] &= f(a)+f(b) \\[1em] \end{array}

Schauen wir uns nun die VertrÀglichkeit mit der skalaren Multiplikation an. Die folgende Grafik zeigt, dass es egal ist, ob der Vektor aa zuerst mit einem Faktor λ\lambda skaliert und dann in xx-Richtung gestreckt wird oder zuerst in xx-Richtung gestreckt und dann mit λ\lambda skaliert wird:

Streckung und Skalierung eines Vektors

Auch das lĂ€sst sich formal zeigen: FĂŒr a∈R2a\in \mathbb{R}^{2} und λ∈R\lambda \in \mathbb{R} gilt

f(λa)=f(λ(axay))=f((λaxλay))=(ÎČ(λax)λay)=(λÎČaxλay)=λ(ÎČaxay)=λf((axay))=λf(a).\displaystyle \def\arraystretch{1.25} \begin{array}{rl} f(\lambda a) &= f\left(\lambda \begin{pmatrix}a_x\\a_y\end{pmatrix} \right) = f\left(\begin{pmatrix}\lambda a_x\\\lambda a_y\end{pmatrix}\right) \\[0.5em] &= \begin{pmatrix} \beta (\lambda a_x)\\\lambda a_y\end{pmatrix} = \begin{pmatrix} \lambda\beta a_x\\\lambda a_y\end{pmatrix}\\[0.5em] &=\lambda \begin{pmatrix}\beta a_x\\a_y\end{pmatrix} = \lambda f\left(\begin{pmatrix}a_x\\a_y\end{pmatrix}\right)\\[0.5em] &= \lambda f(a). \end{array}

Damit ist unser ff eine lineare Abbildung.

Drehungen

Im Folgenden betrachten wir eine Drehung DαD_{\alpha } der Ebene um den Winkel α\alpha (gegen den Uhrzeigersinn gemessen) mit dem Ursprung als Drehzentrum. Es handelt sich dabei also um eine Abbildung Dα:R2→R2D_{\alpha }:\mathbb {R} ^{2}\to \mathbb {R} ^{2}, die jedem Vektor v∈R2v\in \mathbb {R} ^{2} den um den Winkel α\alpha gedrehten Vektor Dα(v)∈R2D_{\alpha }(v)\in \mathbb {R} ^{2} zuordnet:

Wir wollen uns jetzt davon ĂŒberzeugen, dass DαD_{\alpha } eine lineare Abbildung ist. Dazu mĂŒssen wir zeigen:

  1. DαD_{\alpha } ist additiv: FĂŒr alle v,w∈R2v,w\in \mathbb {R} ^{2} ist Dα(v+w)=Dα(v)+Dα(w)D_{\alpha }(v+w)=D_{\alpha }(v)+D_{\alpha }(w).

  2. DαD_{\alpha } ist homogen: FĂŒr alle v∈R2v\in \mathbb {R} ^{2} und λ∈R\lambda \in \mathbb {R} ist Dα(λ⋅v)=λ⋅Dα(v)D_{\alpha }(\lambda \cdot v)=\lambda \cdot D_{\alpha }(v).

ÜberprĂŒfen wir zunĂ€chst die AdditivitĂ€t, also die Gleichung Dα(v+w)=Dα(v)+Dα(w)D_{\alpha }(v+w)=D_{\alpha }(v)+D_{\alpha }(w). Addieren wir zwei Vektoren v,w∈R2v,w\in \mathbb {R} ^{2} zuerst und drehen ihre Summe v+wv+w anschließend um den Winkel α\alpha, so soll derselbe Vektor herauskommen, wie wenn wir erst die Vektoren um den Winkel α\alpha drehen und im Anschluss die gedrehten Vektoren Dα(v)D_{\alpha }(v) und Dα(w)D_{\alpha }(w) addieren. Dies machen wir uns an folgenden beiden Videos klar:

Kommen wir nun zur HomogenitĂ€t: Dα(λ⋅v)=λ⋅Dα(v)D_{\alpha }(\lambda \cdot v)=\lambda \cdot D_{\alpha }(v). Strecken wir zunĂ€chst einen Vektor v∈R2v\in \mathbb {R} ^{2} um einen Faktor λ∈R\lambda \in \mathbb {R} und drehen das Resultat λ⋅v\lambda \cdot v danach um den Winkel α\alpha, so soll derselbe Vektor herauskommen, wie wenn wir als Erstes die Drehung um den Winkel α\alpha durchfĂŒhren und daraufhin das Ergebnis Dα(v)D_{\alpha }(v) um den Faktor λ\lambda skalieren. Auch dies wird durch zwei Videos ersichtlich:

Somit handelt es sich bei Drehungen im R2\mathbb {R} ^{2} um lineare Abbildungen.

Lineare Abbildung zwischen VektorrÀumen unterschiedlicher Dimension

Ein Beispiel einer linearen Abbildung zwischen zwei VektorrÀumen mit unterschiedlicher Dimension ist die folgende Projektion des Raums R3\mathbb {R} ^{3} auf die Ebene R2\mathbb {R} ^{2}:

f ⁣:R3→R2;(xyz)↩(xy)\displaystyle f\colon \R^3 \to \R^2; \quad \begin{pmatrix}x\\y\\z \end{pmatrix} \mapsto \begin{pmatrix}x\\y \end{pmatrix}

Wir prĂŒfen nun, ob die Vektoraddition erhalten bleibt. Also ob fĂŒr Vektoren a,b∈R3a,b\in\R^3 gilt

f(a+b)=f(a)+f(b).\displaystyle f(a+b)=f(a)+f(b).

Dies können wir direkt nachweisen:

f(a+b)=f((axayaz)+(bxbybz))=f((ax+bxay+byaz+bz))=(ax+bxay+by)=(axay)+(bxby)=f((axayaz))+f((bxbybz))=f(a)+f(b).\displaystyle \def\arraystretch{1.25} \begin{array}{rl} f(a+b)&= f\left( \begin{pmatrix}a_x\\a_y\\a_z \end{pmatrix} + \begin{pmatrix}b_x\\b_y\\b_z \end{pmatrix}\right)= f\left( \begin{pmatrix}a_x +b_x\\a_y+b_y\\a_z+b_z \end{pmatrix}\right) \\[0.5em] & = \begin{pmatrix}a_x + b_x\\a_y +b_y \end{pmatrix} = \begin{pmatrix}a_x\\a_y \end{pmatrix} + \begin{pmatrix}b_x\\b_y \end{pmatrix} \\[0.5em] & = f\left( \begin{pmatrix}a_x\\a_y\\a_z \end{pmatrix}\right) + f\left( \begin{pmatrix}b_x\\b_y\\b_z \end{pmatrix}\right)=f(a)+f(b). \end{array}

Nun ĂŒberprĂŒfen wir die HomogenitĂ€t. FĂŒr alle λ∈R\lambda \in \R und a∈R2a\in\R^2 soll gelten:

f(λ⋅a)=λ⋅f(a).\displaystyle f(\lambda\cdot a)=\lambda\cdot f(a).

Es ist

f(λ⋅a)=f(λ⋅(axayaz))=f((λaxλayλaz))=(λaxλay)=λ⋅(axay)=λ⋅f((axayaz))=λ⋅f(a).\displaystyle \def\arraystretch{1.25} \begin{array}{rl} f(\lambda \cdot a)&= f\left(\lambda \cdot \begin{pmatrix}a_x\\a_y\\a_z \end{pmatrix}\right) = f\left(\begin{pmatrix}\lambda a_x\\\lambda a_y\\\lambda a_z \end{pmatrix}\right ) \\[0.5em] &= \begin{pmatrix}\lambda a_x\\ \lambda a_y \end{pmatrix} = \lambda \cdot \begin{pmatrix} a_x\\ a_y \end{pmatrix} = \lambda \cdot f\left(\begin{pmatrix}a_x\\a_y\\a_z \end{pmatrix}\right )\\[0.5em] &=\lambda\cdot f(a). \end{array}

Damit ist die Projektion ff eine lineare Abbildung.

Eine nichtlineare Abbildung

Als nÀchstes untersuchen wir, ob es auch nicht lineare Abbildungen gibt. Hierzu betrachten wir die Normabbildung auf der Ebene, die jedem Vektor seine LÀnge zuordnet:

∄⋅∄2  ⁣: R2→R;(xy)↩x2+y2\displaystyle \|\cdot\|_2 \,\colon\, \R^2 \to \R ;\quad \begin{pmatrix}x\\y \end{pmatrix} \mapsto \sqrt{x^2 + y^2}

Diese Abbildung ist keine lineare Abbildung, denn sie erhÀlt weder die Vektoraddition noch die Skalarmultiplikation.

Dies zeigen wir mit Hilfe eines Gegenbeispiels:

Wir betrachten die Vektoren (1,0)T(1{,}0)^T und (0,1)T∈R2(0{,}1)^T\in\R^2. Wenn wir die beiden Vektoren zuerst addieren und danach abbilden, so erhalten wir

∄(10)+(01)∄2=∄(11)∄2=12+12=2.\displaystyle \left\|\begin{pmatrix}1\\0 \end{pmatrix} + \begin{pmatrix}0\\1 \end{pmatrix}\right\|_2 = \left\| \begin{pmatrix}1\\1\end{pmatrix}\right\|_2 = \sqrt{1^2 + 1^2} = \sqrt{2}.

Nun bilden wir die Vektoren zuerst ab und addieren dann die Ergebnisse:

∄(10)∄2+∄(01)∄2=12+02+02+12=1+1=2\displaystyle \left\|\begin{pmatrix}1\\0 \end{pmatrix}\right\|_2 + \left\|\begin{pmatrix}0\\1 \end{pmatrix}\right\|_2 = \sqrt{1^2 + 0^2} + \sqrt{0^2 + 1^2} = \sqrt{1} + \sqrt{1} = 2

Also gilt

∄(10)+(01)∄2≠∄(10)∄2+∄(01)∄2\displaystyle \left\|\begin{pmatrix}1\\0 \end{pmatrix} + \begin{pmatrix}0\\1 \end{pmatrix}\right\|_2 \neq \left\|\begin{pmatrix}1\\0 \end{pmatrix}\right\|_2 + \left\|\begin{pmatrix}0\\1 \end{pmatrix}\right\|_2

Damit ist gezeigt, dass die Normabbildung ist nicht additiv ist. Dies reicht schon aus um zu zeigen, dass die Normalabbildung nicht linear ist.

Alternativ hÀtten wir auch zeigen können, dass die Normalabbildung nicht homogen ist. Es gilt nÀmlich

∄(−1)⋅(10)∄2=∄(−10)∄2=(−1)2+02=1≠−1=(−1)⋅∄(10)∄2.\displaystyle \left\|(-1) \cdot \begin{pmatrix}1\\0 \end{pmatrix}\right\|_2 = \left\|\begin{pmatrix}-1\\0 \end{pmatrix}\right\|_2 = \sqrt{(-1)^2 + 0^2} = 1 \neq -1 = (-1) \cdot \left\|\begin{pmatrix}1\\0 \end{pmatrix}\right\|_2 .

Angewandte Beispiele

Lineare Abbildungen werden in vielen Bereichen verwendet, ohne dass wir uns dessen bewusst sind:

  1. Lineare Abbildungen sind eine der einfachsten Formen einer Abbildung. So werden komplexere Abbildungen hÀufig durch lineare Abbildungen approximiert.

  2. Der bekannteste Fall, in dem uns lineare Abbildungen das Leben erleichtern, sind Computergrafiken. Jedes Skalieren eines Fotos oder einer Grafik ist eine lineare Abbildung. Auch verschiedene Bildschirmauflösungen wurden letztlich nur linear abgebildet.

  3. Suchmaschinen nutzen Pageranks einer Website, um ihre Suchergebnisse zu sortieren. „Mathe fĂŒr Nicht-Freaks“, eine zufĂ€llige Seite aus dem Internet, erhĂ€lt so zum Beispiel ein Ranking. Um den Pagerank einer Seite zu bestimmen, wird eine sogenannte Markov-Kette verwendet, die wiederum eine lineare Abbildung ist.

6 Strukturerhaltung bei linearen Abbildungen

→ Hauptartikel: Eigenschaften Linearer Abbildungen

Eine lineare Abbildung bzw. ein Vektorraumhomomorphismus erhĂ€lt die Struktur des Vektorraums beim Abbilden. Dies zeigt sich in folgenden Eigenschaften einer linearen Abbildung f:V→Wf:V\to W:

  • Nullvektor wird auf Nullvektor abgebildet: f(0)=0f(0)=0

  • Inverse werden auf Inverse abgebildet: f(−v)=−f(v)f(-v)=-f(v)

  • Linearkombinationen werden auf Linearkombinationen abgebildet

  • Kompositionen linearer Abbildungen sind linear

  • Bilder von UntervektorrĂ€umen sind UntervektorrĂ€ume

  • Das Bild eines Spanns ist der Spann der einzelnen Bildvektoren: f(span⁥(M))=span⁥(f(M))f(\operatorname {span} (M))=\operatorname {span} (f(M)) (M⊆VM\subseteq V ist eine beliebige Menge)

7 Zusammenhang mit linearen Funktionen und affinen Abbildungen

Lineare Funktionen wurden in der Schule als Funktionen der Form f(x)=mx+tf(x)=mx+t mit m,t∈Rm,t\in \mathbb {R} eingefĂŒhrt. Es handelt sich dabei nicht um lineare Abbildungen. Sie sind es nur fĂŒr t=0t=0. So ist zum Beispiel fĂŒr m=1m=1 und t=2t=2:

f(x+y)=x+y+2≠x+y+2+2=f(x)+f(y)\displaystyle f(x+y)=x+y+2\neq x+y+2+2=f(x)+f(y)

Dass die in der Schule gelĂ€ufigen linearen Funktionen dennoch etwas mit den linearen Abbildungen zu tun haben, wird einem klar, wenn man die linearen Abbildungen von f:R→Rf:\mathbb {R} \to \mathbb {R} betrachtet. Diese sind Abbildungen der Form f(x)=mxf(x)=mx mit m∈Rm\in \mathbb {R}. Die Funktionen der Form f(x)=mx+tf(x)=mx+t aus der Schule sind sogenannte affin-lineare Abbildungen: Sie sind die Summe einer linearen Abbildung und eines konstanten Terms ttï»ż.

Affine Abbildung bilden Geraden auf Geraden ab und erhalten dabei ParallelitÀt und TeilverhÀltnisse von Strecken.

Wir können jede affine Abbildunge x↩A(x)x\mapsto A(x) immer in eine lineare Abbildung x↩L(x)x\mapsto L(x) und eine Translation x↩x+tx\mapsto x+t zerlegen. Es gilt also A(x)=L(x)+tA(x)=L(x)+t. Weil die Translationen x↩x+tx\mapsto x+t einfach zu beschreiben sind, ist der lineare Teil meistens interessanter. In der Theorie schauen wir uns deswegen nur den linearen Teil an, um nicht das x+tx+t mitzuschleppen.

8 Übungsaufgaben

IdentitÀt ist lineare Abbildung

Laden

Nullabbildung ist lineare Abbildung

Laden

Lineare Abbildungen zwischen den reellen Zahlen

Laden


Dieses Werk steht unter der freien Lizenz
CC BY-SA 4.0 → Was bedeutet das?