Vektorrechnung [edit]
Die Vektorrechnung ist die Grundvoraussetzung um mit Kräften rechnerisch umgehen zu können.
Notation
Wir notieren Tensoren (Skalare, Vektoren, Matrizen) mittels Unterstrichen. Dabei erhält die Größe immer die Anzahl an Unterstrichen, die Ihrer Tensorstufe entspricht. Folglich erhalten Skalare keinen Unterstrich, Vektoren einen Unterstricht, Matrixwertige
Objekte zwei Unterstriche und so weiter. Das hat den Vorteil, dass auf den ersten Blick ersichtlich ist welche Dimension das Objekt besitzt. Einige Beispiele sind in der folgenden Tabelle angeführt:
Bezeichung |
Beispiel
|
Eigenschaft |
Tensorbetrachtung |
Skalar |
m, l, A, V, ... |
mittels Zahl ausdrückbar
|
Tensor 0. Stufe
|
Vektor |
\( \underline{F} \), \( \underline{M} \), \( \underline{r} \),...
|
hat Betrag und Richtung + Wirkungslinie
|
Tensor 1. Stufe
|
Matrix |
\( \underline{\underline{\varepsilon}} \), \( \underline{\underline{\sigma}} \),... |
besitzt 3 Invarianten
|
Tensor 2. Stufe
|
|
|
|
|
|
\( \underline{\underline{\underline{\underline{E}}}} \)
|
E-Modul Tensor
|
Tensor 4. Stufe
|
Vektor
Ein Vektor ist ein Objekt mit Betrag, Wirkungslinie und Richtung. In der Ebene, also in zwei Raumdimensionen lässt sich ein Vektor folgendermaßen darstellen:

Der Betrag eines Vektors lässt sich sehr einfach über seine Komponenten unter Anwendung des
Satzes von Pythagoras berechnen, d.h.
\( \left|
\underline{F} \right| = \sqrt{F_x^2 + F_y^2} \) in zwei Raumdimensionen sowie
\( \left| \underline{F} \right| = \sqrt{F_x^2 + F_y^2 + F_z^2} \) in drei Raumdimensionen.
Rechenoperationen für Vektoren [edit]
Die folgenden Rechenoperationen sind für Vektoren definiert.
-
Produkt mit einem Skalar:
\( \alpha \underline{F} \) verlängert den Vektor \( \underline{F} \) um den Betrag \( \alpha \), d.h. \( \left| \alpha \underline{F} \right| = \left| \alpha \right| \left| \underline{F} \right| \)
-
Vektoraddition
\( \underline{R} = \underline{A} + \underline{B} = A_1 \underline{e}_1 + A_2 \underline{e}_2 + A_3 \underline{e}_3 + B_1 \underline{e}_1 + B_2 \underline{e}_2 + B_3 \underline{e}_3 = ( A_1 + B_1 ) \underline{e}_1 + ( A_2 + B_2 ) \underline{e}_2
+ ( A_3 + B_3 ) \underline{e}_3 \)
wobei \( \underline{e}_1, \underline{e}_2, \underline{e}_3 \) die Einheitsvektoren des Koordinatensystems sind, d.h.
\( \begin{pmatrix} R_1 \\ R_2 \\ R_3 \end{pmatrix} = \begin{pmatrix} A_1
\\ A_2 \\ A_3 \end{pmatrix} + \begin{pmatrix} B_1 \\ B_2 \\ B_3 \end{pmatrix} = \begin{pmatrix} A_1 + B_1 \\ A_2 + B_2 \\ A_3 + B_3 \end{pmatrix} \)
-
Vektorsubtraktion
entspricht der Vektoraddition mit einem negativen Vektor \( \underline{B} \), also
\( \underline{R} = \underline{A} - \underline{B} = \underline{A} + \left( - \underline{B} \right) = ( A_1 - B_1 ) \underline{e}_1 + ( A_2 - B_2 ) \underline{e}_2
+ ( A_3 - B_3 ) \underline{e}_3 \)
-
Vektorprodukte
Im \( {\rm I\!R}^3 \) existieren 3 Typen von Vektorprodukten.
-
Skalarprodukt (inneres Produkt)
Es handelt sich um eine Abbildung \( f: {\rm I\!R}^3 \rightarrow {\rm I\!R} \), d.h. das Skalarprodukt macht aus zwei Vektoren einen Skalar.
\( \underline{A} \cdot \underline{B} = A_1 B_1 + A_2 B_2 + A_3 B_3 = \left| \underline{A} \right|
\left| \underline{B} \right| \cos \gamma \),
wobei \( \gamma \) der Winkel zwischen den beiden Vektoren \( \underline{A} \) und \( \underline{B} \) ist. Umgekehrt lässt sich also der Winkel zwischen den beiden Vektoren \( \underline{A}
\) und \( \underline{B} \) berechnen als
\( \cos \gamma = \frac{\underline{A} \cdot \underline{B}}{\left| \underline{A} \right| \left| \underline{B} \right|} \)
Im Speziellen gilt für orthogonale Vektoren (solche die aufeinander
rechtwinklig stehen) \( \underline{A} \cdot \underline{B} = \underline{0} \), für parallele Vektoren \( \underline{A} \cdot \underline{B} = \left| \underline{A} \right| \left| \underline{B} \right| \) also auch \( \underline{A} \cdot \underline{A}
= \left| \underline{A} \right|^2 \).
Das Skalarprodukt ist sowohl kommutativ, es darf also die Reihenfolge der Vektoren bei der Multiplikation vertauscht werden, d.h. \( \underline{A} \cdot \underline{B} = \underline{B} \cdot \underline{A}
\), als auch distributiv, d.h. \( \underline{A} \cdot \left( \underline{B} + \underline{C} \right) = \underline{A} \cdot \underline{B} + \underline{A} \cdot \underline{C} = \left( \underline{B} + \underline{C} \right) \cdot \underline{A} \).
-
Kreuzprodukt (äußeres Produkt)
Hierbei handelt sich um eine Abbildung \( f: {\rm I\!R}^3 \rightarrow {\rm I\!R}^3 \), d.h. das Kreuzprodukt macht aus zwei Vektoren wieder einen Vektor. Dieser ist orthogonal zu den beiden Vektoren aus denen er entstanden ist, d.h. er steht normal auf diese.
\( \underline{C} = \underline{A} \times \underline{B} \)
Zur Berechnung kann Beispielsweise
die Determinantenregel verwendet werden:
\( \underline{A} \times \underline{B} = \begin{matrix} e_1 & e_2 & e_3 \\ A_1 & A_2 & A_3 \\ B_1 & B_2 & B_3 \end{matrix} \)
Hier als Beispiel dargestellt:
Der Betrag des Kreuzproduktes \( \left|\underline{A} \times \underline{B} \right| \) ist die Fläche des von \( \underline{A} \) & \( \underline{B} \) aufgespannten Parallelograms.
Das Kreuzprodukt
ist nicht kommutativ \( \underline{A} \times \underline{B} \neq \underline{B} \times \underline{A} \), sondern antikommutativ \( \underline{A} \times \underline{B} = \underline{A} \times \underline{B} \) (zumindest im euklidischen Raum).
Es ist auch nicht assoziativ, d.h. \( \underline{A} \times \left( \underline{B} \times \underline{C} \right) \neq \left( \underline{A} \times \underline{B} \right) \times \underline{C} \)
Es gilt ein Distributivgesetz der Form \( \underline{A}
\times \left( \underline{B} + \underline{C} \right) = \underline{A} \times \underline{B} + \underline{A} \times \underline{C} \).
Stehen zwei Vektoren parallel zueinander, so verschwindet ihr Kreuzprodukt, im Speziellen gilt \( \underline{A}
\times \underline{A} = \underline{0} \).
Auch die orthonormalen Einheitsvektoren eines Basissystems
lassen sich über das Kreuzprodukt miteinander verknüpfen.
\( \underline{e}_1 \times \underline{e}_2 = \underline{e}_3 \)
\( \underline{e}_2 \times \underline{e}_3 = \underline{e}_1 \)
\( \underline{e}_3 \times \underline{e}_1 = \underline{e}_2
\)
\( \underline{e}_2 \times \underline{e}_1 = -\underline{e}_3 \)
\( \underline{e}_3 \times \underline{e}_2 = -\underline{e}_1 \)
\( \underline{e}_1 \times \underline{e}_3 = -\underline{e}_2 \)
Sieht man sich die obige Systematik
genauer an wird klar, dass sich das Kreuzprodukt auch sehr kompakt mittels des sog. Levi-Civita Symbols (auch Epsilon-Tensor genannt) darstellen
und berechnen lässt.
In Komponentenschreibweise gilt:
\( C_i = \left( \underline{A} \times \underline{B} \right)_i = \varepsilon_{ijk} A_j B_k \),
wobei der Epsilon-Tensor bei jeder paarweisen Vertauschung seiner Indizes sein
Vorzeichen wechselt. Für drei Indizes bedeuted dies, dass jede zyklische Vertauschung (=zweifache paarweise Vertauschung) der Indizes das Vorzeichen unverändert lässt, also gilt:
\( \varepsilon_{123} = \varepsilon_{231} = \varepsilon_{312}
\)
\( = -\varepsilon_{213} = -\varepsilon_{321} = -\varepsilon_{132} \)
In der Mechanik tritt das Kreuzprodukt in vielerlei Hinsicht auf. Die erste "mechanische" Bekanntschaft damit werden wir beim Drehmoment machen: \( \underline{M} =
\underline{r} \times \underline{F} \). Mehr dazu im Wiki der folgenden Woche.
-
Spatprodukt
Das Spatprodukt ist eine Kombination aus Skalar- und Kreuzprodukt, welches einen Skalar als Ergebnis hat.
Es ist von der Form
\( \underline{A} \cdot \left( \underline{B} \times \underline{C} \right) \),
und ergibt das Volumen des
von \( \underline{A} \), \( \underline{B} \) und \( \underline{C} \) aufgespannten Parallelepipeds.
Aus der Determinantendarstellung des Kreuzproduktes folgt, dass zyklische Vertauschung der Vektoren im Spatprodukt dieses unverändert
lässt, also \( \underline{A} \cdot \left( \underline{B} \times \underline{C} \right) = \underline{B} \cdot \left( \underline{C} \times \underline{A} \right) = \underline{C} \cdot \left( \underline{A} \times \underline{B} \right)
\).
-
Ortsvektor & Verbindungsvektor
Als Ortsvektor eines Punktes \( A \) bezeichnet man jenen Vektor der vom Ursprung des Koordinatensystems zum Punkt \( A \) zeigt.
Ein Verbindungsvektor hingegen ist ein Vektor zwischen einem Punkt \( A \) und einem anderen Punkt \( B \).
Zur
Berechnung dieser Vektoren gilt die Regel "Spitze minus Schaft", d.h. der Verbindungsvektor vom Punkt \( AA \) (Schaft) zum Punkt \( B \) (Spitze) berechnet sich als
\( \underline{r}_{AB} = \left( A_1 , A_2 , A_3 \right) - \left( B_1
, B_2 , B_3 \right) = \left( A_1 - B_1 \right) \underline{e}_1 + \left( A_2 - B_2 \right) \underline{e}_2 + \left( A_3 - B_3 \right) \underline{e}_3 \)
Der Ortsvektor von Punkt \( A \) berechnet sich somit als Spezialfall des obigen
als
\( \underline{r}_{A0} = \left( A_1 , A_2 , A_3 \right) - \left( 0 , 0 , 0 \right) = \left( A_1 - 0 \right) \underline{e}_1 + \left( A_2 - 0 \right) \underline{e}_2 + \left( A_3 - 0 \right) \underline{e}_3 = A_1 \underline{e}_1 + A_2
\underline{e}_2 + A_3 \underline{e}_3 \)
-
Sonstiges Rechenoperationen
Es gibt noch zahlreiche weitere Rechenoperationen für Vektoren, wie z.B. Differentiation, Integration oder Objekte wie Vektorfelder, welche auch im Rahmen der verlinkten Videos vorkommen.