diff options
Diffstat (limited to 'notes/mathe2/exam.md')
-rw-r--r-- | notes/mathe2/exam.md | 367 |
1 files changed, 367 insertions, 0 deletions
diff --git a/notes/mathe2/exam.md b/notes/mathe2/exam.md new file mode 100644 index 0000000..453f664 --- /dev/null +++ b/notes/mathe2/exam.md @@ -0,0 +1,367 @@ +--- +author: Marvin Borner +date: "`\\today`{=tex}" +lang: de-DE +pandoc-latex-environment: + bsp-box: + - bsp + defi-box: + - defi + visu-box: + - visu +toc-title: Inhalt +--- + +```{=tex} +\newpage +``` +# Negative Zahlen in $\Z/n\Z$ + +Solange $n$ addieren, bis die Zahl positiv ist. + +::: bsp +**Beispiel**: Äquivalenzklassen in $\Z/6\Z$. + +1. $[-2] = [4]$ +2. $[-7] = [5]$ +::: + +# Reduzibilität + +Generell: Bei Polynomen der Grade 2/3 prüfen auf Nullstellen, da +$f = (x-a)g$ reduzibel mit $a$ NS. Bei Grad 4 Spezialfall der Zelegung +in zwei irreduzible Polynome zweiten Grades beachten (siehe Beispiel). + +Bei $\Z/n\Z[X]$ typischerweise jegliche Kombinationen ausprobieren und +NS finden. + +::: bsp +**Beispiel**: Reduzibilität von $f=x^4+2x^2+1$ in $\R[X]$: + +Man erkennt schnell, dass $f$ keine NS in $\R$ besitzt, da die +Exponenten jeweils positiv sind. + +**ALLERDINGS**: Polynome in Grad 4 sind durch Polynome folgender Grade +reduzibel: $$4 = 4 + 0 = 1 + 3 = 1 + 1 + 2 + 2 = 2 + 2 = 1 + 1 + 1 + 1$$ +Eine Zerlegung in ein Polynom mit Graden $4+0$ wäre der irreduzible +Fall. Alle Zerlegungen mit 1 stellen den Fall einer Nullstelle dar, da +dort ein Linearfaktor existiert. Dann bleibt hier der Fall $2+2$. + +Dann muss die Zerlegung existieren: +$$(x^2+ax+b)(x^2+cx+d) = x^4+(a+c)x^3+(b+ac+d)x^2+(ad+bc)x+bd$$ + +Durch die Koeffizienten von $f$ entsteht ein LGS: + +```{=tex} +\begin{splitty}a+c&=0\\b+ac+d&=2\\ad+bc&=0\\bd&=1\end{splitty} +``` +Mit der Lösung $a=c=0$ und $b=d=1$ lässt sich $f$ in $(x^2+1)(x^2+1)$ +zerlegen. +::: + +# Komplexe Zahlen + +## Gleichungen mit komplexen Zahlen lösen + +::: bsp +**Beispiel**: Bestimmen von $z$ bei $z^3 = 2 + 2i$. + +```{=tex} +\begin{center}\begin{tikzpicture} +\begin{axis}[axis lines=center,xmin=-1,xmax=3,ymin=-1,ytick={-1,...,3},ymax=3,minor tick num=1,ticks=both,yticklabels={$-i$, $0$, $i$, $2i$, $3i$}] +\addplot[black,mark=*] coordinates {(4,5)} {}; +\addplot[ultra thick,dashed,red] coordinates { (0,0) (2,0) } node[pos=0.5,above] {$\mathrm{Re}(z)=2$}; +\addplot[thick,dashed,red] coordinates { (2,0) (2,2) } node[pos=0.5,right] {$\mathrm{Im}(z)=2$}; +\addplot[thick,blue] coordinates { (0,0) (2,2) } node[pos=0.5,left] {$r$}; + +\node [above,red] at (axis cs: 2,2) {$2+2i$}; +\end{axis} +\end{tikzpicture}\end{center} +``` +Zuerst bestimmt man die Exponentialdarstellung mittels des Winkels. In +diesem Fall ist $\varphi=\frac{\pi}{4}$. $r$ lässt sich mit Pythagoras +berechnen als $r^2=2^2+2^2=8\implies r=\sqrt{8}$. Dann ist +$z^3 = 2+2i = \sqrt{8}e^{i(\frac{\pi}{4}+k2\pi)}$. Es folgt mit +$k=0,1,2$: +$$z_k=(\sqrt{8})^{\frac{1}{3}}e^{i(\frac{\pi}{4}+k2\pi)\cdot\frac{1}{3}} = \sqrt{2}e^{i(\frac{\pi}{12}+k\frac{2}{3}\pi)}.$$ +Alle Lösungen liegen dann auf dem imaginären Kreis. +::: + +# Vektorräume + +## Prüfen auf Erzeugendensystem/Basis + +Prüfen, ob $E = \{v_1,...,v_n\}$ eine Basis bzw. ein Erzeugendensystem +von Vektorraum $V$ ist: + +0. Für Basis ggf. zuerst auf lineare Unabhängigkeit prüfen zwecks + Effizienz (wenn offensichtlich, sonst sowieso ZSF in nächsten + Schritten) +1. Matrix $A$ erstellen mit Vektoren $v_1,...,v_n$ als Zeilen + untereinander +2. Rang von $A$ bestimmen +3. Dimension von $V$ bestimmen + - wenn $\mathrm{rank}(A) = \mathrm{dim}(V)$, dann $E$ + Erzeugendensystem + - wenn zusätzlich $\mathrm{rank}(A) = n$, dann $E$ Basis +4. Wenn keine Basis: Basis ermitteln/ergänzen: + - wenn $\mathrm{rank}(A) < \mathrm{dim}(V)$, dann alle linear + unabhängigen Vektoren (nicht-Nullzeilen der ZSF) zu einer Basis + ergänzen (z.B. durch passende Einheitsvektoren) + - wenn $\mathrm{rank}(A) = \mathrm{dim}(V) < n$, dann linear + abhängige Vektoren streichen + +ODER über Determinante $\neq 0$ (TUDU) + +## Basis ermitteln + +- Spalten einer Matrix bilden dessen Basis + +## Prüfen auf lineare Unabhängigkeit + +Anwenden des Gauß-Algorithmus: + +::: bsp +**Beispiel** mit $v_1=\begin{pmatrix}5\\11\\-2\end{pmatrix}$, +$v_2=\begin{pmatrix}3\\5\\-1\end{pmatrix}$ und +$v_3=\begin{pmatrix}4\\3\\-1\end{pmatrix}$: +$$\begin{pmatrix}5&3&4\\11&5&3\\-2&-1&-1\end{pmatrix} \leadsto \begin{pmatrix}0&\frac{1}{2}&\frac{3}{2}\\0&-\frac{1}{2}&-\frac{5}{2}\\-2&-1&-1\end{pmatrix} \leadsto \begin{pmatrix}0&0&-1\\0&-\frac{1}{2}&-\frac{5}{2}\\-2&-1&-1\end{pmatrix} \leadsto \begin{pmatrix}1&\frac{1}{2}&\frac{1}{2}\\0&1&5\\0&0&1\end{pmatrix}$$ +Man erkennt die lineare Unabhängigkeit: Die Vektoren bilden eine Basis +in $\R^3$. +::: + +## Prüfen auf Untervektorraum + +**Über Untervektorraumaxiome**: + +1. $0\in U$ +2. $x,y\in U \implies x+y\in U$ +3. $x\in U, \lambda\in K \implies \lambda x\in U$ + +**Über Kern/Bild**: + +Wenn man zeigen soll, dass eine Menge einen Untervektorraum darstellt, +ist es sinnvoll die Tatsache zu verwenden, dass sowohl Kern als auch +Bild immer Untervektorräume darstellen. + +::: bsp +**Beispiele**: Schreiben einer Menge als Kern zum Beweis des +Untervektorraums. + +1. Sei $U=\{x\in\R^3: x_1-x_2-x_3=0\}$. Dies lässt sich schreiben als + Matrixvektorprodukt mit + $U=\{x\in\R^3: (1,-1,-1)(x_1,x_2,x_3)^\top = 0\}$. Dann ist $U$ + wegen der Definition des Kerns mit $U=\{x\in V: Ax = 0\}$ ein + Untervektorraum von $\R^3$. +2. Sei + $U=\{(u_1,u_2,u_3)^\top\in\R^3: \begin{pmatrix}2u_1+3u_2-u_3\\u_1-4u_2+3u_3\end{pmatrix}=\begin{pmatrix}0\\0\end{pmatrix}\}$. + Dies lässt sich schreiben als Matrixvektorprodukt mit + $U=\{(u_1,u_2,u_3)^\top\in\R^3: \begin{pmatrix}2&3&-1\\1&-4&3\end{pmatrix}(u_1,u_2,u_3)^\top=\begin{pmatrix}0\\0\end{pmatrix}\}$. + Dann ist $U$ wegen der Definition des Kerns mit + $U=\{x\in V: Ax = 0\}$ ein Untervektorraum von $\R^3$. +::: + +::: bsp +**Beispiel**: Schreiben einer Menge als Bild zum Beweis des +Untervektorraums. + +Sei $U=\{(2x,-3x)^\top:x\in\R\}$. Dies lässt sich schreiben als +$U=\{\begin{pmatrix}2\\-3\end{pmatrix}x: x\in\R\}$. Dann ist $U$ wegen +der Definition des Bildes mit $U=\{Ax: x\in V\}$ ein Untervektorraum von +$\R^2$. +::: + +# Prüfen auf Linearität + +## Homomorphismus + +Beide Bedingungen lassen sich gemeinsam prüfen mit: +$$f(\lambda\vec{u} + \vec{v}) = \lambda f(\vec{u}) + f(\vec{v}).$$ + +# Matrizen + +## Matrizen transponieren + +$$A=\begin{pmatrix}a_{11}&...&a_{1n}\\\vdots&&\vdots\\a_{m1}&...&a_{mn}\end{pmatrix} \implies A^\top=\begin{pmatrix}a_{11}&...&a_{m1}\\\vdots&&\vdots\\a_{1n}&...&a_{mn}\end{pmatrix}$$ + +## Rang bestimmen + +1. Matrix in Zeilenstufenform bringen +2. Die Anzahl aller Zeilen, die nicht vollständig aus Nullen bestehen, + entspricht dem Rang + +## Bild bestimmen + +1. Transponierte Matrix $A^\top$ in Zeilenstufenform bringen +2. Umgeformte Matrix erneut transponieren +3. Die Menge aller Linearkombinationen der Spalten, die nicht + vollständig aus Nullen bestehen, entspricht dem Bild + +## Kern bestimmen + +1. Gleichungssystem $A\cdot v = 0$ aufstellen (mit + $A\in K^{m\times n} \implies v\in K^{n\times1}$) + - $A$ ist dann eine Abbildungsmatrix +2. Gleichungssystem in Zeilenstufenform bringen +3. Lösung (in Abhängigkeit von Parametern) als Menge schreiben + +## Determinante bestimmen + +### Regel von Sarrus + +Gilt bei $3\times3$-Matrizen: + +$$A=\begin{pmatrix}a&b&c\\d&e&f\\g&h&i\end{pmatrix}$$ +$$\implies \mathrm{det}(A) = aei+bfg+cdh-bdi-afh-ceg$$ + +### Gaußsches Eliminationsverfahren + +1. Gauß nutzen für Zeilenstufenform (rechte obere Dreiecksmatrix) + - bei jeder Vertauschung der Zeilen muss die Determinante mit $-1$ + multipliziert werden +2. Die Determinante ist das Produkt der Hauptdiagonalelemente: + $$\mathrm{det}(A) = (-1)^{\text{\#Vertauschungen}} \cdot a'_{11}\cdot...\cdot a'_{nn}$$ + +### Laplacescher Entwicklungssatz + +1. Wähle Zeile/Spalte aus, nach welcher entwickelt wird (optimalerweise + möglichst viele Nullen) + +2. Startpunkt als Faktor aufschreiben und mit der Determinanten der + Matrix multiplizieren, die entsteht, wenn die gesamte derzeitige + Zeile/Spalte gestrichen wird (abhängig von Schachbrettmuster ggf. + mit $-1$ multiplizieren) + +3. 2 wiederholen für alle Elemente der gewählten Spalte/Zeile und + addieren + +::: bsp +**Beispiel**: Entwicklung nach der ersten Zeile: + +```{=tex} +\begin{splitty} + \mathrm{det}\begin{pmatrix}1&2&3\\4&5&6\\7&8&9\end{pmatrix} &= 1 \cdot \mathrm{det}\begin{pmatrix}5&6\\8&9\end{pmatrix} + (-1)\cdot2\cdot\mathrm{det}\begin{pmatrix}4&6\\7&9\end{pmatrix} + 3\cdot\mathrm{det}\begin{pmatrix}4&5\\7&8\end{pmatrix}\\ + &= 1\cdot(-3) - 2 \cdot (-6) + 3\cdot(-3)\\ + &= 0 +\end{splitty} +``` +::: + +## Matrizen invertieren + +Generell: Für $2\times2$-Matrizen empfiehlt sich das +**Adjunktenverfahren**. Für $3\times3$-Matrizen empfiehlt sich das +**Adjunktenverfahren** sowie die **Cramersche Regel**. Bei größeren +Matrizen oder bei Matrizen mit vielen Nullen empfiehlt sich der +**Gauß-Jordan-Algorithmus**. + +Wichtig ist: Matrizen lassen sich nur invertieren, wenn $n\times n$ und +$$\mathrm{rank}(A) = n \iff \mathrm{det}(A)\neq0 \iff A^{-1} \text{ existiert.}$$ + +### Adjunktenverfahren + +Für $n\times n$-Matrizen: TUDU adj +$$A^{-1} = \frac{1}{\mathrm{det}(A)} \mathrm{adj}(A)$$ + +Für $2\times2$-Matrizen: +$$A^{-1}=\frac{1}{ad-bc}\begin{pmatrix}d&-b\\-c&a\end{pmatrix}$$ + +## Cramersche Regel + +1. $\mathrm{det}(A)$ berechnen und $\mathrm{det}(A)\neq0$ prüfen +2. Einzelne Einträge der Lösung $x=(x_1,...,x_n)^\top$ mit + $x_i=\frac{\mathrm{det}(A_i)}{\mathrm{det}(A)}$ bestimmen ($A_i$ + ergibt sich, wenn die $i$-te Spalte von $A$ durch den Vektor $b$ + ersetzt wird) + +### Gauß-Jordan-Algorithmus + +1. Erweiterte Koeffizientenmatrix $(A\mid E_n)$ bilden: + $$(A\mid E_n) = \left(\begin{array}{ccc|ccc}a_{11}&...&a_{1n}&1&...&0\\\vdots&&\vdots&\vdots&\ddots&\vdots\\a_{m1}&...&a_{mn}&0&...&1\end{array}\right)$$ +2. Gaußsches Eliminationsverfahren anwenden, um die linke Seite auf die + Einheitsmatrix zu bringen: + $$(E_n\mid A^{-1}) = \left(\begin{array}{ccc|ccc}1&...&0&b_{11}&...&b_{1n}\\\vdots&\ddots&\vdots&\vdots&&\vdots\\0&...&1&b_{m1}&...&b_{mn}\end{array}\right)$$ +3. Die Matrix auf der rechten Seite entspricht dem Inversen von $A$ + +## Charakteristisches Polynom bestimmen + +Determinante von $A-\lambda E_n$ abhängig von $\lambda$ bestimmen: +$$P_A = \mathrm{det}(A-\lambda E_n)$$ + +::: bsp +**Beispiel**: Mit +$A=\begin{pmatrix}1&1&-2\\1&1&-2\\-2&-2&4\end{pmatrix}$: + +Lösen durch Laplaceschen Entwicklungssatz: +`\begin{align*}P_A&=\mathrm{det}\begin{pmatrix}1-\lambda&1&-2\\1&1-\lambda&-2\\-2&-2&4-\lambda\end{pmatrix}\\&=(1-\lambda)\mathrm{det}\begin{pmatrix}1-\lambda&-2\\-2&4-\lambda\end{pmatrix}-1\mathrm{det}\begin{pmatrix}1&-2\\-2&4-\lambda\end{pmatrix}-2\mathrm{det}\begin{pmatrix}1&1-\lambda\\-2&-2\end{pmatrix}\\&=-\lambda^2(\lambda-6)\end{align*}`{=tex} +::: + +## Eigenwerte bestimmen + +1. Charakteristisches Polynom $P_A$ bestimmen +2. Nullstellen von $P_A$ sind Eigenwerte + +::: bsp +**Beispiel**: Mit $P_A=-\lambda^2(\lambda-6)$: +`\begin{align*}&-\lambda^2(\lambda-6)=0\\\implies&\lambda_{1,2}=0\quad\land\quad\lambda_3=6\end{align*}`{=tex} +::: + +## Eigenvektoren bestimmen + +1. Eigenwerte $\lambda_i$ bestimmen +2. Für jedes $\lambda_i$ lösen: + $$V_{\lambda_i} = \mathrm{ker}(A-\lambda_i E_n)$$ +3. Die Lösungen werden jeweils abhängig von einer Variable sein + `\textrightarrow\space`{=tex} linearen Spann aufstellen + +::: bsp +**Beispiel**: Mit $\lambda_{1,2}=0,\ \lambda_3=6$ und +$A=\begin{pmatrix}1&1&-2\\1&1&-2\\-2&-2&4\end{pmatrix}$: + +1. Eigenvektor für $\lambda_1=0$ berechnen: $\\A-\lambda_1$ umformen: + $$\begin{pmatrix}1&1&-2\\1&1&-2\\-2&-2&4\end{pmatrix}\leadsto\begin{pmatrix}1&1&-2\\0&0&0\\0&0&0\end{pmatrix}$$ + Gleichung $\mathrm{ker}(A-\lambda_1) \implies A-\lambda_1 = 0$ + lösen: + `\begin{align*}&x_1+x_2-2x_3=0\\\implies&x_1=-x_2+2x_3\\\implies&x_2=...=x_2\\\implies&x_3=...=x_3\end{align*}`{=tex} + Linearen Spann aufstellen: + $$V_0=\mathrm{Lin}\left(\begin{pmatrix}-1\\1\\0\end{pmatrix},\begin{pmatrix}2\\0\\1\end{pmatrix}\right)$$ +2. Eigenvektor für $\lambda_3=6$ berechnen: $\\A-\lambda_3$ umformen: + $$\begin{pmatrix}1-6&1&-2\\1&1-6&-2\\-2&-2&4-6\end{pmatrix}\leadsto\begin{pmatrix}2&0&1\\0&2&1\\0&0&0\end{pmatrix}$$ + Gleichung $\mathrm{ker}(A-\lambda_3) \implies A-\lambda_3 = 0$ lösen + durch LGS: + `\begin{align*}&2x_1+x_3=0\quad\land\quad2x_2+x_3=0\\\implies&x_1=-\frac{x_3}{2}\quad\land\quad x_2=-\frac{x_3}{2}\quad\land\quad x_3=x_3\end{align*}`{=tex} + Linearen Spann aufstellen: + $$V_6=\mathrm{Lin}\begin{pmatrix}-\frac{1}{2}\\-\frac{1}{2}\\1\end{pmatrix}=\mathrm{Lin}\begin{pmatrix}-1\\-1\\2\end{pmatrix}$$ +::: + +## Eigenraum bestimmen + +1. Eigenvektoren $V_{\lambda_i}$ bestimmen +2. Linearen Spann aller Eigenvektoren aufstellen + +::: bsp +**Beispiel**: Mit +$V_0=\mathrm{Lin}\left(\begin{pmatrix}-1\\1\\0\end{pmatrix},\begin{pmatrix}2\\0\\1\end{pmatrix}\right)$ +und $V_6=\mathrm{Lin}\begin{pmatrix}-1\\-1\\2\end{pmatrix}$: +$$\mathbb{L}=\mathrm{Lin}\left(\begin{pmatrix}-1\\1\\0\end{pmatrix},\begin{pmatrix}2\\0\\1\end{pmatrix},\begin{pmatrix}-1\\-1\\2\end{pmatrix}\right)$$ +::: + +## Diagonalmatrix und invertierbare Matrix bestimmen + +Gesucht werden Lösungen von $S^{-1}AS=D$ mit der invertierbaren Matrix +$S$ und der Diagonalmatrix $D$. + +1. Eigenwerte und Eigenvektoren von $A$ bestimmen +2. Die Spalten der invertierbaren Matrix $S$ entsprechen den + Eigenvektoren +3. Die Elemente der Diagonalen der Diagonalmatrix entsprechen den + Eigenwerten + +::: bsp +**Beispiel**: Mit $\lambda_{1,2}=0,\ \lambda_3=6$ sowie +$V_0=\mathrm{Lin}\left(\begin{pmatrix}-1\\1\\0\end{pmatrix},\begin{pmatrix}2\\0\\1\end{pmatrix}\right)$ +und $V_6=\mathrm{Lin}\begin{pmatrix}-1\\-1\\2\end{pmatrix}$: + +$$S=\begin{pmatrix}-1&2&-1\\-1&0&-1\\0&1&2\end{pmatrix}$$ +$$D=\begin{pmatrix}\lambda_1&0&0\\0&\lambda_2&0\\0&0&\lambda_3\end{pmatrix}=\begin{pmatrix}0&0&0\\0&0&0\\0&0&6\end{pmatrix}$$ +::: |