Hoofdstuk 2 - Lineaire afbeeldingen
Doel van dit hoofdstuk
$$ % Math operators % %
% VECTORS% specifically for vectors in F^n
% MATRICES% SCALARS
% LINEAR MAPS% FIELDS
% RELATIONS
% % % % % % % % %
%
$$
Herhaling:
Lineaire afbeeldingen: definities, elementaire eigenschappen, voorstelling als matrices
Eigenschappen van matrices en determinanten
Matrixinverse
Lineaire transformaties, algemene lineaire groep, basistransformaties
Lineaire stelsels: oplossingstructuur en relevante matrixontbindingen
Doel van dit hoofdstuk
Nieuw (?)
Lineaire functionalen en duale ruimte
Determinanten als volume(verandering), Jacobianen en substituties in meervoudige integralen
Lineaire afbeeldingen in reële en complexe vectorruimten; antilineaire afbeeldingen
Blokmatrices en Schur complementen
Lineaire afbeeldingen
Definitie
Homomorfismen tussen vectorruimten: \(\varphi \in \mathop{\mathrm{Hom}}(V,W)\)
Structuurbehoud:
- Additiviteit: \(\varphi({v}_1 + {v}_2) = \varphi({v}_1) + \varphi({v}_2)\)1
- Homogeniteit: \(\varphi(a {v}) = a \varphi({v})\)
\(\Rightarrow\) lineariteit \(\varphi(a_1 {v}_1 + a_2 {w}) = a_1 \varphi({v}_1) + a_2 \varphi({v}_2)\)
Nieuwe notatie: \({\hat{A}}:V \to W: {v}\mapsto {\hat{A}}({v}) = {\hat{A}}{v}\)
(hoofdletter Latijns alfabet, hoedje, functiehaakjes niet noodzakelijk)
Voorbeelden
- \(\mathop{\mathrm{Hom}}({\mathbb{F}}^n, {\mathbb{F}}^n) \cong {\mathbb{F}}^{m \times n}\): matrices die werken op standaard kolomvectoren via matrix-vector-vermenigvuldiging
- De identiteitsafbeelding \({\hat{1}}_V\)
- Afgeleide-operator \({\hat{D}}\), die werkt op functies op een interval \(I \subseteq {\mathbb{R}}\) als \(({\hat{D}}f)(x) = \frac{{\mathrm{d}}f}{{\mathrm{d}}x}(x) = f'(x)\)
- Domein \(C^k(I,{\mathbb{F}}) \Rightarrow\) codomein \(C^{k-1}(I,{\mathbb{F}})\)
- Domein \(C^{\infty}(I,{\mathbb{F}})\) = codomain: lineaire operator
- Integraaltransformaties: Fouriertransformatie, Laplace-transformatie,
Eigenschappen
- \(\mathop{\mathrm{Hom}}(V,W)\) is zelf een vectorruimte over \({\mathbb{F}}\),
- Puntsgewijze definitie, gebruik makende van vectorstructuur die bestaat in codomein \(W\): \(({\hat{A}}+{\hat{B}})({v}) = {\hat{A}}({v}) + {\hat{B}}({v})\) en \((a {\hat{A}})({v}) = a {\hat{A}}(v)\).
- ‘Nulvector’ is de nulafbeelding \({\hat{0}}\) die voldoet aan \({\hat{0}} {v}= {o}_W\), \(\forall {v}\in V\)
- Compositie van lineaire afbeeldingen:
- \(\circ: \mathop{\mathrm{Hom}}(V,W) \times \mathop{\mathrm{Hom}}(U,V) \to \mathop{\mathrm{Hom}}(U,W)\)
- \({\hat{A}} \circ {\hat{B}}\) is bilineair in zijn argumenten
- \((\mathop{\mathrm{End}}(V), \circ)\) is een associatieve algebra met \({\hat{1}}_V\) als eenheidselement
Kern, beeld en rang-nulliteitsstelling
Beeldruimte
\(\mathop{\mathrm{im}}({\hat{A}}) = {\hat{A}}(V) = \{{\hat{A}}{v}; {v}\in V\}\)
- \(\mathop{\mathrm{im}}({\hat{A}}) {\preccurlyeq}W\)
- rang: \(\mathop{\mathrm{rank}}({\hat{A}}) = \mathop{\mathrm{dim}}(\mathop{\mathrm{im}}({\hat{A}}))\)
Kern (of nulruimte)
Zelfde definitie als voor groep: \(\mathop{\mathrm{ker}}({\hat{A}}) = {\hat{A}}^{-1}(\{{o}_W\})\)
\(\mathop{\mathrm{ker}}({\hat{A}}) {\preccurlyeq}V\)
nulliteit: \(\mathop{\mathrm{nullity}}({\hat{A}}) = \mathop{\mathrm{dim}}(\mathop{\mathrm{ker}}({\hat{A}}))\)
injectieve afbeelding \(\Leftrightarrow \mathop{\mathrm{nullity}}({\hat{A}}) = 0\)
injectieve afbeeldingen behouden lineaire onafhankelijkheid en dimensie
voor \(U{\preccurlyeq}V\): \(\mathop{\mathrm{dim}}({\hat{A}}U) = \mathop{\mathrm{dim}}(U)\)
Voorbeeld: \(\mathop{\mathrm{ker}}({\hat{D}})\) de verzameling van constante functies
Rang-nulliteitsstelling
Gegeven een afbeelding \({\hat{A}}:V \to W\)
Equivalentierelatie \({v}\sim {u}\Leftrightarrow ({v}- {u}) \in \mathop{\mathrm{ker}}({\hat{A}}) \Leftrightarrow {\hat{A}}{v}= {\hat{A}}{u}\)
Met elke equivalentieklasse \([{v}]\) is een uniek punt in \(\mathop{\mathrm{im}}({\hat{A}})\) geassocieerd
We kunnen een bijectieve afbeelding definiëren van de quotiëntruimte \(V /\mathop{\mathrm{ker}}({\hat{A}})\) naar \(\mathop{\mathrm{im}}({\hat{A}})\)
Voor \(V\) eindig-dimensionaal:
\(\mathop{\mathrm{dim}}(\mathop{\mathrm{im}}({\hat{A}})) = \mathop{\mathrm{dim}}(V/\mathop{\mathrm{ker}}({\hat{A}})) = \mathop{\mathrm{dim}}(V) - \mathop{\mathrm{dim}}(\mathop{\mathrm{ker}}({\hat{A}}))\)
\(\Rightarrow\mathop{\mathrm{rank}}({\hat{A}}) + \mathop{\mathrm{nullity}}({\hat{A}}) = \mathop{\mathrm{dim}}(V)\)
Rang-nulliteitsstelling
Gevolgen:
- Voor \(V,W\) eindigdimensionaal en \(\mathop{\mathrm{dim}}(V) = \mathop{\mathrm{dim}}(W)\) zijn volgende eigenschappen equivalent:
- injectief: \(\mathop{\mathrm{nullity}}({\hat{A}}) = 0\)
- surjectief: \(\mathop{\mathrm{rank}}({\hat{A}}) = \mathop{\mathrm{dim}}(W) = \mathop{\mathrm{dim}}(V)\)
- bijectief
- Voor een vierkante matrix \({\mathsf{A}} \in {\mathbb{F}}^{n \times n}\) impliceert het bestaan van een linker- of rechterinverse meteen dat dit een volwaardig inverse is: \({\mathsf{A}}^{-1}\)
Voorbeeld
Beschouw de vectorruimte \({\mathbb{F}}^{{\mathbb{N}}_0}\), de vectorruimte van oneindig lange tuples met als lineaire afbeeldingen:
- \({\hat{R}}(v^1,v^2,v^3,\ldots) = (0, v^1, v^2, \ldots)\)
- \({\hat{L}}(v^1,v^2,v^3,\ldots) = (v^2,v^3,v^4, \ldots)\)
Er geldt dat:
- \({\hat{L}} {\hat{R}} = {\hat{1}}\)
- \({\hat{R}}{\hat{L}}={\hat{P}}\) met \({\hat{P}}(v^1,v^2,v^3,\ldots) = (0, v^2, v^3, \ldots)\)
Matrices en determinanten
Matrixvoorstelling van lineaire afbeeldingen
Beschouw een lineaire afbeelding \({\hat{A}}:V \to W\) waar \(V\) en \(W\) eindig-dimensionaal zijn en een basis \(B_V = \{{e}_1,\ldots,{e}_n\}\) en \(B_W = \{{f}_1,\ldots,{f}_m\}\) hebben:
\[{\hat{A}}({e}_j) = {f}_i A^i_{\ j} \Rightarrow {w}= {\hat{A}}({v}) = v^j {\hat{A}}({e}_j) = (A^i_{\ j} v^j) {f}_i = w^i {f}_i\]
Met behulp van
- \(\boldsymbol{v} = \phi_{B_V}({v}) \in {\mathbb{F}}^n\), \(\boldsymbol{w} = \phi_{B_W}({w}) \in {\mathbb{F}}^m\)
- \({\mathsf{A}} = \Phi_{B_W,B_V}({\hat{A}}) = \phi_{B_W}\circ {\hat{A}} \circ \phi_{B_V}^{-1} \in {\mathbb{F}}^{m \times n}\) : matrixvoorstelling
geldt dus \(\boldsymbol{w}= {\mathsf{A}}\boldsymbol{v}\): matrix - vector product
Matrixvoorstelling en compositie
Voor de compositie van lineaire afbeeldingen geldt:
\({\hat{C}} = {\hat{A}}\circ {\hat{B}} \Rightarrow {\mathsf{C}} = {\mathsf{A}} \cdot {\mathsf{B}}\): matrix - matrix product “\(\cdot\)”
Enkele eigenschappen van matrixvermenigvuldiging:
- \({\mathsf{A}} \in {\mathbb{F}}^{m\times n}, {\mathsf{B}}\in{\mathbb{F}}^{n \times p} \Rightarrow {\mathsf{C}} \in {\mathbb{F}}^{m \times p}\)
- associatief, neutraal element = \({\mathsf{I}}_n\) (\(n \times n\) eenheidsmatrix), niet commutatief, bilineair
- computationele complexiteit: \(mnp\) vermenigvuldigingen en \(mn(p-1)\) addities van scalairen (naïve telling)
- geheugencomplexiteit: \(mn + np + mp\) scalairen
- voor \(m \approx n \approx p\): \(\mathop{\mathrm{\mathscr{O}}}(n^3)\) bewerkingen op \(\mathop{\mathrm{\mathscr{O}}}(n^2)\) data
Lineaire extensie en vrije vectorruimte
- Voor een verzameling \(S\) waarvan we de elementen \(\{a_1, a_2,\ldots\}\) beschouwen als abstracte entiteiten zonder vooraf bestaande vectorstructuur:
- de vrije vectorruimte \({\mathbb{F}}S\) bestaat uit alle “formele” lineaire combinaties, waarbij we de elementen van \(S\) als abstracte basisvectoren beschouwen (zie H1)
- Voor verzamelingen \(S,S'\) en een afbeelding \(\varphi:S\to S'\):
De lineaire extensie van \(\varphi\) is een lineaire afbeelding \(\mathop{\mathrm{Hom}}({\mathbb{F}}S, {\mathbb{F}}S')\), gedefinieerd als
\[{\hat{\varphi}}({v}) = v^i {\hat{\varphi}}(a_i) = v^i \varphi(a_i)\]
met \(\varphi(a_i)\) een element uit \(S'\) (= basisvector uit \({\mathbb{F}}S'\)).
Voorbeeld van lineaire extensie (1)
Beschouw de verzameling van bits \(S=\{0,1\}\) en de bit-flip-operatie \(\varphi:S\to S\) met \(\varphi(0) =1\), \(\varphi(1) = 0\)
\({\mathbb{C}}S \cong {\mathbb{C}}^2\) en \({\hat{\varphi}} \cong \begin{bmatrix} 0 & 1 \\ 1 & 0 \end{bmatrix}\)
Indien we de standaard basisvectoren van \({\mathbb{C}}S\) noteren als \(\vert 0 \rangle\) en \(\vert 1 \rangle\) (de zogenaamde ket-notatie van Dirac), dan komt dat overeen met de taal waarin quantum bits (qubits) geformuleerd worden. De flip-operatie op een qubit wordt beschreven door bovenstaande matrix, die ook \(\sigma^x\) wordt genoemd, en 1 van de drie Pauli matrices is.
Voorbeeld van lineaire extensie (2)
Beschouw een groep \(G = \{g_1,g_2,\ldots\}\). Met elk groepselement kunnen we een element uit \(\mathop{\mathrm{Aut}}(G)\) associeren, namelijk op 2 verschillende manieren:
- linker-multiplicatie: \(L_{g} (h) = g h\) zodat \(L_{g_1} L_{g_2} = L_{g_1 g_2}\)
- rechter-multiplicatie: \(R_{g}(h) = h g^{-1}\) zodat \(R_{g_1} R_{g_2} = R_{g_1 g_2}\)
Deze transformaties kunnen gepromoveerd worden tot lineaire transformaties op \({\mathbb{C}}G\), waarbij \({\hat{L}}_g\) en \({\hat{R}}_g\) zullen worden voorgesteld door “permutatiematrices’: vierkante matrices met enkel nul en één, zodat er exact één element één is in elke rij en elke kolom. Deze staan gekend als de linker en rechter reguliere representatie, en spelen een belangrijke rol bij de ontwikkeling van representatietheorie.
Bewerkingen met matrices
Gegeven een matrix \({\mathsf{A}}\) met componenten \(A^i_{\ j}\)
- Transponeren: \([{\mathsf{A}}^{\mathsf{T}}]^i_{\ j} = A^j_{\ i}\) \(\Rightarrow\) later: \(({\mathsf{A}}^{\mathsf{T}})_i^{\ j} = A^j_{\ i}\)
- \(({\mathsf{A}}^{\mathsf{T}})^{\mathsf{T}}={\mathsf{A}}\)
- \((a_1 {\mathsf{A}}_1 + a_2 {\mathsf{A}}_2)^{\mathsf{T}}= a_1 {\mathsf{A}}_1^{\mathsf{T}}+ a_2 {\mathsf{A}}_2^{\mathsf{T}}\) (lineair)
- \(({\mathsf{A}}{\mathsf{B}})^{\mathsf{T}}= {\mathsf{B}}^{\mathsf{T}}{\mathsf{A}}^{\mathsf{T}}\)
- Hermitisch toevoegen (hermitisch conjugeren, hermitisch transponeren): \(({\mathsf{A}}^{\mathsf{H}})^i_{\ j} = {\overline{\left(A^j_{\ i}\right)}}\)
- \(({\mathsf{A}}^{\mathsf{H}})^{\mathsf{H}}={\mathsf{A}}\)
- \((a_1 {\mathsf{A}}_1 + a_2 {\mathsf{A}}_2)^{\mathsf{H}}= {\overline{a_1}} {\mathsf{A}}_1^{\mathsf{H}}+ {\overline{a_2}} {\mathsf{A}}_2^{\mathsf{H}}\)
- \(({\mathsf{A}} \cdot {\mathsf{B}})^{\mathsf{H}}= {\mathsf{B}}^{\mathsf{H}}\cdot {\mathsf{A}}^{\mathsf{H}}\)
Bewerkingen met matrices
Een matrix kan de voorstelling zijn van verschillende soorten objecten uit de lineaire algebra (zie H5: bilineaire en sesquilineaire afbeeldingen).
Voor matrices als voorstelling van een lineaire afbeelding hebben volgende definities geen betekenis door ‘index mismatch’; desalniettemin voeren we volgende definities toch al in op het niveau van matrices. We komen ze later terug tegen in de context van bilineaire en sesquilineaire vormen, waar ze een intrinsieke betekenis hebben:
- symmetrisch: \({\mathsf{A}} = {\mathsf{A}}^{\mathsf{T}}\)
- antisymmetrisch of scheef-symmetrisch: \({\mathsf{A}} = -{\mathsf{A}}^{\mathsf{T}}\)
- Hermitisch: \({\mathsf{A}} = {\mathsf{A}}^{\mathsf{H}}\)
- anti-Hermitisch of scheef-Hermitisch: \({\mathsf{A}} = -{\mathsf{A}}^{\mathsf{H}}\)
Rang van een matrix
Een matrix \({\mathsf{A}}\in {\mathbb{F}}^{m \times n}\) kan een lineaire afbeelding van \({\mathbb{F}}^n\) naar \({\mathbb{F}}^m\) voorstellen.
\(\mathop{\mathrm{im}}({\mathsf{A}}) {\preccurlyeq}{\mathbb{F}}^m\) staat ook gekend als de kolomruimte van \({\mathsf{A}}\), de ruimte opgespannen door de kolommen van \({\mathsf{A}}\)
de dimensie van die ruimte, zijnde \(\mathop{\mathrm{rank}}({\mathsf{A}})\), wordt soms ook de kolomrang genoemd
De rijen van de matrix \({\mathsf{A}}\) definieren vectoren van lengte \(n\), en spannen een deelruimte op van \({\mathbb{F}}^n\), de rijruimte
De bijbehorende dimensie is de rijrang van \({\mathsf{A}}\)
Stelling 1: rijrang = kolomrang (aan bord) \(\Rightarrow\) rang!
Stelling 2: \(\mathop{\mathrm{rank}}({\mathsf{A}}\cdot {\mathsf{B}}) \leq \min(\mathop{\mathrm{rank}}({\mathsf{A}}), \mathop{\mathrm{rank}}({\mathsf{B}}))\)
Spoor
Gegeven een vierkante matrix \({\mathsf{A}} \in {\mathbb{F}}^{n \times n}\)
- Spoor \(\mathop{\mathrm{tr}}({\mathsf{A}}) = A^i_{\ i}\)
- Triviaal: \(\mathop{\mathrm{tr}}({\mathsf{A}}\cdot {\mathsf{B}}) = \mathop{\mathrm{tr}}({\mathsf{B}}\cdot {\mathsf{A}})\)
Determinant
Gegeven een vierkante matrix \({\mathsf{A}} \in {\mathbb{F}}^{n \times n}\)
Leibniz formule \[\begin{align} \det({\mathsf{A}}) &= \sum_{\sigma \in S_n} \mathop{\mathrm{sgn}}(\sigma) A^1_{\ \sigma(1)} A^2_{\ \sigma(2)} \cdots A^n_{\ \sigma(n)}\\ &= \epsilon^{j_1j_2\cdots j_n} A^1_{\ j_1} A^2_{\ j_2} \cdots A^n_{\ j_n} \end{align}\]
met \(\epsilon^{i_1i_2\cdots i_n} = \begin{cases} \mathop{\mathrm{sgn}}(\sigma),&\sigma=(i_1,i_2,\ldots,i_n) \in S_n\\ 0, &(i_1,i_2,\ldots,i_n) \not\in S_n\end{cases}\)
Levi-Civita symbool
\(n!\) termen met elk \(n\) vermenigvuldigingen ?
praktische algoritmes voor determinant hebben complexiteit \(\mathop{\mathrm{\mathscr{O}}}(n^3)\)
Determinant als volume
Beschouw de determinant als een multivariate functie van de \(n\) kolommen van de matrix \({\mathsf{A}} \eqsim (\boldsymbol{a}_1,\boldsymbol{a}_2, \ldots,\boldsymbol{a}_n)\). De determinant is volledig en uniek gekarakteriseerd door:
- lineariteit in elke kolom = multilineaire functie
- alternerend in twee opeenvolgende kolommen: \(\boldsymbol{a}_i =\boldsymbol{a}_{i+1} \Rightarrow \det = 0\)
- eenheidsmatrix \({\mathsf{I}}_n \eqsim\) standaardbasis \((\boldsymbol{e}_1,\ldots,\boldsymbol{e}_n)\) \(\Rightarrow \det = 1\)
eigenschappen die je verwacht voor het volume van een parallellopipidum opgespannen \((\boldsymbol{a}_1, \ldots,\boldsymbol{a}_n)\)
\(\Rightarrow \det({\mathsf{A}})\) is de volumeverandering door de lineaire afbeelding \({\mathsf{A}}\)
Determinant: verdere eigenschappen
\(\det({\mathsf{A}}) =0 \iff \mathop{\mathrm{rank}}({\mathsf{A}}) < n\)
\(\epsilon^{j_1j_2\cdots j_n} A^{i_1}_{\ j_1} A^{i_2}_{\ j_2} \cdots A^{i_n}_{\ j_n} = \epsilon^{i_1i_2\cdots i_n}\)
\(\det({\mathsf{A}}\cdot{\mathsf{B}}) = \det({\mathsf{A}})\det({\mathsf{B}})\)
Twee opeenvolgende transformaties \(\Rightarrow\) product van volumeveranderingen
Determinant: toepassing
Beschouw een multidimensionele integraal \(\int_V g(\boldsymbol{x}) {\mathrm{d}}x^1 {\mathrm{d}}x^2 \cdots {\mathrm{d}}x^n\)
Stel dat we een algemene (niet noodzakelijk lineaire) coordinatentransformatie willen doorvoeren: \(\boldsymbol{x} = \boldsymbol{f}(\boldsymbol{y})\) met \(\boldsymbol{f}:{\mathbb{R}}^n \to {\mathbb{R}}^n\) of dus \(x^i = f^i(y^1,y^2,\ldots,y^n)\)
Rond een bepaald punt \(\boldsymbol{x}_k =\boldsymbol{f}(\boldsymbol{y}_k)\) geldt de eerste-orde Taylor benadering: \[\begin{align} x^i &= f^i(\boldsymbol{y}) = f^i(\boldsymbol{y}_k + (\boldsymbol{y}-\boldsymbol{y}_k)) \\ &= f^i(\boldsymbol{y}_k) + \frac{\partial f^i}{\partial y^j}(\boldsymbol{y}_k) (y^j - y_k^j) \\ &= x^i_k + \frac{\partial f^i}{\partial y^j}(\boldsymbol{y}_k) (y^j - y_k^j) \end{align}\]
Determinant: toepassing
De Jacobiaan \({\mathsf{J}}_{\boldsymbol{f}}(\boldsymbol{y})\) met componenten
\[ ({\mathsf{J}}_{\boldsymbol{f}}(\boldsymbol{y}))^i_{\ j} = \frac{\partial f^i}{\partial y^j}(\boldsymbol{y}) \]
beschrijft de lineaire benadering van \(\boldsymbol{f}\) in de buurt van het punt \(\boldsymbol{y}\).
Dit brengt een volumeverandering teweeg gegeven door
\[ {\mathrm{d}}x^1 {\mathrm{d}}x^2 \cdots {\mathrm{d}}x^n = {\left\lvert\det({\mathsf{J}}_{\boldsymbol{f}}(\boldsymbol{y}))\right\rvert} {\mathrm{d}}y^1 {\mathrm{d}}y^2 \cdots {\mathrm{d}}y^n\]
\(\Rightarrow\int_V g(\boldsymbol{x}) {\mathrm{d}}x^1 {\mathrm{d}}x^2 \cdots {\mathrm{d}}x^n\) \(\qquad =\int_{V'} g(\boldsymbol{f}(\boldsymbol{y})) {\left\lvert\det({\mathsf{J}}_{\boldsymbol{f}}(\boldsymbol{y}))\right\rvert} {\mathrm{d}}y^1 {\mathrm{d}}y^2 \cdots {\mathrm{d}}y^n\)
Determinant: toepassing
Voorbeeld: poolcoördinaten \(x = \rho \cos \theta, y = \rho \sin \theta\)
\[\begin{align*} {\mathsf{J}}(r,\theta) = \begin{bmatrix} \frac{\partial x}{\partial \rho} & \frac{\partial x}{\partial \theta} \\ \frac{\partial y}{\partial \rho} & \frac{\partial y}{\partial \theta} \end{bmatrix} = \begin{bmatrix} \cos(\theta) & -\rho \sin(\theta) \\ \sin(\theta) & \rho \cos(\theta) \end{bmatrix} \end{align*}\]
\[{\left\lvert\det({\mathsf{J}}(\rho,\theta))\right\rvert} = \rho \Rightarrow {\mathrm{d}}x {\mathrm{d}}y = \rho {\mathrm{d}}\rho {\mathrm{d}}\theta \]
Opmerking:
- De absolute waarde heeft te maken met het feit dat een determinant de verandering van een geörienteerd volume beschrijft. Voor de volume-integraal is dit teken (dat aangeeft of de oriëntatie al dan niet behouden blijft) niet van belang, of wordt het gecompenseerd door hoe de integratiegrenzen geordend worden.
Matrix inverse:
\((k,l)\)-minor \(M_k^{\ l}\) van een matrix \({\mathsf{A}} \in {\mathbb{F}}^{n\times n}\) is de determinant van de matrix die overblijft na het verwijderen van rij \(k\) en kolom \(l\)
Laplace-expansie van determinant:
\(\det({\mathsf{A}}) = \sum_l A^k_{\ l} (-1)^{k-l} M_k^{\ l}\) (geen sommatieconventie)
veralgemening: \(\sum_l A^i_{\ l} (-1)^{k-l} M_k^{\ l} = \det({\mathsf{A}}) \delta^i_{\ k}\)
Met behulp van \((\mathop{\mathrm{adj}}({\mathsf{A}}))^i_{\ j} = (-1)^{j-i} M_j^{\ i}\):
\({\mathsf{A}} \cdot \mathop{\mathrm{adj}}({\mathsf{A}}) = \det({\mathsf{A}}) {\mathsf{I}}_n\)
als \(\det({\mathsf{A}})\neq 0\): \(\Rightarrow\ {\mathsf{A}}^{-1} = \det({\mathsf{A}})^{-1} \mathop{\mathrm{adj}}({\mathsf{A}})\)
als \(\det({\mathsf{A}}) = 0\): \({\mathsf{A}}\) is singulier, ontaard, niet-inverteerbaar
Afgeleide van een determinant
Beschouw een matrixwaardige functie \({\mathsf{A}}(t)\), i.e. een matrix waarvan de elementen (continue, afleidbare) functies zijn van de tijd.
Jacobi’s formule:
\[\begin{align} \frac{{\mathrm{d}}\ }{{\mathrm{d}}t} \det({\mathsf{A}}(t)) &= \mathop{\mathrm{tr}}\left[\mathop{\mathrm{adj}}({\mathsf{A}}(t)) \frac{{\mathrm{d}}{\mathsf{A}}}{{\mathrm{d}}t}(t)\right]\\ &= \det({\mathsf{A}}(t)) \mathop{\mathrm{tr}}\left[{\mathsf{A}}^{-1}(t) \frac{{\mathrm{d}}{\mathsf{A}}}{{\mathrm{d}}t}(t)\right] \end{align}\]
Bewijs: aan bord
Algemene lineaire groep en basistranformaties
Lineaire groep
\(\mathop{\mathrm{Aut}}(V)\) voor vectorruimte \(V\) wordt genoteerd als \(\mathop{\mathrm{GL}}(V)\) en de “algemene lineaire groep” voor \(V\) genoemd.
\(\mathop{\mathrm{GL}}({\mathbb{F}}^n)= \mathop{\mathrm{GL}}(n;{\mathbb{F}})\): inverteerbare \(n \times n\) matrices
vierkante matrices waarvoor \(\det({\mathsf{A}}) \neq 0\)
voor \({\mathbb{F}}={\mathbb{R}}\): \(\det({\mathsf{A}}) > 0\) of \(\det({\mathsf{A}}) < 0\)
\(\Rightarrow\) twee onsamenhangende delen
voor \({\mathbb{F}}= {\mathbb{C}}\): samenhangend
Speciale lineaire groep \(\mathop{\mathrm{SL}}(n; {\mathbb{F}})\): \(n\times n\) matrices met \(\det({\mathsf{A}}) = 1\)
Basistransformaties
Eindigdimensionale vectorruimte \(V\) met twee verschillende keuzes van basis \(B = \{{e}_1,{e}_2,\ldots,{e}_n\}\) en \(\tilde{B} = \{\tilde{{e}}_1,\ldots,\tilde{{e}}_n\}\):
\({e}_j = \tilde{{e}}_i T^i_{\ j} \Rightarrow {v}= v^j {e}_j = \tilde{v}^i \tilde{{e}}_i = v^j T^i_{\ j} \tilde{{e}}_i \Rightarrow \tilde{\boldsymbol{v}} = {\mathsf{T}} \boldsymbol{v}\)
\(\boldsymbol{v} = \phi_{B}({v})\) en \(\tilde{\boldsymbol{v}} = \phi_{\tilde{B}}({v})\)
\(\Rightarrow \tilde{\boldsymbol{v}} = \phi_{\tilde{B}} \circ \phi_B^{-1}(\boldsymbol{v})\)
\(\Rightarrow {\mathsf{T}} = \phi_{\tilde{B}} \circ \phi_B^{-1}: {\mathbb{F}}^n \to {\mathbb{F}}^n\); \({\mathsf{T}} \in \mathop{\mathrm{GL}}(n;{\mathbb{F}})\)
Basistransformaties
Beschouw twee eindigdimensionale vectorruimten \(V\) en \(W\) met verschillende keuzes van basis \(B_V\) en \(\tilde{B}_V\), alsook \(B_W\) en \(\tilde{B}_W\) en een lineaire afbeelding \({\hat{A}}:V\to W\):
- Matrixrepresentatie \({\mathsf{A}} = \phi_{B_W} \circ {\hat{A}} \circ \phi_{B_V}^{-1}\)
- Matrixrepresentatie \[\begin{align} \tilde{{\mathsf{A}}} &= \phi_{\tilde{B}_W} \circ {\hat{A}} \circ \phi_{\tilde{B}_V}^{-1}\\ & = \phi_{\tilde{B}_W} \circ (\phi_{B_W}^{-1} \circ {\mathsf{A}} \circ \phi_{B_V}) \circ \phi_{\tilde{B}_V}^{-1}\\ &= (\phi_{\tilde{B}_W} \circ \phi_{B_W}^{-1}) \circ {\mathsf{A}} \circ (\phi_{\tilde{B}_V} \circ \phi_{B_V})^{-1}\\ &= {\mathsf{T}}_W \cdot {\mathsf{A}} \cdot {\mathsf{T}}_V^{-1} \end{align}\]
Basistransformaties
Voor \(V = W\) en dus een lineaire operator \({\hat{A}}\) op V
\(\tilde{{\mathsf{A}}} = {\mathsf{T}} {\mathsf{A}} {\mathsf{T}}^{-1}\): gelijkvormigheidstransformatie
Gerelateerd zijn via een gelijkvormigheidstransformtie is een equivalentierelatie
Eigenschappen van \({\mathsf{A}}\) die invariant zijn onder gelijkvormigheidstransformaties zijn basisonafhankelijk, en zijn dus intrinsieke eigenschappen die kunnen worden geassocieerd aan het wiskundige object \({\hat{A}}\)
Voorbeelden:
- \(\det({\mathsf{A}}) = \det(\tilde{{\mathsf{A}}})\)
- \(\mathop{\mathrm{tr}}({\mathsf{A}}) = \mathop{\mathrm{tr}}(\tilde{{\mathsf{A}}})\)
Functionalen en duale ruimte
Functionalen
Afbeelding van vectorruimte \(V\) naar het scalaire veld \({\mathbb{F}}\)
Vaak in de context van functieruimten, vaak niet-lineair
Voorbeeld: pad \(q(t)\) van een deeltje gedurende een tijdsinterval \(I\):
- \(q:I \to {\mathbb{R}}^3: t \mapsto q(t)\); \(q \in C(I, {\mathbb{R}}^3)\)
- Actie \(S: C(I,{\mathbb{R}}^3) \mapsto {\mathbb{R}}: q \mapsto S[q] = \int_I L(q(t),\dot{q}(t),t)\,{\mathrm{d}}t\)
Lineaire functionalen: \(\mathop{\mathrm{Hom}}(V, {\mathbb{F}})\)
Voorbeeld: linearisatie van een functie \(f:{\mathbb{R}}^n \to {\mathbb{R}}\)
\[ f(\boldsymbol{x}) = f(\boldsymbol{x}_0) + \underbrace{\frac{\partial f}{\partial x^i} (x^i-x^i_0)}_{\text{lineaire functionaal van $\boldsymbol{x}-\boldsymbol{x}_0$}} + \ldots\]
Lineaire functionalen en duale ruimte
Beschouw eindigdimensionale vectorruimte \(V\) met basis \(B = \{{e}_1,\ldots,{e}_n\}\):
Lineaire functionaal = duale vector = covector
\(\xi[{v}] = v^i \xi[{e}_i] = \begin{bmatrix} \xi[{e}_1] & \cdots & \xi[{e}_n] \end{bmatrix} \begin{bmatrix} v^1 \\ \vdots \\ v^n\end{bmatrix}\)
\(\Rightarrow\) coordinatenrepresentatie is rijmatrix
duale ruimte \(V^\ast = \mathop{\mathrm{Hom}}(V,{\mathbb{F}})\) met \(\mathop{\mathrm{dim}}(V) = \mathop{\mathrm{dim}}(V^\ast)\)
Duale basis: \(B^\ast=\{\epsilon^1,\ldots,\epsilon^n\}\) met \(\epsilon^i[{e}_j] = \delta^i_j\)
- \(\xi = \xi_i \epsilon^i\) met \(\xi_i = \xi[{e}_i]\)
- covariante indices
Lineaire functionalen: eigenschappen
- \(\mathop{\mathrm{rank}}(\xi) \leq \mathop{\mathrm{dim}}({\mathbb{F}}) = 1\)
- als \(\mathop{\mathrm{rank}}(\xi) = 0\): triviale functionaal die elke vector op 0 afbeeldt
- alle andere:
- \(\mathop{\mathrm{rank}}(\xi)=1 \Rightarrow \mathop{\mathrm{nullity}}(\xi) = \mathop{\mathrm{dim}}(V)-1\)
- \(\mathop{\mathrm{ker}}(\xi)\) has \(\mathop{\mathrm{codim}}= 1\): hyperplanes
- als \(\mathop{\mathrm{ker}}(\xi) = \mathop{\mathrm{ker}}(\chi)\): \(\xi = a \chi\) voor een scalair \(a \in {\mathbb{F}}\)
Lineaire functionalen: meer voorbeelden uit de fysica
Kracht: duale vector die snelheid (=vector) afbeeldt op vermogen (scalair): \(P = F_i v^i\)
Door de wet van Newton: momentum is duale vector
Relatie tussen momentum en snelheid: \(p_i = M_{ij} v^j\) met \(M\) de massa-matrix, volgt uit kinetische energie als kwadratische vorm (zie H5) van snelheid: \(T = \frac{1}{2} v^i M_{ij} v^j\)
Continue functies \(V = C({\mathbb{R}}; {\mathbb{F}})\): Dirac-delta \(\delta_a[f] = f(a)\)
\(\Rightarrow\) zie H9 voor theorie van distributies
Lineaire functionalen en basistransformaties
Vectorruimte \(V\) met twee basissen \(B\) en \(\tilde{B}\)
We weten al: \(\boldsymbol{v} = \phi_B({v})\), \(\tilde{\boldsymbol{v}} = \phi_{\tilde{B}}({v}) = (\phi_{\tilde{B}} \circ \phi_{B}^{-1})(\boldsymbol{v}) = {\mathsf{T}} \boldsymbol{v}\)
Lineaire functionaal \(\xi:V \to {\mathbb{F}}\):
\(\xi[v] = \underbrace{(\xi \circ \phi_B^{-1})}_{\text{rijvector $\xi_i$}} (\boldsymbol{v}) = (\xi \circ \phi_{\tilde{B}}^{-1})\circ (\phi_{\tilde{B}} \circ \phi_B^{-1}) (\boldsymbol{v})\)
\(\xi_i = \tilde{\xi}_i T^i_{\ j}\) of dus
\(\tilde{\xi}_j = ({\mathsf{T}}^{-1})^i_{\ j} \xi_i = ({\mathsf{T}}^{-{\mathsf{T}}})^{\ i}_j \xi_i\)
\({\mathsf{T}}^{-{\mathsf{T}}} = ({\mathsf{T}}^{-1})^{\mathsf{T}}= ({\mathsf{T}}^{\mathsf{T}})^{-1}\) (duale of contragradiente representatie van \(T \in \mathop{\mathrm{GL}}(n;{\mathbb{F}})\))
\(({\mathsf{T}}_1 {\mathsf{T}}_2)^{-{\mathsf{T}}} = {\mathsf{T}}_1^{-{\mathsf{T}}} {\mathsf{T}}_2^{-{\mathsf{T}}}\)
Duale lineaire afbeeldingen en de getransponeerde
Gegeven vectorruimten \(V, W\) en een lineaire afbeelding \({\hat{A}} \in \mathop{\mathrm{Hom}}(V,W)\)
Voor elke \(\xi \in W^\ast\) definieren we een \(\chi \in V^\ast\) via
\[ \chi[{v}] = \xi[{\hat{A}}{v}] = (\xi \circ {\hat{A}})({v})\]
We noteren \(\chi = {\hat{A}}^\ast (\xi)\) en noemen \({\hat{A}}^\ast \in \mathop{\mathrm{Hom}}(W^\ast,V^\ast)\) de duale lineaire afbeelding
In coordinaten:
\[ \chi_j = \xi_i A^i_{\ j} = ({\mathsf{A}}^{\mathsf{T}})^{\ i}_j \xi_i\]
\(\Rightarrow\) transponeren geeft de matrix-representatie van de duale lineaire afbeelding
Affiene transformaties
Affiene ruimten: herhaling
Affiene ruimte \(A\) over een vectorruimte \(V\): verzameling van punten \(A=\{P, Q, \ldots\}\) zodat voor elke \(P \in A, {v}\in V\) er exact één \(Q\) bestaat waarvoor \(Q = P + {v}\), en vice versa, voor elke \(P,Q \in A\) bestaat er exact één \({v}\in V\) zodat \(Q = P + {v}\).
Na keuze van 1 vast punt \(O \in A\), de oorsprong, kunnen we elk punt \(P\in A\) karakteriseren via \(x_{PO}\) zodat \(P = O + x_{PO}\)
Affiene transformaties
- Affiene transformaties:
- lineaire transformaties \({\hat{T}} \in \mathop{\mathrm{GL}}(V)\) kunnen werken als \(P \mapsto P' = O + {\hat{T}}(x_{PO})\)
- translaties: vectoren \({v}\in V\) kunnen werken als \(P \mapsto P' = O + {v}+ x_{PO}\)
- beide samen: \(({\hat{T}},{v}): P \mapsto P' = O + {v}+ {\hat{T}} x_{PO}\)
- Compositie van affiene transformaties:
- \(({\hat{T}}_1,{v}_1) \circ ({\hat{T}}_2,{v}_2) = ({\hat{T}}_1{\hat{T}}_2, {v}_1 + {\hat{T}}_1 {v}_2)\)
- \(({\hat{T}},{v})^{-1} = ({\hat{T}}^{-1}, -{\hat{T}}^{-1}{v})\)
- \(\Rightarrow \mathop{\mathrm{Aut}}(A) = \mathop{\mathrm{Aff}}(V) = V \rtimes \mathop{\mathrm{GL}}(V)\) (semidirect product)
Affiene transformaties als matrix
Voor \(V = {\mathbb{F}}^n\) kunnen we de affiene transformaties voorstellen als
\[ \begin{bmatrix} \boldsymbol{x}'\\ 1 \end{bmatrix} = \begin{bmatrix} {\mathsf{T}} & \boldsymbol{v} \\ {\mathsf{O}}_{n \times 1} & 1 \end{bmatrix} \begin{bmatrix} \boldsymbol{x} \\ 1 \end{bmatrix} \]
In abstracte termen:
\(\mathop{\mathrm{Aff}}(V)\) is een deelgroep van \(\mathop{\mathrm{GL}}(V \oplus {\mathbb{F}})\)
Lineaire afbeeldingen in reële en complexe vectorruimten
Van reële naar complexe ruimte
- Gegeven een reële vectorruimte \(W\). Kunnen we \(W\) ‘uitbreiden’ tot een vectorruimte over \({\mathbb{C}}\)?
- Eindigdimensionaal: Kies basis \(B \Rightarrow W \cong {\mathbb{R}}^n\), breidt uit tot \({\mathbb{C}}^n\), d.w.z. laat complexe expansiecoëfficiënten toe, of dus, \(W = {\mathbb{R}}B \Rightarrow W^{{\mathbb{C}}} = {\mathbb{C}}B\).
- Bemerk dat \(\mathop{\mathrm{dim}}_{{\mathbb{R}}}(W) = \mathop{\mathrm{dim}}_{{\mathbb{C}}}(W^{{\mathbb{C}}})\)
- We zullen dit vaak impliciet doen, bvb. voor eigenwaarden en eigenvectoren van een reële matrix.
Van reële naar complexe ruimte
- Gegeven een reële vectorruimte \(W\). Kunnen we \(W\) ‘uitbreiden’ tot een vectorruimte over \({\mathbb{C}}\)?
Basisonafhankelijke constructie:
Definieer \(W^{\mathbb{C}}= W \times W\), met
- vectoradditie \(({w}_1,{w}_2) + ({w}_1',{w}_2') = ({w}_1+ {w}_1', {w}_2 + {w}_2')\) (idem als voor \(W \oplus W\))
- vermenigvuldiging met complexe scalairen: \((a + {\mathrm{i}}b) ({w}_1,{w}_2) = (a {w}_1 - b {w}_2, b {w}_1 + a {w}_2)\)
\(\Rightarrow\) genoteerd als \(W^{\mathbb{C}}= W \oplus ({\mathrm{i}}W)\)
Van complexe naar reële ruimte:
- Gegeven een complexe vectorruimte \(V\). Kunnen we \(V\) ‘herinterpreteren’ als een vectorruimte over \({\mathbb{R}}\)?
- Behoudt dezelfde verzameling van vectoren \(V^{{\mathbb{R}}} = V\), beperk de vermenigvuldiging met scalairen tot reële scalairen
Van complexe naar reële ruimte:
Gegeven een complexe vectorruimte \(V\). Kunnen we \(V\) ‘herinterpreteren’ als een vectorruimte over \({\mathbb{R}}\)?
Stel \(V\) eindig-dimensionaal met basis \(B=\{{e}_1,\ldots,{e}_n\}\). Om elke vector te kunnne expanderen met behulp van reële coefficiënten moeten we de basis uitbreiden tot \(B^{\mathbb{R}}= \{{e}_1,\ldots,{e}_n,{\mathrm{i}}{e}_1, \ldots, {\mathrm{i}}{e}_n\}\).
\(\mathop{\mathrm{dim}}_{{\mathbb{C}}}(V) = n \Rightarrow \mathop{\mathrm{dim}}_{{\mathbb{R}}}(V^{\mathbb{R}}) = 2 n = 2 \mathop{\mathrm{dim}}_{{\mathbb{C}}}(V)\)
\(V \cong {\mathbb{C}}^n\) en \(V^{\mathbb{R}}\cong {\mathbb{R}}^{2n}\) (met \(V = V^{\mathbb{R}}\) als verzameling)
\(\boldsymbol{v}^{\mathbb{R}}= (\mathop{\mathrm{Re}}(\boldsymbol{v}), \mathop{\mathrm{Im}}(\boldsymbol{v}))\)
Complexe lineaire afbeeldingen
Beschouw nu twee complexe vectorruimten \(V\) en \(W\), en hun reële versie \(V^{\mathbb{R}}\) en \(W^{\mathbb{R}}\).
Een (complexe) lineaire afbeelding \({\hat{A}}\in \mathop{\mathrm{Hom}}_{{\mathbb{C}}}(V,W)\) voldoet aan
\[{\hat{A}}(a_1 {v}_1 + a_2 {v}_2) = a_1 {\hat{A}}({v}_1) + a_2 {\hat{A}}({v}_2)\]
Als dit geldt voor \(a_1,a_2 \in {\mathbb{C}}\), dan zeker voor \(a_1,a_2 \in {\mathbb{R}}\)
\(\Rightarrow {\hat{A}} \in \mathop{\mathrm{Hom}}_{{\mathbb{R}}}(V^{\mathbb{R}}, W^{\mathbb{R}})\)
Er bestaat en inclusie van complexe lineaire afbeeldingen in \(\mathop{\mathrm{Hom}}(V,W)\) naar reële lineaire afbeelding in \(\mathop{\mathrm{Hom}}_{{\mathbb{R}}}(V^{\mathbb{R}}, W^{\mathbb{R}})\)
Complexe lineaire afbeeldingen
Als matrix: \({\mathsf{A}}^{\mathbb{R}}= \begin{bmatrix} \mathop{\mathrm{Re}}({\mathsf{A}}) & -\mathop{\mathrm{Im}}({\mathsf{A}}) \\ \mathop{\mathrm{Im}}({\mathsf{A}}) & \mathop{\mathrm{Re}}({\mathsf{A}}) \end{bmatrix}\)
Niet alle afbeeldingen in \(\mathop{\mathrm{Hom}}_{{\mathbb{R}}}(V^{\mathbb{R}},W^{\mathbb{R}})\) komen overeen met complexe lineaire afbeeldingen \({\hat{A}} \in \mathop{\mathrm{Hom}}_{{\mathbb{C}}}(V,W)\).
Wat is de betekenis van de andere, en is er een natuurlijke keuze voor het complement?
Complexe lineaire afbeeldingen
In \(V^{\mathbb{R}}\) kan je niet vermenigvuldigen met \({\mathrm{i}}\).
Maar je kan wel werken met de linaire afbeelding \({\hat{J}}_V = {\mathrm{i}}{\hat{1}}_V\), en deze vormt een geldige lineaire afbeelding die ook bestaat in \(\mathop{\mathrm{End}}_{{\mathbb{R}}}(V^{\mathbb{R}})\).
Uiteraard geldt \({\hat{J}}_V^2 = - {\hat{1}}_V\).
Matrixrepresentatie als reële matrix: \[{\mathsf{J}}_V^{\mathbb{R}}= \begin{bmatrix} {\mathsf{O}}_{n \times n} & -{\mathsf{I}}_{n \times n} \\ {\mathsf{I}}_{n \times n} & {\mathsf{O}}_{n \times n} \end{bmatrix}\]
Complexe lineaire afbeelding: \({\hat{A}}\circ {\hat{J}}_V = {\hat{J}}_W \circ{\hat{A}}\)
Reële lineaire afbeeldingen
Beschouw nu een willekeurige (reëel lineaire) afbeelding \({\hat{L}} \in \mathop{\mathrm{Hom}}_{{\mathbb{R}}}(V^{\mathbb{R}},W^{\mathbb{R}})\).
We kunnen deze uniek ontbinden als
\[{\hat{L}} = \underbrace{\frac{1}{2}({\hat{L}} - {\hat{J}}_W {\hat{L}} {\hat{J}}_V)}_{{\hat{A}}} + \underbrace{\frac{1}{2} ({\hat{L}} + {\hat{J}}_W {\hat{L}} {\hat{J}}_V)}_{{\hat{B}}}\]
waarbij geldt:
- \({\hat{J}}_W \circ {\hat{A}} = {\hat{A}} \circ {\hat{J}}_V\) (complexe lineaire afbeelding)
- \({\hat{J}}_W \circ {\hat{B}} = - {\hat{B}} \circ {\hat{J}}_V\)
Antilineaire afbeeldingen
Dit leidt tot een nieuwe definitie:
Een afbeelding \({\hat{B}}:V \to W\) tussen complexe vectorruimten \(V\) en \(W\) wordt antilineair genoemd indien ze voldoet aan
- \({\hat{B}}({v}_1 + {v}_2) = {\hat{B}}({v}_1) + {\hat{B}}({v}_2)\)
- \({\hat{B}}({a}{v}) = {\overline{{a}}} {\hat{B}}({v})\)
Antilineaire afbeeldingen: eigenschappen
- Compositie van even aantal antilineaire afbeeldingen is (complex) lineaire afbeelding
- Complexe lineaire combinaties van antilineaire afbeeldingen zijn antilineaire afbeeldingen (antilineaire afbeeldingen vormen een complexe vectorruimte)
- Elke reëel lineaire afbeelding tussen \(V^{\mathbb{R}}\) en \(W^{\mathbb{R}}\) kan uniek ontbonden worden als som van een lineaire afbeeldingen tussen \(V\) en \(W\) en een antilineaire afbeeldingen tussen \(V\) en \(W\)
Antilineaire afbeeldingen: conjugatie
- Beschouw een basis \(B\) voor de complexe vectorruimte \(V\), die dus een bijbehorende basis \(B^{\mathbb{R}}= \{{e}_1,\ldots,{e}_n,{\mathrm{i}}{e}_1,\ldots,{\mathrm{i}}{e}_n\}\) voor \(V^{\mathbb{R}}\) impliceert.
- De specifieke afbeelding \({\hat{C}}_B \in \mathop{\mathrm{End}}_{{\mathbb{R}}}(V^{\mathbb{R}})\) met matrixrepresentatie \({\mathsf{C}}_B^{{\mathbb{R}}} = \begin{bmatrix} {\mathsf{I}}_{n\times n} & {\mathsf{O}}_{n \times n} \\ {\mathsf{O}}_{n \times n} & -{\mathsf{I}}_{n \times n} \end{bmatrix}\) noemen we de complexe conjugatie-operator geassocieerd aan de basiskeuze \(B\). Ten opzichte van \(V\), is \({\hat{C}}_B\) een zuiver antilineaire operator.
- Elke andere antilineaire operator \({\hat{B}}\) kan nu geschreven worden als een product \({\hat{B}} = {\hat{B}}' \circ {\hat{C}}_B\), waarbij \({\hat{B}}' \in \mathop{\mathrm{Hom}}(V,W)\) een gewone (complex) lineaire afbeelding.
Reële, complexe en antilineaire afbeeldingen: matrixgedaante
\[\begin{align} {\mathsf{L}} &= \begin{bmatrix} {\mathsf{L}}_{11} & {\mathsf{L}}_{12} \\ {\mathsf{L}}_{21} & {\mathsf{L}}_{22} \end{bmatrix} \\ &=\begin{bmatrix} {\mathsf{A}}_{1} & -{\mathsf{A}}_{2} \\ {\mathsf{A}}_2 & {\mathsf{A}}_1 \end{bmatrix} + \begin{bmatrix} {\mathsf{B}}_1 & {\mathsf{B}}_2 \\ {\mathsf{B}}_2 & -{\mathsf{B}}_1 \end{bmatrix} \nonumber\\ &= \begin{bmatrix} {\mathsf{A}}_{1} & -{\mathsf{A}}_{2} \\ {\mathsf{A}}_2 & {\mathsf{A}}_1 \end{bmatrix} + \begin{bmatrix} {\mathsf{B}}_1 & -{\mathsf{B}}_2 \\ {\mathsf{B}}_2 & {\mathsf{B}}_1 \end{bmatrix}\begin{bmatrix} {\mathsf{I}}& {\mathsf{O}}\\ {\mathsf{O}}& -{\mathsf{I}} \end{bmatrix}\label{eq:linalg:reallinearblockform} \end{align}\]
\[\Rightarrow {\mathsf{A}} = {\mathsf{A}}_1 + {\mathrm{i}}{\mathsf{A}}_2\]
Antilineaire afbeelding: voorbeeld
Tijdsomkeringsymmetrie in kwantummechanica:
Actie op golffunctie \({\hat{T}}: \psi(x) \mapsto {\overline{\psi(x)}}\)
Stel: \(\psi_p(x) \sim {\mathrm{e}}^{{\mathrm{i}}p x} \Rightarrow {\hat{T}} \psi_p = \psi_{-p}\)
Golffunctie in momentumruimte (\(\cong\) Fouriertransformatie)
\(\Psi(p) \sim \int {\mathrm{e}}^{-{\mathrm{i}}p x} \psi(x)\,{\mathrm{d}}x\)
Actie van tijdsomkering op momentum-golffunctie
\(\Rightarrow ({\hat{T}} \Psi) = {\overline{\Psi(-p)}}\)
= Complexe conjugatie + spiegeling van momentum
Lineaire systemen
Lineaire systemen: definitie en terminologie
Vind \({x}\) zodat voldaan is aan \({\hat{A}} {x}= {y}\)
\({y}= {o}\): homogeen, \({y}\neq {o}\): inhomogeen
\({y}\in \mathop{\mathrm{im}}({\hat{A}})\): er bestaan één of meerdere oplossingen \({x}= {x}' + {x}_0\), met \({x}'\) een particuliere oplossing die voldoet aan \({\hat{A}}{x}' = {y}\), en \({x}_0 \in \mathop{\mathrm{ker}}({\hat{A}})\) een oplossing van het homogene probleem
\(\mathop{\mathrm{nullity}}({\hat{A}}) = 0\): homogeen probleem laat enkel de triviale oplossing \({x}_0 = {o}\) toe
Lineaire systemen: voorbeelden
- Standaardvorm eindig-dimensionaal probleem: \({\mathsf{A}} \boldsymbol{x} = \boldsymbol{y}\) met \({\mathsf{A}} \in {\mathbb{F}}^{m \times n}\), \(\boldsymbol{x} \in {\mathbb{F}}^n\) en \(\boldsymbol{y} \in {\mathbb{F}}^m\)
- \(m < n \Rightarrow \mathop{\mathrm{nullity}}({\mathsf{A}}) > 0\): als oplossing bestaat is ze niet uniek (ondergedetermineerd)
- \(m > n \Rightarrow \mathop{\mathrm{rank}}({\mathsf{A}}) \leq n < m\): \(\mathop{\mathrm{im}}({\mathsf{A}})\) is een eigenlijke deelruimte van \({\mathbb{F}}^m\); er bestaan rechterleden \(\boldsymbol{y}\) waarvoor geen oplossing bestaat (overgedetermineerd)
- het bestaan van een unieke oplossing voor elk rechterlid \(\boldsymbol{y}\) kan enkel als \(m=n\) en \(\mathop{\mathrm{rank}}({\mathsf{A}}) = n \Leftrightarrow \mathop{\mathrm{nullity}}({\mathsf{A}}) = 0\)
Lineaire systemen: voorbeelden
\(({\hat{D}}-\frac{1}{\tau}{\hat{1}})f = {o}\Leftrightarrow \frac{{\mathrm{d}}\ f}{{\mathrm{d}}t} - \frac{1}{\tau} f(t) = 0\): homogeen probleem
\(\Rightarrow f(t) = c {\mathrm{e}}^{-\frac{t}{\tau}}\): \(\Rightarrow \mathop{\mathrm{nullity}}({\hat{D}} - \frac{1}{\tau}{\hat{1}}) = 1\)
\(\begin{cases}\frac{{\mathrm{d}}\ f}{{\mathrm{d}}t} - \frac{1}{\tau} f(t) = 0\\ f(0) = f_0 \end{cases}\)
\(\Rightarrow f(t) = f_0 {\mathrm{e}}^{-\frac{t}{\tau}}\) (unieke oplossing)
Lineaire systemen: oplossingsstrategie
Een matrix \({\mathsf{A}} \in {\mathbb{F}}^{m \times n}\) heet
- bovendriehoeks als \(A^i_{\ j} = 0\) voor alle \(1 \leq j < i \leq m\)
- benedendriehoeks als \(A^i_{\ j}=0\) voor alle \(1 \leq i < j \leq n\)
Voor een boven-/benedendriehoeksmatrix \({\mathsf{A}} \in {\mathbb{F}}^{n \times n}\) is \(\mathop{\mathrm{rank}}({\mathsf{A}}) \neq 0\), en dus bestaat \({\mathsf{A}}^{-1}\), als alle diagonaalelementen \(A^i_{\ i} \neq 0\) voor \(i=1,\ldots,n\).
Voor een boven-/benedendriehoeksmatrix \({\mathsf{A}} \in {\mathbb{F}}^{n \times n}\) met \(\mathop{\mathrm{rank}}({\mathsf{A}}) \neq 0\) kan de oplossing \({x}= {\mathsf{A}}^{-1}{y}\) berekend worden via voorwaartse/achterwaardse substitutie met een kost die schaalt als \(\mathop{\mathrm{\mathscr{O}}}(n^2)\), of als \(\mathop{\mathrm{\mathscr{O}}}(n^3/3)\) indien \({\mathsf{A}}^{-1}\) volledig wordt berekend.
Lineaire systemen: oplossingsstrategie
Voor een algemene matrix \({\mathsf{A}} \in {\mathbb{F}}^{n \times n}\):
Gaussische eliminatie \(\Rightarrow {\mathsf{A}} = {\mathsf{L}}{\mathsf{U}}\): LU ontbinding
- \(L\): L(ower), benedendriehoeksmatrix met elementen \(1\) op de diagonaal
- \(U\): U(pper), bovendriehoeksmatrix met vrije elementen op diagonaal
- soms \({\mathsf{A}} = {\mathsf{L}} {\mathsf{D}} \tilde{{\mathsf{U}}}\) met dan ook diagonaalelementen \(1\) in \(\tilde{{\mathsf{U}}}\)
Inclusief pivoteren: \(\Rightarrow {\mathsf{P}} {\mathsf{A}} = {\mathsf{L}} {\mathsf{U}}\) met \({\mathsf{P}}\) een permutatie matrix is
Complexiteit voor \(m=n\): \(\mathop{\mathrm{\mathscr{O}}}(\frac{2}{3} n^3)\)
Toepassingen van LU decompositie
\(\underbrace{\det({\mathsf{P}})}_{\mathop{\mathrm{sgn}}(\sigma)} \det({\mathsf{A}}) = \underbrace{\det({\mathsf{L}})}_{\prod_i L^i_{\ i} = 1} \underbrace{\det({\mathsf{U}})}_{\prod_j U^j_{\ j}} \Rightarrow \mathop{\mathrm{\mathscr{O}}}(n^3)\)
Multidimensionale Gaussische distributie
\[f_{\boldsymbol{X}}(\boldsymbol{x}) = Z \exp\left[-\frac{1}{2} \sum_{i,j=1}^{n}(x^i - \mu^i) A_{i,j} (x^j - \mu^j)\right]\\ = Z \exp\left[-\frac{1}{2} (\boldsymbol{x}-\boldsymbol{\mu})^{\mathsf{T}}{\mathsf{A}} (\boldsymbol{x}-\boldsymbol{\mu})\right]\]
Hoe \(Z\) kiezen zodat \(\int f_{\boldsymbol{X}}(\boldsymbol{x})\,{\mathrm{d}}^n\boldsymbol{x} = 1\)?
Multidimensionale Gaussische distributie (1)
\(f_{\boldsymbol{X}}(\boldsymbol{x}) = Z {\mathrm{e}}^{-\frac{1}{2} (\boldsymbol{x}-\boldsymbol{\mu})^{\mathsf{T}}{\mathsf{A}} (\boldsymbol{x}-\boldsymbol{\mu})}\)
- normering
\({\mathsf{A}} = {\mathsf{A}}^T \Rightarrow {\mathsf{A}} = {\mathsf{L}} {\mathsf{D}} {\mathsf{L}}^{\mathsf{T}}\)
substitutie: \(\boldsymbol{y} = {\mathsf{L}}^{\mathsf{T}}(\boldsymbol{x}-\boldsymbol{\mu}) \Leftrightarrow \boldsymbol{x}=\boldsymbol{\mu} + \boldsymbol{L}^{-{\mathsf{T}}}\boldsymbol{y}\)
\(\Rightarrow {\mathsf{J}} = {\mathsf{L}}^{-{\mathsf{T}}}, \det({\mathsf{J}}) = 1\)
\(\int f_{\boldsymbol{X}}(\boldsymbol{x})\,{\mathrm{d}}^n \boldsymbol{x} = \int_{{\mathbb{R}}^n} Z \exp\left[-\frac{1}{2}\boldsymbol{y}^{\mathsf{T}}{\mathsf{D}} \boldsymbol{y} \right] \,{\mathrm{d}}^n \boldsymbol{y} \\ = Z \prod_{i=1}^n\left( \int_{-\infty}^{+\infty} {\mathrm{e}}^{-\frac{1}{2} d_i (y^i)^2}\,{\mathrm{d}}y^i\right)\\ = Z \prod_{i=1}^n \sqrt{\frac{2\pi}{d_i}} = Z \frac{(2\pi)^{n/2}}{\sqrt{\det({\mathsf{D}})}} =Z \frac{(2\pi)^{n/2}}{\sqrt{\det({\mathsf{A}})}}\)
\(\Rightarrow Z = \sqrt{\frac{\det({\mathsf{A}})}{(2\pi)^n}}\)
Multidimensionale Gaussische distributie (2)
\(f_{\boldsymbol{X}}(\boldsymbol{x}) = Z {\mathrm{e}}^{-\frac{1}{2} (\boldsymbol{x}-\boldsymbol{\mu})^{\mathsf{T}}{\mathsf{A}} (\boldsymbol{x}-\boldsymbol{\mu})}\)
- gemiddelde en covariantie
momentgenererende functie \(M_{\boldsymbol{X}}(\boldsymbol{t}) = \langle {\mathrm{e}}^{\sum_{i=1}^n t_i X^i} \rangle = \int_{{\mathbb{R}}^n} {\mathrm{e}}^{\sum_{i=1}^n t_i x^i} f_{\boldsymbol{X}}(\boldsymbol{x})\,{\mathrm{d}}^n \boldsymbol{x}\\ ={\mathrm{e}}^{\frac{1}{2} \boldsymbol{t}^{\mathsf{T}}{\mathsf{A}}^{-1} \boldsymbol{t} + \boldsymbol{t}^{\mathsf{T}}\boldsymbol{\mu}}\)
\(\langle X^i\rangle = \left.\frac{\partial M_{\boldsymbol{X}}}{\partial t_i}\right|_{\boldsymbol{t}=\boldsymbol{0}} = \mu^i\)
\(\langle X^i X^j\rangle = \left.\frac{\partial^2 M_{\boldsymbol{X}}}{\partial t_i \partial t_j}\right|_{\boldsymbol{t}=\boldsymbol{0}} = ({\mathsf{A}}^{-1})^{ij} + \mu^i \mu^j\)
covariantiematrix \(\Sigma^{ij} = \langle (X^i-\langle X^i \rangle)(X^j-\langle X^j \rangle)\rangle = \\ \langle X^i X^j \rangle - \langle X^i \rangle \langle X^j \rangle = ({\mathsf{A}}^{-1})^{ij}\)
Blokmatrices
Lineair stelsel dat bestaat uit twee delen voor 1 groep onbekenden: \({\hat{A}}_1 {x}= {y}_1\) en \({\hat{A}}_2 {x}= {y}_2\)
\(\Rightarrow \begin{bmatrix} {\mathsf{A}}_1 \\ {\mathsf{A}}_2 \end{bmatrix} \boldsymbol{x} = \begin{bmatrix} \boldsymbol{y}_1 \\ \boldsymbol{y}_2 \end{bmatrix}\)
- \({\mathsf{A}}_1 \in {\mathbb{F}}^{m_1 \times n}, {\mathsf{A}}_2 \in {\mathbb{F}}^{m_2 \times n}\)
- (technisch: directe som \({y}_1 \oplus {y}_2\))
Twee groepen van onbekenden:
\(\begin{bmatrix} {\mathsf{A}}_{11} & {\mathsf{A}}_{12} \\ {\mathsf{A}}_{21} & {\mathsf{A}}_{22} \end{bmatrix} \begin{bmatrix} \boldsymbol{x}_1 \\ \boldsymbol{x}_2 \end{bmatrix} = \begin{bmatrix} \boldsymbol{y}_1 \\ \boldsymbol{y}_2 \end{bmatrix}\)
- \({\mathsf{A}}_{ij} \in {\mathbb{F}}^{m_i \times n_j}\) voor \(i,j=1,2\)
Blokmatrices en blok-LDU-decompositie:
\(\begin{bmatrix} {\mathsf{A}}_{11} & {\mathsf{A}}_{12} \\ {\mathsf{A}}_{21} & {\mathsf{A}}_{22} \end{bmatrix}\) met \(m_1=n_1\) en \(m_2 = n_2\):
\({\mathsf{A}}_{11}\) en \({\mathsf{A}}_{22}\) zijn vierkante matrices
\({\mathsf{A}}_{11}\) inverteerbaar \(\Rightarrow\) blok-LDU-decompositie:
\[ {\mathsf{A}} = \underbrace{\begin{bmatrix} {\mathsf{I}}_{n_1} & {\mathsf{O}}\\ {\mathsf{A}}_{21} {\mathsf{A}}_{11}^{-1} & {\mathsf{I}}_{n_2} \end{bmatrix}}_{{\mathsf{L}}} \underbrace{\begin{bmatrix} {\mathsf{A}}_{11}& {\mathsf{O}}\\ {\mathsf{O}}& {\mathsf{A}}_{22} - {\mathsf{A}}_{21} {\mathsf{A}}_{11}^{-1} {\mathsf{A}}_{12} \end{bmatrix}}_{{\mathsf{D}}} \underbrace{\begin{bmatrix} {\mathsf{I}}_{n_1} & {\mathsf{A}}_{11}^{-1} {\mathsf{A}}_{12}\\ {\mathsf{O}}& {\mathsf{I}}_{n_2} \end{bmatrix}}_{{\mathsf{U}}}\]
Schur complement \(({\mathsf{A}}/{\mathsf{A}}_{11}) = {\mathsf{A}}_{22} - {\mathsf{A}}_{21} {\mathsf{A}}_{11}^{-1} {\mathsf{A}}_{12}\)
\(\det({\mathsf{A}}) = \det({\mathsf{A}}_{11}) \det({\mathsf{A}}/{\mathsf{A}}_{11})\)
Blokmatrices en blok-LDU-decompositie:
\[\begin{align} {\mathsf{A}}^{-1} &= {\mathsf{U}}^{-1} {\mathsf{D}}^{-1} {\mathsf{L}}^{-1}\nonumber\\ &= \begin{bmatrix} {\mathsf{I}}_{n_1} & -{\mathsf{A}}_{11}^{-1} {\mathsf{A}}_{12}\\ {\mathsf{O}}& {\mathsf{I}}_{n_2} \end{bmatrix}\begin{bmatrix} {\mathsf{A}}_{11}^{-1}& {\mathsf{O}}\\ {\mathsf{O}}& ({\mathsf{A}}_{22} - {\mathsf{A}}_{21} {\mathsf{A}}_{11}^{-1} {\mathsf{A}}_{12})^{-1} \end{bmatrix}\begin{bmatrix} {\mathsf{I}}_{n_1} & {\mathsf{O}}\\ -{\mathsf{A}}_{21} {\mathsf{A}}_{11}^{-1} & {\mathsf{I}}_{n_2} \end{bmatrix} \nonumber\\ &= \begin{bmatrix} {\mathsf{A}}_{11}^{-1} + {\mathsf{A}}_{11}^{-1} {\mathsf{A}}_{12} ({\mathsf{A}}_{22} - {\mathsf{A}}_{21} {\mathsf{A}}_{11}^{-1} {\mathsf{A}}_{12})^{-1} {\mathsf{A}}_{21} {\mathsf{A}}_{11}^{-1} & -{\mathsf{A}}_{11}^{-1} {\mathsf{A}}_{12} ({\mathsf{A}}_{22} - {\mathsf{A}}_{21} {\mathsf{A}}_{11}^{-1} {\mathsf{A}}_12)^{-1}\\ -({\mathsf{A}}_{22} - {\mathsf{A}}_{21} {\mathsf{A}}_{11}^{-1} {\mathsf{A}}_{12})^{-1} {\mathsf{A}}_{21} {\mathsf{A}}_{11}^{-1} & ({\mathsf{A}}_{22} - {\mathsf{A}}_{21} {\mathsf{A}}_{11}^{-1} {\mathsf{A}}_{12})^{-1} \end{bmatrix} \end{align}\]
Toepassing: probabiliteitsdistributie
\(f_{\boldsymbol{X}}(\boldsymbol{x}_1,\boldsymbol{x}_2) = \sqrt{\frac{\det({\mathsf{A}})}{(2\pi)^n}} {\mathrm{e}}^{-\frac{1}{2} \begin{bmatrix} \boldsymbol{x}_1 \\ \boldsymbol{x}_2\end{bmatrix}^{\mathsf{T}}\begin{bmatrix} {\mathsf{A}}_{11} & {\mathsf{A}}_{12} \\ {\mathsf{A}}_{21} & {\mathsf{A}}_{22} \end{bmatrix} \begin{bmatrix} \boldsymbol{x}_1 \\ \boldsymbol{x}_2\end{bmatrix}}\)
marginale distributie van \(\boldsymbol{X}_2\):
\(f_{\boldsymbol{X}_2}(\boldsymbol{x}_2) = \int_{{\mathbb{R}}^{n_1}} f_{\boldsymbol{X}}(\boldsymbol{x}_1,\boldsymbol{x}_2) \,{\mathrm{d}}^{n_1} \boldsymbol{x}_1\)
Blokmatrices en blok-LDU-decompositie:
Toepassing: probabiliteitsdistributie
\(f_{\boldsymbol{X}}(\boldsymbol{x}_1,\boldsymbol{x}_2) = \sqrt{\frac{\det({\mathsf{A}})}{(2\pi)^n}} {\mathrm{e}}^{-\frac{1}{2} \begin{bmatrix} \boldsymbol{x}_1 \\ \boldsymbol{x}_2\end{bmatrix}^{\mathsf{T}}\begin{bmatrix} {\mathsf{A}}_{11} & {\mathsf{A}}_{12} \\ {\mathsf{A}}_{21} & {\mathsf{A}}_{22} \end{bmatrix} \begin{bmatrix} \boldsymbol{x}_1 \\ \boldsymbol{x}_2\end{bmatrix}}\)
marginale distributie van \(\boldsymbol{X}_2\):
\(f_{\boldsymbol{X}_2}(\boldsymbol{x}_2) = \int_{{\mathbb{R}}^{n_1}} f_{\boldsymbol{X}}(\boldsymbol{x}_1,\boldsymbol{x}_2) \,{\mathrm{d}}^{n_1} \boldsymbol{x}_1\)
substitutie: \(\boldsymbol{x}_1 = \boldsymbol{y}_1 - {\mathsf{A}}_{11}^{-1} {\mathsf{A}}_{12} \boldsymbol{x}_2\)
\(\Rightarrow f_{\boldsymbol{X}_2}(\boldsymbol{x}_2) =\sqrt{\frac{\det({\mathsf{A}}/{\mathsf{A}}_{11})}{(2\pi)^{n_2}}} {\mathrm{e}}^{-\frac{1}{2} \boldsymbol{x}_2^{\mathsf{T}}({\mathsf{A}}/{\mathsf{A}}_{11}) \boldsymbol{x}_2}\)
Nog steeds Gaussische distributie. Covariantiematrix voor \(\boldsymbol{x}_2\) is gegeven door \(({\mathsf{A}}/{\mathsf{A}}_{11})^{-1}\)
Sherman-Morrison-Woodbury matrixidentiteit
Voor vierkante matrices \({\mathsf{A}} \in {\mathbb{F}}^{n\times n}\), \({\mathsf{C}} \in {\mathbb{F}}^{k \times k}\) en matrices \({\mathsf{U}} \in {\mathbb{F}}^{n \times k}\), \({\mathsf{V}} \in {\mathbb{F}}^{k \times n}\), de matrixidentiteit van Woodbury stelt dat
\[\begin{equation} ({\mathsf{A}} + {\mathsf{U}} {\mathsf{C}} {\mathsf{V}})^{-1} = {\mathsf{A}}^{-1} - {\mathsf{A}}^{-1} {\mathsf{U}} ({\mathsf{C}}^{-1} + {\mathsf{V}} {\mathsf{A}}^{-1} {\mathsf{U}})^{-1} {\mathsf{V}} {\mathsf{A}}^{-1} \end{equation}\]
Bewijs: aan bord
\(k=1\): “rang-1 updates” \(\rightarrow\) Sherman-Morrison formule
\(({\mathsf{A}} + \boldsymbol{u} \boldsymbol{v}^{\mathsf{T}})^{-1} = {\mathsf{A}}^{-1} - \frac{{\mathsf{A}}^{-1}\boldsymbol{u} \boldsymbol{v}^{{\mathsf{T}}} {\mathsf{A}}^{-1} }{1 + \boldsymbol{v}^{\mathsf{T}}{\mathsf{A}}^{-1} \boldsymbol{u}}\)
Toepassingen
- Recursieve structuur van inverse van som
\[\begin{align} ({\mathsf{A}} + {\mathsf{B}})^{-1} &= {\mathsf{A}}^{-1} - {\mathsf{A}}^{-1} ({\mathsf{B}}^{-1} + {\mathsf{A}}^{-1})^{-1} {\mathsf{A}}^{-1} \\ &= {\mathsf{A}}^{-1} - {\mathsf{A}}^{-1} ({\mathsf{I}}+ {\mathsf{A}} {\mathsf{B}}^{-1} )^{-1}\\ &= {\mathsf{A}}^{-1} - {\mathsf{A}}^{-1} {\mathsf{B}} ({\mathsf{A}} + {\mathsf{B}})^{-1}\\ &= \sum_{k=0}^{\infty} (-{\mathsf{A}}^{-1} {\mathsf{B}})^k{\mathsf{A}}^{-1} \end{align}\]
Afgeleide van de matrixinverse van een matrixwaardige functie:
\[\frac{{\mathrm{d}}{\mathsf{A}}^{-1}}{{\mathrm{d}}x}(x) = -{\mathsf{A}}^{-1}(x) \frac{{\mathrm{d}}{\mathsf{A}}}{{\mathrm{d}}x}(x) {\mathsf{A}}^{-1}(x)\]
Footnotes
Additiviteit impliceert homogeniteit voor rationale getallen, en bij uitbreiding reële getallen als we over een notie van continuïteit zouden beschikken↩︎