## Determinant

There are essential two approaches of introducing the determinant. The first method starts with the properties that should hold for the determinant and then shows that these properties uniquely defines such a function. The second method gives a calculation for the determinant and then shows its properties. We start with the second approach.

### Permutation

For the definition of the determinant permutations play an important role.

Definition: Permutation
Let $S=\{1,2,3,...,n\}$ a permutation is a bijective mapping $\tau: S\rightarrow S$: $\left( {\begin{array}{*{20}c} 1 & 2 & {...} & n \\ {\tau (1)} & {\tau (2)} & {...} & {\tau (n)} \\ \end{array} } \right)$ with $\tau(i) \in S$.

The set of all permutations is denoted with $S_n$. For each $\tau$ exists an inverse $\tau^{-1}$ such that $\tau \tau^{-1}=\tau^{-1}\tau=I$. The number of elements of $S_n$ is $n!$. If $\tau \in S_n$ then $(i,j)$ is called an inversion if $i\less j \wedge \tau(i) >\tau(j)$. A permutation is even if the number of inversions is even, and otherwise it is called odd. The sign of a permutation is denoted with $\text{sign}(\tau)$ is: $\text{sign}(\tau)=\left\{ \begin{array}{ll} +1, & \hbox{even permutation;} \\ -1, & \hbox{odd permutation.} \end{array} \right.$ Let $\tau \in S_n$ then $P_\tau=(e_{\tau(i)})$ is the de permutation matrix of $\tau$. This matrix follows from $I$ and applying $\tau$ on the rows.

### Example

Let $S_4=\{1,2,3,4\}$ and $\tau \in S_4$ defined by: $\left( {\begin{array}{*{20}c} 1 & 2 & 3 & 4 \\ 3 & 2 & 4 & 1 \\ \end{array} } \right)$ Give the sign and permutation matrix of $\tau$.
Solution

### Levi Civita permutation symbol

First we define a symbol for defining the sign of a permutation.
Definition:Levi Civita
Let $k_i \in \{1,2,3,...,n\}$ for $i=1,2,3,...,n$ then $\varepsilon _{k_1 ...k_n } = \varepsilon ^{k_1 ...k_n } = \begin{cases} { + 1} & \text{if } k_1 ...k_n \text{ an even permutation of } 1,2,3,...,n \\ { - 1} & \text{if } k_1 ...k_n \text{ on odd permutation of } 1,2,3,...,n \\ \;\;0 & \text{ otherwise } \\ \end{cases}$
De following formula calculates the Levi Civita permutation symbol: $\varepsilon _{k_1 ...k_n }= \prod\limits_{i = 1}^n {\left( {\frac{1} {{i!}}\prod\limits_{j = i + 1}^n {\left( {k_j - k_i } \right)} } \right)}$
Definition:Determinant
Let $A=(a_i^j)_{nn}$ a matrix with row index $i$ and column index $j$ then the determinant of $A$, notation $\det A$ or $|A|$, $\det A = \sum_{\tau \in S_n} \text{sign}(\tau)a_1^{\tau(1)}...a_n^{\tau(n)}$ or with the Levi Civita symbol and Einsteins summation convention: $\det A= \varepsilon _{j_1 ...j_n }a_{i_1}^{j_1} \cdots a_{i_n}^{j_n}$ or $\det A= \varepsilon ^{i_1 ...i_n }a_{i_1}^{j_1} \cdots a_{i_n}^{j_n}$ with $i_k, j_l \in \{1,2,3,...,n\}$ for $k,l=1,2,3,...,n$

Each term of a determinant contains $n$ factors each from a different row and column. The total numbers of elements is $n!$.

For a $3 \times 3$ matrix $A=(a_i^j)$ we have: \begin{align*} \det A &=\varepsilon_{123}a_1^1a_2^2a_3^3+\varepsilon_{231}a_1^2a_2^3a_3^1+\varepsilon_{312}a_1^3a_2^1a_3^2 \\ &+\varepsilon_{213}a_1^2a_2^1a_3^3+\varepsilon_{132}a_1^1a_2^3a_3^2+\varepsilon_{321}a_1^3a_2^2a_3^1 \\ &=a_1^1a_2^2a_3^3+a_1^2a_2^3a_3^1+a_1^3a_2^1a_3^2 -(a_1^2a_2^1a_3^3+a_1^1a_2^3a_3^2+a_1^3a_2^2a_3^1 ) \end{align*}

## Properties of a determinant

\begin{theorem} Een determinant voldoet aan de volgende eigenschappen (zij $A,B$ vierkante n-dimensionale matrices): \begin{enumerate} \item De determinant is invariant onder transponeren: $\det A = \det A^T$. Hieruit volgt dat alle eigenschappen voor determinanten gedefinieerd op de rijen ook van toepassing zijn op de kolommen en vice versa. \item De determinant is anti-symmetries. Als $B$ volgt uit $A$ door een even (0,2,4,6,..) aantal verwisselingen van rijen dan geldt $\det B=\det A$, ingeval van een oneven (1,3,5,..) aantal verwisselingen geldt $\det B = - \det A$. Een consequentie van deze eigenschap is dat als twee rijen in $A$ gelijk zijn dan is $\det A=0$, immers verwisseling van beide rijen geeft $\det A = - \det A$ en dit impliceert $\det A=0$. \item Als een rij van $A$ volledig bestaat uit nullen dan $\det A=0$ \item Als $B$ volgt uit $A$ door vermenigvuldiging van alle elementen van één rij met het getal $c$ dan $\det B = c \det A$. Als $B=cA$ dan $\det B=c^n \det A$ \item Als $B$ volgt uit $A$ door optelling van een veelvoud van een rij bij een andere rij dan geldt $\det B = \det A$. \item $\det AB = \det A \det B$. \item Als $A^{-1}$ bestaat dan $\det A^{-1} = \frac{1}{\det A}$ \item Als $A$ een driehoeksmatrix is dan geldt $\det A = a_{11}a_{22}...a_{nn}$ \end{enumerate} \end{theorem} \begin{theorem} De volgende eigenschappen tonen het verband met het Levi-Civita symbool, Kronecker delta en determinanten in 3 dimensies: \begin{enumerate} \item Uit de definities van het Levi-Civita symbool en de Kronecker delta volgt onmiddellijk: $\varepsilon _{ijk} \delta _l^i \delta _m^j \delta _n^k = \left| {\begin{array}{*{20}c} {\delta _{l1} } & {\delta _{l2} } & {\delta _{l3} } \\ {\delta _{m1} } & {\delta _{m2} } & {\delta _{m3} } \\ {\delta _{n1} } & {\delta _{n2} } & {\delta _{n3} } \\ \end{array} } \right|$ \item Aangezien de $\det A=\det A^T$ kunnen we bovenstaande determinant transponeren en de indices $l,m,n$ vervangen door $i,j,k$ en vervolgens vermenigvuldigen we de oorspronkelijke en nieuwe determinant: $\varepsilon _{lmn} \varepsilon ^{ijk} = \left| {\begin{array}{*{20}c} {\delta _{l1} } & {\delta _{l2} } & {\delta _{l3} } \\ {\delta _{m1} } & {\delta _{m2} } & {\delta _{m3} } \\ {\delta _{n1} } & {\delta _{n2} } & {\delta _{n3} } \\ \end{array} } \right|\left| {\begin{array}{*{20}c} {\delta _{i1} } & {\delta _{j1} } & {\delta _{k1} } \\ {\delta _{i2} } & {\delta _{j2} } & {\delta _{k2} } \\ {\delta _{i3} } & {\delta _{j3} } & {\delta _{k3} } \\ \end{array} } \right| = \left| {\begin{array}{*{20}c} {\delta _{il} } & {\delta _{jl} } & {\delta _{kl} } \\ {\delta _{im} } & {\delta _{jm} } & {\delta _{km} } \\ {\delta _{in} } & {\delta _{jn} } & {\delta _{kn} } \\ \end{array} } \right|$ Voor het vermenigvuldigen van de twee determinanten gebruiken we: $\delta _{l1} \delta _{i1} + \delta _{l2} \delta _{i2} + \delta _{l3} \delta _{i3} = \delta _{ip} \delta _{lp} = \delta _{il}$ We kunnen vervolgens de determinant uitrekenen: \begin{align*} \varepsilon _{lmn} \varepsilon ^{ijk} &= \delta _{il} \delta _{jm} \delta _{kn} + \delta _{jl} \delta _{km} \delta _{in} + \delta _{kl} \delta _{im} \delta _{jn} \\ &- \delta _{jl} \delta _{im} \delta _{kn} - \delta _{il} \delta _{km} \delta _{jn} - \delta _{kl} \delta _{jm} \delta _{in} \end{align*} \item We kunnen bovenstaande uitgewerkte determinant gebruiken om $\varepsilon _{lmn} \varepsilon ^{ljk}$ te bepalen, we vervangen daartoe $i$ door $l$ en daarna sommeren over $l$: \begin{align*} \varepsilon _{lmn} \varepsilon ^{ljk} &= \delta _{ll} \delta _{jm} \delta _{kn} + \delta _{jl} \delta _{km} \delta _{ln} + \delta _{kl} \delta _{lm} \delta _{jn} \\ &- \delta _{jl} \delta _{lm} \delta _{kn} - \delta _{ll} \delta _{km} \delta _{jn} - \delta _{kl} \delta _{jm} \delta _{ln} \\ &=3\delta _{jm} \delta _{kn}+\delta _{jn} \delta _{km}+\delta _{jn}\delta _{km}-\delta _{jm} \delta_{kn}-3\delta _{jn}\delta _{km}-\delta _{jm}\delta _{kn} \\ &= \delta _{jm} \delta _{kn}-\delta _{jn}\delta _{km} \\ \end{align*} \item We kunnen bovenstaande uitgewerkte determinant ook gebruiken om $\varepsilon _{lmn} \varepsilon ^{lmk}$ te bepalen, we vervangen daartoe $i$ door $l$, $j$ door $m$ en daarna sommeren over $l$ en $m$: \begin{align*} \varepsilon _{lmn} \varepsilon ^{lmk} &= \delta _{ll} \delta _{mm} \delta _{kn} + \delta _{ml} \delta _{km} \delta _{ln} + \delta _{kl} \delta _{lm} \delta _{mn} \\ &- \delta _{ml} \delta _{lm} \delta _{kn} - \delta _{ll} \delta _{km} \delta _{mn} - \delta _{kl} \delta _{mm} \delta _{ln} \\ &= 9 \delta _{kn} + \delta _{kn} + \delta _{kn} - 3\delta _{kn} - 3\delta _{kn} -3\delta _{kn}=2\delta _{kn} \end{align*} \item Tenslotte kunnen we $\varepsilon _{lmn} \varepsilon ^{lmn}$ bepalen en sommeren over $l,m,n$. De termen zijn gelijk aan $1$ dan en slechts dan als $l \ne m, m \ne n, l \ne n$. Dit is het geval voor $n!=6$ termen en dus geldt: $\varepsilon _{lmn} \varepsilon ^{lmn}=6$ \end{enumerate} \end {theorem} \section{Cofactor,minor en adjunct matrix} De cofactor, minor en adjunct matrix zijn constructies gebaseerd op determinanten die in formule vorm een uitdrukking geven voor oplossingen van stelsels van lineaire vergelijking, de inverse matrix en de determinant van een matrix. Hoewel elegant vanuit theoretisch perspectief, zijn deze uitdrukkingsvorm omwille van de inefficiency van de berekening niet geschikt voor grote $n$. Voor grote $n$ worden andere algoritme, zoals de Gaussiaanse eliminatie, gebruikt. \begin{definition} [\textbf{Cofactor}] Zij $A$ een vierkante $n \times n$ matrix dan is de \emph{cofactor} van $a_{ij}$, aangeduid met $A_{ij}$, de coefficient van $a_{ij}$ in de determinant van $A$. \end{definition} \begin{proposition} Zij $A$ een vierkante $n \times n$ matrix dan $$A_{ij}=\sum_{\tau \in S_n\wedge\tau(i)=j} \text{sign}(\tau)a_{1\tau(1)}...a_{i-1\tau(i-1)}a_{i+1\tau(i+1)}...a_{n\tau(n)}$$ \end{proposition} \begin{proof} De determinant van $A$ bestaat uit $(a)$ een sommatie van termen die $a_{ij}$ bevatten plus $(b)$ een sommatie van termen die niet $a_{ij}$ bevatten. \begin{align*}(a)&=\sum_{\tau \in S_n\wedge\tau(i)=j} \text{sign}(\tau)a_{1\tau(1)}...a_{i-1\tau(i-1)}a_{ij}a_{i+1\tau(i+1)}...a_{n\tau(n)} \\ &=a_{ij}\sum_{\tau \in S_n\wedge\tau(i)=j} \text{sign}(\tau)a_{1\tau(1)}...a_{i-1\tau(i-1)}a_{i+1\tau(i+1)}...a_{n\tau(n)} \end{align*} \end{proof} \begin{proposition} Zij $A$ een vierkante matrix en $A_{ij}$ de cofactor behorend bij element $a_{ij}$ dan geldt dat de determinant de som is van het product van elk element uit een willekeurige kolom $1 \leq j \leq n$ met zijn cofactor: $$\det A = a_{1j}A_{1j}+a_{2j}A_{2j}+..+a_{nj}A_{nj}$$ en eveneens geldt dat de determinant de som is van het product van elk element uit een willekeurige rij $1 \leq i \leq n$ met zijn cofactor: $$\det A = a_{i1}A_{i1}+a_{i2}A_{i2}+..+a_{in}A_{in}$$ \end{proposition} \begin{proof} We geven het bewijs voor de de ontwikkeling van de determinant vanuit een willekeurige rij $i$. Het bewijs voor een willekeurige kolom $j$ is analoog. \begin{align*} a_{i1}A_{i1}+a_{i2}A_{i2}+..+a_{in}A_{in} &= \sum_{j=1}^n{a_{ij}A_{ij}} \\ \end{align*} We substitueren in deze vergelijking de definitie voor $A_{ij}$ \begin{align*} \sum_{j=1}^n{a_{ij}A_{ij}} &= \sum_{j=1}^n{a_{ij} \sum_{\tau \in S_n\wedge\tau(i)=j} \text{sign}(\tau)a_{1\tau(1)}...a_{i-1\tau(i-1)}a_{i+1\tau(i+1)}...a_{n\tau(n)}} \\ &=\sum_{\tau \in S_n} \text{sign}(\tau)a_{1\tau(1)}...a_{i-1\tau(i-1)}a_{i\tau(i)}a_{i+1\tau(i+1)}...a_{n\tau(n)} \\ &= \det A \end{align*} \end{proof} \begin{definition}[\textbf{Minor}] Zij $A$ een vierkante $n \times n$ matrix dan is de minor van $a_{ij}$, aangeduid met $M_{ij}$, de determinant van de $(n-1) \times (n-1)$ submatrix van $A$ verkregen door rij $i$ en kolom $j$ weg te laten een aangeduid met $A(i;j)$: $M_{ij}=|A(i;j)|$ \end{definition} \begin{proposition} Zij $A$ een vierkante $n \times n$ matrix dan is de cofactor $A_{ij}$: $$A_{ij}=(-1)^{i+j}M_{ij}$$ \end{proposition} \begin{proof} We beginnen met $i=n,j=n$ dan geldt voor de cofactor $A_{nn}$: $A_{nn}= \sum_{\tau \in S_n \wedge \tau(n)=n} \text{sign}(\tau)a_{1\tau(1)}...a_{n-1\tau(n-1)}$ en voor de minor: $M_{nn}=\sum_{\phi \in S_n-1} \text{sign}(\phi)a_{1\phi(1)}...a_{n-1\phi(n-1)}$ Uit $\tau(n)=n$ volgt voor alle $i=1,2,...,n-1$ dat $\tau(i) \in \{1,2,...,n-1\}$ en dus kunnen we stellen $\tau(i)=\phi(i), \: i=1,2,...,n-1$. Verder volgt uit $\tau(n)=n$ dat er geen inversie $(i,n)$ bestaat en dus moet $\text{sign}(\tau)=\text{sign}(\phi)$. Hiermee is aangetoond dat $A_{nn}=M_{nn}$. We nemen nu $a_{ij},i \neq n, j \neq n$. We kunnen via het omwisselen van kolommen en rijen in $A$ het element $a_{ij}$ naar rij $n$ en kolom $n$ verschuiven. Hiervoor zijn $n-i+n-j=2n-i-j$ omwisselingen nodig. De nieuwe matrix duiden we aan met $A^*$. Aangezien omwisselingen enkel het teken van de determinant beïnvloedt geldt dus: \begin{gather*} \det A = (-1)^{2n-i-j}=(-1)^{i+j} \det A^* \Leftrightarrow \\ a_{ij}A_{ij}+R_A=(-1)^{i+j}\left(a_{nn}A^*_{nn}+R_A^*\right) \\ \intertext{Uit $a=a_{ij}=a_{nn}$ volgt dan: } aA_{ij}+R_A=(-1)^{i+j}\left(aA^*_{nn}+R_A^*\right) \Leftrightarrow \\ %aA_{ij} - (-1)^{i+j}aA^*_{nn}=(-1)^{i+j}R_A^*-R_A \Leftrightarrow \\ a(A_{ij}- (-1)^{i+j}A^*_{nn})=(-1)^{i+j}R_A^*-R_A \\ \intertext{$A_{ij}$ en $A_{nn}$ zijn de cofactoren van hetzelfde element van twee matrices $A$ en $A^*$ die uitsluitend van elkaar kunnen verschillen in teken als gevolg van de kolom en rij verwisseling tussen $A$ en $A^*$. Daaruit volgt:} A_{ij} = (-1)^{i+j}A^*_{nn} \\ \intertext{ We hebben al bewezen $A^*_{nn}=M^*_{nn}$, waaruit volgt:} A_{ij} = (-1)^{i+j}M^*_{nn} \\ \intertext{De minor van $a_{ij}$ in $A$ is gelijk aan de minor van $a_{nn}$ in $A^*$ ofwel $M_{ij}=M^*_{nn}$. Daaruit volgt tenslotte:} A_{ij} = (-1)^{i+j}M_{ij} \\ \end{gather*} \end{proof} \begin{proposition} Zij $A$ een vierkante matrix dan geldt voor een willekeurige kolom $1 \leq j \leq n$: $$\det A = \sum_{i=1}^n{(-1)^{i+j}a_{ij}M_{ij}}$$ en voor een willekeurige rij $1 \leq i \leq n$: $$\det A = \sum_{j=1}^n{(-1)^{i+j}a_{ij}M_{ij}}$$ \end{proposition} \begin{lemma} Zij $A$ een vierkante matrix. Als $i \neq k$, $\sum_{j=1}^n{a_{ij}A_{kj}}=0$ \end{lemma} \begin{proof} Neem een $1\leq k \leq$ en $1\leq i \leq n$ zodanig dat $k \neq i$ en definieer een matrix $B$ met $b_{h*}=a_{h*}$ indien $h \neq k$ en $b_{k*}=a_{i*}$. De matrix $B$ is dus gelijk aan de matrix $A$ met uitzondering van rij $k$, en dus $|B(k;j)|=|A(k;j)|$, de matrix $B$ bevat tweemaal de kolom $a_{i*}$, zodat $\det B=0$. Nu geldt: $B_{kj}=(-1)^{k+j} \det B(k;j)= (-1)^{k+j} \det A(k;j) = A_{kj}$ Daaruit volgt: $\det B = \sum_{j=1}^n{b_{kj}B_{kj}}=\sum_{j=1}^n{a_{ij}A_{kj}}=0$ \end{proof} We kunnen nu volgende twee relaties definiëren (voor rij en kolom expansie): \begin{proposition} $$\label{eq.1} \sum_{j=1}^n{a_{ij}A_{kj}}=\left\{ \begin{array}{ll} 0, & \hbox{k \neq i;} \\ \det A, & \hbox{k=i.} \end{array} \right.$$ \end{proposition} \begin{proposition} $$\sum_{i=1}^n{a_{ij}A_{il}}=\left\{ \begin{array}{ll} 0, & \hbox{l \neq j;} \\ \det A, & \hbox{l=j.} \end{array} \right.$$ \end{proposition} \begin{definition}[\textbf{Adjunct matrix}] Zij $A$ een vierkante $n \times n$ matrix. De adjunct matrix van $A$, aangeduid met $\operatorname{adj}(A)$, is een vierkante $n \times n$ matrix als volgt gedefinieerd: $$\operatorname{adj}(A)= \begin{pmatrix} A_{11} & ... & A_{1n} \\ . & ... & . \\ A_{n1} & ... & A_{nn} \\ \end{pmatrix}^T$$ met $A_{ij}$ de cofactor van $a_{ij}$ in de $\det A$: \end{definition} \begin{theorem} Zij $A$ een vierkante matrix, \label{thm.01} \begin{gather} A\:\operatorname{adj}(A) = (\det A) \: I \\ \operatorname{adj}(A) \: A = (\det A) \: I \end{gather} \end{theorem} \begin{proof} Zij $D=A\:\operatorname{adj}(A)$ dan is $d_{ik}=\sum_{j=1}^n{a_{ij}A_{jk}}$ en volgens propositie \ref{eq.1} $d_{ik}=\det A$ indien $i=k$ en anders $d_{ik}=0$, zodat $D=(\det A) \: I$ Het bewijs voor $\operatorname{adj}(A) \: A$ verloopt analoog. \end{proof} \begin{theorem} Zij $A$ een vierkante $n \times n$ matrix dan is $A$ niet-singulier d.e.s.d.a. $\det A \neq 0$. Indien \label{thm.02} $A$ is niet-singulier dan $$A^{-1}=\frac{\operatorname{adj}(A)}{\det A}$$ \end{theorem} \begin{proof} \text{ } \noindent (a) Als $A$ is niet-singulier dan is per definitie $I=AA^{-1}$ en $\det I= \det A \det A^{-1}=1$. Hieruit volgt $\det A \neq 0$. \\ \\ (b) Als $\det A \neq 0$ laat $X=\frac{\operatorname{adj}(A)}{\det A}$ en dus volgens stelling \ref{thm.01} $AX=\frac{A \: \operatorname{adj}(A)}{\det A} = \frac{(\det A) I}{\det A}=I$ en ook $XA=I$ Dus $X=A^{-1}$. \\ \\ We hebben hiermee bewezen dat $A$ is niet-singulier d.e.s.d.a. $\det A \neq 0$. Als $A$ is niet singulier geldt dus dat $\det A \neq 0$ en $A^{-1}=X$. \end{proof} \begin{theorem} [\textbf{Regel van Cramer}] Zij $A$ een vierkante $n \times n$ matrix en $A\boldsymbol{x}=\boldsymbol{b}$ een stelsel van lineaire vergelijkingen dan is de oplossing van dit stelsel: $$\boldsymbol{x}^*=(\det A)^{-1}[\det B_1,...,\det B_n]$$ waarbij $B_j$ is de matrix verkregen uit $A$ door kolom $j$ te vervangen door $\boldsymbol{b}$. \end{theorem} \begin{proof} Uit $A$ is niet singulier en stelling \ref{thm.02} volgt: $\boldsymbol{x}^*=(\det A)^{-1}\operatorname{adj}(A)b$ dus $\boldsymbol{x}_j^*=\det A)^{-1}(A_{1j}b_1+...+A_{nj}b_n)$ Nu geldt voorts dat $B_{ij}$ gelijk is aan de cofactor van $a_{ij}$ in $A$ en dus: $\det B_j=b_1A_{1j}+...+b_nA_{nj}$ dus $\boldsymbol{x}_j^*=(\det A)^{-1}\det B_j$ \end{proof}

## Paralellepiped

We define a k-dimensional $0\less k\leq n$ parallelepiped with vectors $\vec v_1, \cdots , \vec v_k$ in $\mathrm{R}^n$ as follows: $P_k=P(\vec v_1, \cdots, \vec v_k)=\left\{ \sum_i x_i\vec v_i | 0 \leq x_i \leq 1 \right\}$ The vectors $\vec v_1, \cdots , \vec v_k$ are the edges of the parallelepiped.

The volume is proportional to each of its edges and therefore we can write for the volume: $\text{vol}\; P_k=\text { base } \cdot \text{ height } = \text{vol} \;P_{k-1} \cdot \norm{\vec h_k}$ where $\vec h_k =\vec v_k - \text{Proj}(\vec v_k) =\vec v_k - \sum_{i=1}^{k-1} \frac{\vec v_k \cdot \vec v_i}{\vec v_i \cdot \vec v_i} \vec v_i$ the perpendicular dropped from the end of $\vec v_k$ onto the sub-space $(\vec v_1, \cdots, \vec v_{k-1})$ and $\norm{\vec h_k}$ is then the distance of the end of $\vec v_k$ to this sub-space. If we now define $\vec h_1=\norm{\vec v_1}$ then we get by recursion: $\text{vol}\; P_k=\norm{\vec h_1}\;\norm{\vec h_2}\;\norm{\vec h_3}\cdots\norm{\vec h_k}$

We introduce the Gram determinant: $\det G(\vec v_1, \vec v_2,\cdots,\vec v_k)=\left| {\begin{array}{*{20}c} {\vec v_1 \cdot \vec v_1 } & {\vec v_1 \cdot \vec v_2 } & {\cdots } & {\vec v_1 \cdot \vec v_k} \\ {\vec v_2 \cdot \vec v_1 } & {\vec v_2 \cdot \vec v_2 } & {\cdots } & {\vec v_2 \cdot \vec v_k} \\ {\cdot} & {\cdot } & {\cdots } & { \cdot } \\ {\vec v_k \cdot \vec v_1 } & {\vec v_k \cdot \vec v_2 } & {\cdots } & {\vec v_k \cdot \vec v_k} \\ \end{array} } \right|$

We apply the Gram-Schmidt orthogonalization process to the set of vectors $\{\vec v_1,\cdots,\vec v_k\}$ to obtain a new set of orthogonal vectors $\{\vec h_1,\cdots,\vec h_k\}$ that span the same parallelepiped: \begin{align*} \vec h_1 &= \vec v_1 \\ \vec h_i &= \vec v_i - \sum_{j=1}^{i-1} \frac{\vec v_i \cdot \vec h_j}{\vec h_j \cdot \vec h_j} \vec h_j = \vec v_i + \sum_{j=1}^{i-1} \alpha_j h_j \end{align*} We can apply this same process to the $\det G$ and replace each occurence of $v_i$ with $h_i$ in the following way. First replace $\vec v_1$ just with $\vec h_1$. Suppose $\vec h_2=\vec v_2 + \alpha_1 \vec h_1$ then multiply the second factor of the first column with $\alpha_1$ and add the result to the second column. The second factor of the scalar product in the second column, which was $\vec v_2$, is now replaced by $\vec h_2=\vec v_2 + \alpha_1 \vec h_1$ this follows from the property of the scalar product: $\_\cdot \alpha_1 \vec h_1+ \_ \cdot \vec v_2= \_ \cdot (\vec v_2 + \alpha_1 \vec h_1)= \_ \cdot \vec h_2$ where $\_$ is either $\vec h_1$ or $v_i, i=2..k$. If we then multiply the first factor of the first row with $\alpha_1$ and add it to the second row, then the first factor of the scalar product of the second row, which is $\vec v_2$, is replaced by the same argument with $\vec h_2$. We can repeat the same process for the $\vec v_3,\cdots,\vec v_k$. All we do is multiplying columns and rows and adding a column and a row to another column and row. These operations do not change the value of the original $\det G$. But because the new vectors are orthogonal to each other their scalar products vanish and we have: $\det G(\vec v_1, \vec v_2,\cdots,\vec v_k)=\left| {\begin{array}{*{20}c} {\vec h_1 \cdot \vec h_1 } & {0 } & {\cdots } & {0} \\ {0 } & {0 } & {\cdots } & {0} \\ {\cdot} & {\cdot } & {\cdots } & { \cdot } \\ {0 } & {0 } & {\cdots } & {\vec h_k \cdot \vec h_k} \\ \end{array} } \right|=\norm{\vec h_1}^2\norm{\vec h_2}^2 \cdots \norm{\vec h_k}^2$

Now it easily follows: $\text{vol}^2\;P_k =\det G$

Suppose a set of $n$ vectors can be described by a matrix $A$ and $(\vec v_1,\vec v_2, \cdots, \vec v_n)=(\hat{\mathbb{e}_1},\hat{\mathbb{e}_2},\cdots,\hat{\mathbb{e}_n})A$ then the Gram-Schmidt matrix is defined by $G(\vec a_2,\vec v_2, \cdots, \vec v_n)=A^TA$ but $\det G(\vec a_2,\vec v_2, \cdots, \vec v_n)=\det A^TA=(\det A)^2$ this gives rise to the following fact: $\text{vol}\;P_n=\norm{\det A}$ We see here the geometric interpretation of the determinant as the volume of an n dimensional parallelepiped.

## References

• [1]    l, , .
• [1]    l, , .