$\textstyle \parbox{0.45\textwidth}{\begin{flushleft}\vspace{-\baselineskip}
{\L...
...itet}\\ \textbf{Matematiska Institutionen}\\
T Erlandsson\\
\end{flushleft}}$ $\textstyle \parbox{0.45\textwidth}{\begin{flushright}\vspace{-\baselineskip}
LINJÄR ALGEBRA MN1\\ Vårterminen 2004\end{flushright}}$
LÄSANVISNINGAR CHAPTER 6

SECTION 6.1

The inner product of $\,\mathbf{u}\,$ and $\,\mathbf{v},$ som ofta betecknas $\,\mathbf{u}\cdot\mathbf{v},$ kallas inre produkten eller skalärprodukten av $\,\mathbf{u}\,$ och $\,\mathbf{v},$ och i det fall att $\,\mathbf{u}\cdot\mathbf{v}=u_1v_1+u_2v_2+\dots +u_nv_n\,$ talar vi om
standardskalärprodukten $\,\mathbf{R}^n.$ På engelska är det också naturligt att säga the
standard inner product. Med hjälp av den inre produkten kan vi införa begreppen längd,
ortogonalitet och vinkel i våra vektorrum, dvs vi kan nu geometrisera rummen.

Övningar: 1, 3, 5, 7, 9, 11, 13, 15, 17, 22, 23, 24, 25, 27, 28, 29, 30, 31

Ledning: Exercise 24 $\quad$ V.G.V!

SECTION 6.2

THEOREM 5 förklarar varför vi tycker om ortogonala baser. Avsnittet
An Orthogonal Projection på sidan 386ff är viktigt. Observera betydelsen av orthogonal matrix på sidan 391. En sådan har alltså ortonormala kolonner och automatiskt, ortonormala rader.

Övningar: 1, 3, 5, 7, 9, 11, 13, 15, 17, 19, 21, 25, 26, 27, 28, 29, 30, 31, 32

SECTION 6.3

THEOREM 9 The Best Approximation Theorem visar att ortogonala projektioner måste vara exceptionellt viktiga inom vetenskapen.

Övningar: 1, 3, 5, 7, 9, 11, 13, 15, 17, 23, 24

Ledning: Exercises 23, 24 $\quad$ V.G.V!

SECTION 6.4

Notera vad Davis Lay säger före EXEMPEL 2. ``Study it carefully.'' QR Factorization of Matrices är överkurs men helt oemotståndligt.

Övningar: 1, 3, 5, 7, 9, 11 Övningar på QR factorization: 13, 15, 19, 20

SECTION 6.7

Inner Product Spaces är bokens viktigaste avsnitt. Differentialgeometri, allmän relativitetsteori mm mm skulle inte finnas i den utsökta form vi har idag om vi inte hade denna generalisering av ``the standard inner product''.

Övningar: 1, 3, 5, 7, 9, 11, 13, 15, 17, 19, 20, 21, 23, 25

Supplementary Exercises

2, 3, 4, 5, 6, 7, 13

Ledning: Supplementary Exercise 6 $\quad$ V.G.V!

Ledning: Ch 6.1 Exercise 24

$\vert\vert\mathbf{u}\pm\mathbf{v}\vert\vert^2=(\mathbf{u}\pm\mathbf{v})\cdot (\mathbf{u}\pm\mathbf{v})$


Ledning: Ch 6.3 Exercise 23

Använd Theorem 3 och the Orthogonal Decomposition Theorem. För entydigheten, antag att $\,A\mathbf{p}=\mathbf{b}\,$ och $\,A\mathbf{p_1}=\mathbf{b}\,$ och betrakta ekvationerna $\,\mathbf{p}=\mathbf{p}_1+(\mathbf{p}-\mathbf{p}_1)\,$ och $\,\mathbf{p}=\mathbf{p}+\mathbf{0}.$


Ledning: Ch 6.3 Exercise 24

a) Enligt förutsättningen är vektorerna $\,\mathbf{w}_1,\dots,\mathbf{w}_p\,$ parvis ortogonala och även vektorerna $\,\mathbf{v}_1,\dots,\mathbf{v}_q\,$ är parvis ortogonala. Vidare är $\,\mathbf{w}_i\cdot\mathbf{v}_j=0\,$ för varje $\,i\,$ och $\,j\,$ eftersom alla $\,\mathbf{v},$ är i det ortogonala komplementet av $\,W.$

b) För varje $\,\mathbf{y}\in\mathbf{R}^n\,$ kan vi enligt the Orthogonal Decomposition Theorem skriva $\,\mathbf{y}=\hat\mathbf{y}+\mathbf{z}\,$ där $\,\hat\mathbf{y}\in W\,$ och $\,\mathbf{z}\in W^\bot.$ Då finns det skalärer $\,c_1,\dots,c_p\,$ och $\,d_1,\dots,d_q\,$ så att

\begin{displaymath}\mathbf{y}=\hat\mathbf{y}+\mathbf{z}=c_1\mathbf{w}_1+\dots +c_p\mathbf{w}_p+
d_1\mathbf{v}_1+\dots +d_q\mathbf{v}_q\end{displaymath}

Alltså gäller att $\quad$ Span $\,\{\mathbf{w}_1,\dots,\mathbf{w}_p,
\mathbf{v}_1,\dots,\mathbf{v}_q\}=\mathbf{R}^n.$

c) Mängden $\,\{\mathbf{w}_1,\dots,\mathbf{w}_p,
\mathbf{v}_1,\dots,\mathbf{v}_q\}\,$ är linjärt oberoende enligt (a) och spänner $\,\mathbf{R}^n\,$ enligt (b) och är alltså en bas för $\,\mathbf{R}^n.$ Alltså får vi

\begin{displaymath}\dim W+ \dim W^\bot =p+q=\dim \mathbf{R}^n=n\end{displaymath}


Ledning: Supplementary Exercise 6

Om $\,U\mathbf{x}=\lambda\mathbf{x}\,$ för något $\,\mathbf{x}\ne \mathbf{0}\,$ så gäller enligt Theorem 7(a) och normens egenskaper att

\begin{displaymath}\vert\vert\mathbf{x}\vert\vert=\vert\vert U\mathbf{x}\vert\ve...
...{x}\vert\vert=
\vert\lambda\vert\vert\vert\mathbf{x}\vert\vert,\end{displaymath}

vilket visar att $\,\vert\lambda\vert=1$ eftersom $\,\mathbf{x}\ne \mathbf{0}.$



Tillbaka till läsanvisningar Tillbaka till Linjär algebra MN1