Chapter 1-3 in the A part done.

This commit is contained in:
Relintai 2018-06-06 10:51:42 +02:00
parent a8e129636e
commit 82c3366e1b

View File

@ -152,7 +152,8 @@ Az alábbiakban tájékoztató jelleggel fölsoroljuk a vizsgadolgozat A
\begin{tcolorbox}[title={1/1. {\symknight}}]
A $\{b_1,b_2,b_3\}$ vektorhalmaz bázis a $V \leq \mathbb{R}^n$ altérben. Határozzuk meg a $v = 2b_1 + 3b_2 -b_3$ vektor koordinátavektorát a $\{b_1,b_2,b_3\}$ bázisban.
\tcblower
A vektor bázisban vett koordinátavektorának fogalmát kéri számon.\\
A feladat a vektor bázisban vett koordinátavektorának fogalmát kéri számon.\\
\mmedskip
A vektorból kell kiszámítani a koordinátáit.\\
\mmedskip
@ -199,13 +200,30 @@ Az alábbiakban tájékoztató jelleggel fölsoroljuk a vizsgadolgozat A
\end{bmatrix}$. Írjuk föl a $v+2w$ vektort a $\{b_1,b_2,b_3\}$ vektorok lineáris kombinációjaként.
\tcblower
A feladat két fogalmat kérdez:\\
hogyan kell a koordinátákból kiszámítani a vektorokat, de még azt is tudni kell, hogy hogyan kell koordinátavektorokkal műveleteket végezni.\\
\mmedskip
Hogyan kell a koordinátákból kiszámítani a vektorokat, de még azt is tudni kell, hogy hogyan kell koordinátavektorokkal műveleteket végezni.\\
\mmedskip
Tehát először a két koordinátavektor megfelelő lineáris kombinációját számoljuk ki: $| | 1 0 2 | |+ 2 | | 3 1 0 | | 7 2 2 |$, majd az így kapott oszlopvektort átírjuk a bázisvektorok lineáris kombinációjává.\\
Tehát először a két koordinátavektor megfelelő lineáris kombinációját számoljuk ki: $\begin{bmatrix}
1 \\
0 \\
2
\end{bmatrix}$ $+ 2$ $\begin{bmatrix}
3 \\
1 \\
0
\end{bmatrix}$ $=$ $\begin{bmatrix}
7 \\
2 \\
2
\end{bmatrix}$, majd az így kapott oszlopvektort átírjuk a bázisvektorok lineáris kombinációjává.\\
\mmedskip
De megtehetjük azt is, hogy először a v és w vektorokat írjuk fel a bázisvektorok lineáris kombinációjaként, majd ebből számítjuk ki a $v+2w$-t.
De megtehetjük azt is, hogy először a v és w vektorokat írjuk fel a bázisvektorok lineáris kombinációjaként, majd ebből számítjuk ki a $v+2w$-t.\\
\mmedskip
$v + 2w = 7b_1 + 2b_2 + 2b_3$
$v + 2w = 7b_1 + 2b_2 + 2b_3$
\end{tcolorbox}
\end{frame}
@ -213,14 +231,23 @@ Az alábbiakban tájékoztató jelleggel fölsoroljuk a vizsgadolgozat A
\begin{tcolorbox}[title={1/4. {\symqueen}}]
Tegyük föl, hogy a $\{b_1,b_2,b_3\}$ vektorhalmaz bázis a $V \leq \mathbb{R}^n$ altérben. Mi lesz ezen $b_i$ bázisvektorok $v$-vel jelölt összegénekakoordinátavektora a $\{b_1+b_2,b_2,b_3\}$ bázisban?
\tcblower
Az a kérdés, hogy a $b_1+b_2+b_3 = {\lambda}1(b_1+b_2)+{\lambda}2b_2+{\lambda}3b_3$ felírásban mennyi a ${\lambda}i$ ismeretlenek értéke.\\|
Az a kérdés, hogy a $b_1+b_2+b_3 = {\lambda}_1(b_1+b_2)+{\lambda}_2b_2+{\lambda}_3b_3$ felírásban mennyi a ${\lambda}_i$ ismeretlenek értéke.\\
\mmedskip
Ezekre úgy kapunk lineáris egyenletrendszert, hogy a $b_i$ bázisvektor együtthatóját az egyenlet két oldalán összehasonlítjuk.\\
\mmedskip
Azonnal látszik, hogy $b_1 + b_2 + b_3 = 1 \cdot (b_1 + b_2) + 0 \cdot b_2 + 1 \cdot b_3$ megfelelő felírás, és ezért ezek az együtthatók adják a keresett koordinátavektort.\\
\mmedskip
Ennek a problémának a megoldását az általános esetben az elemi bázistranszformációról szóló tétel szolgáltatja.
\mmedskip
$[v]_{b_1,b_2,b_3} =$
$[v]_{b_1 + b_2,b_2,b_3} =$ $\begin{bmatrix}
1 \\
0 \\
1
\end{bmatrix}$
\end{tcolorbox}
\end{frame}
@ -238,7 +265,19 @@ Az alábbiakban tájékoztató jelleggel fölsoroljuk a vizsgadolgozat A
\mmedskip
Pl. benne vannak az altérben, de az összegük,nincs.
Pl. $\begin{bmatrix}
1 \\
0 \\
0
\end{bmatrix}$ és $\begin{bmatrix}
0 \\
1 \\
0
\end{bmatrix}$ benne vannak az altérben, de az összegük, $\begin{bmatrix}
1 \\
1 \\
0
\end{bmatrix}$ nincs.
\end{tcolorbox}
\end{frame}
@ -250,19 +289,38 @@ Az alábbiakban tájékoztató jelleggel fölsoroljuk a vizsgadolgozat A
A nulla determinánsú mátrixok összege könnyen lehet nem nulla determinánsú, s hasonlóképpen nem nulla determinánsú mátrixok összege lehet nulla determinánsú.\\
\mmedskip
Pl. det= det= 0, ugyanakkor det
Pl. det $\begin{bmatrix}
1 & 0 \\
0 & 0\\
\end{bmatrix}$ = det $\begin{bmatrix}
0 & 0 \\
0 & 1 \\
\end{bmatrix}$ = 0, ugyanakkor det($\begin{bmatrix}
1 & 0 \\
0 & 0\\
\end{bmatrix}$ $+$ $\begin{bmatrix}
0 & 0 \\
0 & 1 \\
\end{bmatrix}$) $=1 \neq 0$
\end{tcolorbox}
\end{frame}
\begin{frame}
\begin{tcolorbox}[title={2/3. {\symrook}}]
Tekintsük azoknak az $\mathbb{R}^3$-beli vektoroknak a halmazát, amelyek az alábbi feltételnek tesznek eleget.\\ű
Tekintsük azoknak az $\mathbb{R}^3$-beli $\begin{bmatrix}
x_1 \\
x_2 \\
x_3
\end{bmatrix}$ vektoroknak a halmazát, amelyek az alábbi feltételnek tesznek eleget.\\
\mmedskip
Mely eset(ek)ben kapunk alteret?\\
(A) $x1 = x2 + 2x3$\\
(B) $x1 = x2 + 2$\\
(C) $x1x2 = 0$\\
(D) $x2 1 = 0$
\mmedskip
(A) $x_1 = x_2 + 2x_3$\\
(B) $x_1 = x_2 + 2$\\
(C) $x_1x_2 = 0$\\
(D) $x^2_1 = 0$
\tcblower
\mmedskip
@ -273,23 +331,27 @@ Az alábbiakban tájékoztató jelleggel fölsoroljuk a vizsgadolgozat A
\begin{frame}
\begin{tcolorbox}[title={2/4. {\symqueen}}]
Mely alábbi halmaz(ok) alkot(nak) alteret a $2x2$-es valós mátrixok halmazában mint $R$ fölötti vektortérben:\\
Mely alábbi halmaz(ok) alkot(nak) alteret a $2x2$-es valós mátrixok halmazában mint $\mathbb{R}$ fölötti vektortérben:\\
\mmedskip
(A) $\{A \in \mathbb{R}^{2 x 2}|detA = 0\}$\\
(B) $\{A \in \mathbb{R}^{2 x 2}|detA 6= 0\}$\\
(C) $\{A \in \mathbb{R}^{2 x 2}|A = AT\}$\\
(D) $\{A \in \mathbb{R}^{2 x 2}|A2 = I2\}$
(B) $\{A \in \mathbb{R}^{2 x 2}|detA \neq 0\}$\\
(C) $\{A \in \mathbb{R}^{2 x 2}|A = A^T\}$\\
(D) $\{A \in \mathbb{R}^{2 x 2}|A^2 = I_2\}$
\tcblower
Azt kell megvizsgálnunk, hogy a megadott halmazok zártak-e az összeadásra, ill. a skalárral való szorzásra:\\
\mmedskip
Az (A) kérdésben nulla determinánsú mátrixok összege könnyen lehet nem nulla determinánsú, s hasonlóképpen nem nulla determinánsú mátrixok összege lehet nulla determinánsú.\\
\mmedskip
A (B)-ben (de érvelhetünk azzal is, hogy a nullmátrix nem ilyen);\\
\mmedskip
A szimmetria megőrződik mátrixok összeadásánál, ill. skalárral való szorzásánál (ez mutatja, hogy a (C) feladatban alterünk van).\\
\mmedskip
Az pedig hogy a (D) feladatban nem kapunk alteret, kiderül pl. abból is, hogy a nullmátrix nem teljesíti az adott feltételt.
Az pedig hogy a (D) feladatban nem kapunk alteret, kiderül pl. abból is, hogy a nullmátrix nem teljesíti az adott feltételt.\\
\mmedskip
Alter(ek): (C)
@ -301,11 +363,12 @@ Az alábbiakban tájékoztató jelleggel fölsoroljuk a vizsgadolgozat A
Mutassunk egy olyan $H$ részhalmazt $\mathbb{R}^2$-ben (azaz a síkon), mely zárt a vektorok szokásos összeadására, mégsem alkot alteret $\mathbb{R}^2$-ben.
\tcblower
A feladat arra mutat rá, hogy altereknél mindkét műveletre való zártságot meg kell követelnünk:\\
\mmedskip
erre érdemes már a fölkészülés során is példát keresnünk, hogy jobban megérthessük a fogalmat.
erre érdemes már a fölkészülés során is példát keresnünk, hogy jobban megérthessük a fogalmat.\\
\mmedskip
Pl. $\{[a b]T \in \mathbb{R}^2|a,b > 0\}$
Pl. $\{[a b]^T \in \mathbb{R}^2|a,b > 0\}$
\end{tcolorbox}
\end{frame}
@ -321,7 +384,10 @@ Az alábbiakban tájékoztató jelleggel fölsoroljuk a vizsgadolgozat A
\begin{tcolorbox}[title={3/1. {\symknight}}]
Alkalmas együtthatók megadásával mutassuk meg, hogy a $\{v,0,w\}$ vektorok rendszere lineárisan összefüggő.
\tcblower
A lineáris összefüggőséget kell bizonyítanunk.\\
\mmedskip
Ehhez olyan együtthatókat kell megadnunk, amelyek nem mindegyike nulla (és nem olyanokat, hogy egyik sem nulla). Ha tehát a rendszerben látunk néhány összefüggő vektort, akkor a többinek nyugodtan adhatunk nulla együtthatót.\\
\mmedskip
$0 \cdot v + 1 \cdot 0 + 0 \cdot w = 0$.
@ -333,19 +399,22 @@ Az alábbiakban tájékoztató jelleggel fölsoroljuk a vizsgadolgozat A
\begin{tcolorbox}[title={3/2. {\symknight}}]
Alkalmas együtthatók megadásával mutassuk meg, hogy az $\{u,v,w,v+2w\}$ vektorok rendszere lineárisan összefüggő.
\tcblower
A lineáris összefüggőséget kell bizonyítanunk.\\
\mmedskip
Ehhez olyan együtthatókat kell megadnunk, amelyek nem mindegyike nulla (és nem olyanokat, hogy egyik sem nulla). Ha tehát a rendszerben látunk néhány összefüggő vektort, akkor a többinek nyugodtan adhatunk nulla együtthatót.\\
\mmedskip
$0 \cdot u + 1 \cdot v + 2 \cdot w + (-1)(v + 2w) = 0.$.
$0 \cdot u + 1 \cdot v + 2 \cdot w + (-1)(v + 2w) = 0$.
\end{tcolorbox}
\end{frame}
\begin{frame}
\begin{tcolorbox}[title={3/3. {\symknight}}]
Legyen $v1 = \in \mathbb{R}^2$ és $v2 = \in \mathbb{R}^2$. Mely valós $c$ szám(ok)ra lesz $v1$ és $v2$ lineárisan összefüggő?
Legyen $v_1 = [1 \; 1]^T \in \mathbb{R}^2$ és $v_2 = [3 \; c]^T \in \mathbb{R}^2$. Mely valós $c$ szám(ok)ra lesz $v_1$ és $v_2$ lineárisan összefüggő?
\tcblower
Arra érdemes emlékeznünk, hogy két nem nulla vektor akkor és csak akkor lineárisan összefüggő, ha egymás skalárszorosai.\\
\mmedskip
$c = 3$.
@ -355,45 +424,56 @@ Az alábbiakban tájékoztató jelleggel fölsoroljuk a vizsgadolgozat A
\begin{frame}
\begin{tcolorbox}[title={3/4. {\symrook}}]
Mely $c \in R$ valós számokra lesznek lineárisan függetlenek az $[1 0 c]T, a [2 2 2]T$ és a $[4 2 3]T$ vektorok?
Mely $c \in R$ valós számokra lesznek lineárisan függetlenek az $[1 \; 0 \; c]^T, a [2 \; 2 \; 2]^T$ és a $[4 \; 2 \; 3]^T$ vektorok?
\tcblower
Megoldhatjuk a szokásos homogén lineáris egyenletrendszer vizsgálatával (ha a megoldások száma nagyobb, mint 1, akkor a vektorrendszer összefüggő).\\
\mmedskip
Másik lehetőség annak a tételnek az alkalmazása, hogy a megadott vektorok pontosan akkor lineárisan függetlenek, ha a belőlük mint oszlopvektorokból képzett mátrix determinánsa nem 0.\\
Mivel $\begin{vmatrix}
1 & 2 & 4 \\
0 & 2 & 2 \\
c & 2 & 3 \\
\end{vmatrix}$ $= -4c + 2$, ezért a válasz $c \neq \frac{1}{2}$.\\
\mmedskip
$c 6= 1/2$.
$c \neq 1/2$.
\end{tcolorbox}
\end{frame}
\begin{frame}
\begin{tcolorbox}[title={3/5. {\symrook}}]
Legyen $v1 = 1 1 \in \mathbb{R}^3$. Adjunk meg olyan $v2$ és $v3$ vektorokat $\mathbb{R}^3$-ban, melyekre igaz, hogy a $v1,v2,v3$ vektorrendszer lineárisan összefüggő, de közülük bármely két vektor lineárisan független.
Legyen $v_1 = [1 \; 1 \; 0]^T \in \mathbb{R}^3$. Adjunk meg olyan $v_2$ és $v_3$ vektorokat $\mathbb{R}^3$-ban, melyekre igaz, hogy a $v_1,v_2,v_3$ vektorrendszer lineárisan összefüggő, de közülük bármely két vektor lineárisan független.
\tcblower
Segít, ha tudjuk, hogy mit jelent az összefüggőség a lineáris függés nyelvén: a feltételek azt jelentik, hogy a vektorok egyike sem skalárszorosa a másiknak, de az egyik vektor a másik kettőnek a lineáris kombinációja. \\
\mmedskip
Pl. $v_1 = [1 \; 0 \; 0]^T,\; v_2 = [0 \; 1 \; 0]^T$
\end{tcolorbox}
\end{frame}
\begin{frame}
\begin{tcolorbox}[title={3/6. {\symknight}}]
Egy $U \leq \mathbb{R}^2$ altérben $[2 3]T$ generátorrendszert alkot. Adjunk meg $U$-ban egy háromelemű generátorrendszert.
Egy $U \leq \mathbb{R}^2$ altérben $[2 \; 3]^T$ generátorrendszert alkot. Adjunk meg $U$-ban egy háromelemű generátorrendszert.
\tcblower
Azt az állítást használjuk, hogy generátorrendszer kibővítve is generátorrendszer marad, de vigyáznunk kell, hogy az új vektorokat is az altérből vegyük. \\
\mmedskip
Pl. $[2 3]T, [4 6]T, [0 0]T$
Pl. $[2 \; 3]^T, [4 \; 6]^T, [0 \; 0]^T$
\end{tcolorbox}
\end{frame}
\begin{frame}
\begin{tcolorbox}[title={3/7. {\symrook}}]
Egy $U \leq R5$ altérben van olyan $\{v1,v2,v3\}$ háromelemű lineárisan összefüggő vektorhalmaz, mely generátorrendszer U-ban. Hány eleme lehet $U$ egy bázisának?
Egy $U \leq \mathbb{R}^5$ altérben van olyan $\{v_1,v_2,v_3\}$ háromelemű lineárisan összefüggő vektorhalmaz, mely generátorrendszer U-ban. Hány eleme lehet $U$ egy bázisának?
\tcblower
A kérdés megválaszolásához az a tény segít, hogy minden generátorrendszerből kiválasztható bázis, az azonban lineárisan független.\\
\mmedskip
Így a háromelemű halmazból legalább egyet el kell távolítanunk, hogy bázist kaphassunk. Mivel az altérben van legalább három vektor, ezért az nem lehet 0 dimenziós.\\
\mmedskip
Bázis elemszáma lehet: 1,2
@ -403,10 +483,10 @@ Az alábbiakban tájékoztató jelleggel fölsoroljuk a vizsgadolgozat A
\begin{frame}
\begin{tcolorbox}[title={3/8. {\symrook}}]
Ha egy $U \leq R9$ altérben van $5$ elemű lineárisan összefüggő generátorrendszer is, meg $3$ elemű lineárisan független vektorrendszer is, akkor mik $dimU$ lehetséges értékei?
Ha egy $U \leq \mathbb{R}^9$ altérben van $5$ elemű lineárisan összefüggő generátorrendszer is, meg $3$ elemű lineárisan független vektorrendszer is, akkor mik $dimU$ lehetséges értékei?
\tcblower
A feladat gondolata ugyanez, de hozzá kell tennünk, hogy független rendszer elemszáma kisebb vagy egyenlő, mint az altér dimenziója.\\
\mmedskip
dimU lehet: 3 vagy 4
@ -416,13 +496,13 @@ Az alábbiakban tájékoztató jelleggel fölsoroljuk a vizsgadolgozat A
\begin{frame}
\begin{tcolorbox}[title={3/9. {\symknight}}]
Legyenek $\{v1,v2,v3\}$ lineárisan független vektorok. Adjuk meg a $\{v1 + v2,v2,2v1 + v2\}$ által generált altér egy bázisát.
Legyenek $\{v_1,v_2,v_3\}$ lineárisan független vektorok. Adjuk meg a $\{v_1 + v_2,v_2,2v_1 + v_2\}$ által generált altér egy bázisát.
\tcblower
A feladathoz jó arra emlékezni, hogy ha egy U altér egy generátorrendszeréből kiválasztunk olyan vektorokat, amelyek egyrészt függetlenek, másrészt U adott generátorai már kifejezhetők velük (vagyis ez egy maximális független rendszer U adott generátorrendszerében), akkor ez a kiválasztott független rendszer bázis lesz U-ban.\\
\mmedskip
Pl. : $\{v1 + v2,v2\}$
Pl. : $\{v_1 + v_2,v_2\}$
\end{tcolorbox}
\end{frame}
@ -431,20 +511,28 @@ Az alábbiakban tájékoztató jelleggel fölsoroljuk a vizsgadolgozat A
\begin{tcolorbox}[title={3/10. {\symqueen}}]
Adott egy ötelemű vektorrendszer, melynek a rangja $3.$ Eltávolítunk a rendszerből két vektort. Mik az új rendszer rangjának lehetséges értékei?
\tcblower
A feladathoz tudni kell, hogy a rang a generált altér dimenziója.\\
\mmedskip
Ha tehát egy háromdimenziós altér ötelemű generátorrendszeréből eltávolítunk két vektort, akkor a maradék vektorrendszer által generált altér még mindig legalább egydimenziós (hiszen még egy háromelemű független rendszerből is maximum kettőt távolíthattunk el), de maradhatott is háromdimenziós (ha pl. a két „fölösleges” vektort dobtuk ki.)\\
\mmedskip
A rang lehet: 1, 2 vagy 3
\end{tcolorbox}
\end{frame}
\begin{frame}
\begin{tcolorbox}[title={3/11. {\symqueen}}]
Legyen $U = \{[x1,x2,x3]T \in \mathbb{R}^3|x1 = 2x2 = 3x3\}$ az $\mathbb{R}^3$ altere. Hány olyan bázisa van az $U$ altérnek, mely tartalmazza a $v = [6,3,2]T$ vektort?
\tcblower
Legyen $U = \{[x_1,x_2,x_3]^T \in \mathbb{R}^3|x_1 = 2x_2 = 3x_3\}$ az $\mathbb{R}^3$ altere. Hány olyan bázisa van az $U$ altérnek, mely tartalmazza a $v = [6,3,2]^T$ vektort?
\tcblower
A feladatban egy egydimenziós alterünk van, s ebben bármely nem nulla vektor egyúttal bázis is.\\
\mmedskip
Ha a tér dimenziója nagyobb lenne, akkor hivatkozva arra a tételre, mely szerint független rendszer kiegészíthető bázissá máris megváltozna a helyzet:\\
\mmedskip
ilyenkor bármely, a dimenziószámnál kisebb elemszámú vektorhalmaz végtelen sok módon egészíthető ki bázissá.\\
\mmedskip
Bázisok száma: 1
\end{tcolorbox}
@ -452,38 +540,6 @@ Az alábbiakban tájékoztató jelleggel fölsoroljuk a vizsgadolgozat A
\begin{frame}
\begin{tcolorbox}[title={3/11. {\symqueen}}]
Az első két feladatban
A lineáris összefüggőséget kell bizonyítanunk.\\
Ehhez olyan együtthatókat kell megadnunk, amelyek nem mindegyike nulla (és nem olyanokat, hogy egyik sem nulla). Ha tehát a rendszerben látunk néhány összefüggő vektort, akkor a többinek nyugodtan adhatunk nulla együtthatót.
A harmadik feladatban arra érdemes emlékeznünk, hogy két nem nulla vektor akkor és csak akkor lineárisan összefüggő, ha egymás skalárszorosai.
A negyedik feladatot megoldhatjuk a szokásos homogén lineáris egyenletrendszer vizsgálatával (ha a megoldások száma nagyobb, mint 1, akkor a vektorrendszer összefüggő). Másik lehetőség annak a tételnek az alkalmazása, hogy a megadott vektorok pontosan akkor lineárisan függetlenek, ha a belőlük mint oszlopvektorokból képzett mátrix determinánsa nem 0. Mivel
, ezért a válasz $c 6= 1/2$.
Az ötödik feladatban segít, ha tudjuk, hogy mit jelent az összefüggőség a lineáris függés nyelvén: a feltételek azt jelentik, hogy a vektorok egyike sem skalárszorosa a másiknak, de az egyik vektor a másik kettőnek a lineáris kombinációja.
A hatodik feladatban azt az állítást használjuk, hogy generátorrendszer kibővítve is generátorrendszer marad, de vigyáznunk kell, hogy az új vektorokat is az altérből vegyük.
A hetedik kérdés megválaszolásához az a tény segít, hogy minden generátorrendszerből kiválasztható bázis, az azonban lineárisan független. Így a háromelemű halmazból legalább egyet el kell távolítanunk, hogy bázist kaphassunk. Mivel az altérben van legalább három vektor, ezért az nem lehet 0 dimenziós.
A nyolcadik feladat gondolata ugyanez, de hozzá kell tennünk, hogy független rendszer elemszáma kisebb vagy egyenlő, mint az altér dimenziója.
A kilencedik feladathoz jó arra emlékezni, hogy ha egy U altér egy generátorrendszeréből kiválasztunk olyan vektorokat, amelyek egyrészt függetlenek, másrészt U adott generátorai már kifejezhetők velük (vagyis ez egy maximális független rendszer U adott generátorrendszerében), akkor ez a kiválasztott független rendszer bázis lesz U-ban.
A tizedik feladathoz tudni kell, hogy a rang a generált altér dimenziója. Ha tehát egy háromdimenziós altér ötelemű generátorrendszeréből eltávolítunk két vektort, akkor a maradék vektorrendszer által generált altér még mindig legalább egydimenziós (hiszen még egy háromelemű független rendszerből is maximum kettőt távolíthattunk el), de maradhatott is háromdimenziós (ha pl. a két „fölösleges” vektort dobtuk ki.)
Végezetül a 11. feladatban egy egydimenziós alterünk van, s ebben bármely nem nulla vektor egyúttal bázis is. Ha a tér dimenziója nagyobb lenne, akkor hivatkozva arra a tételre, mely szerint független rendszer kiegészíthető bázissá máris megváltozna a helyzet: ilyenkor bármely, a dimenziószámnál kisebb elemszámú vektorhalmaz végtelen sok módon egészíthető ki bázissá.
\end{tcolorbox}
\end{frame}
\begin{frame}[plain]
\begin{tcolorbox}[center, colback={myyellow}, coltext={black}, colframe={myyellow}]
{\RHuge (4) Bázis megadása, dimenzió}
@ -498,7 +554,7 @@ Végezetül a 11. feladatban egy egydimenziós alterünk van, s ebben bármely n
\mmedskip
Pl. $[1 0 0]T$, $[0 1 1]T$
Pl. $[1 0 0]^T$, $[0 1 1]^T$
\end{tcolorbox}
\end{frame}
@ -541,7 +597,7 @@ Végezetül a 11. feladatban egy egydimenziós alterünk van, s ebben bármely n
\begin{frame}
\begin{tcolorbox}[title={4/5. {\symqueen}}]
Hány dimenziós alteret alkotnak $\mathbb{R}^3x3$-ban azok az A mátrixok, amelyekre teljesül, hogy $AT = -A$?
Hány dimenziós alteret alkotnak $\mathbb{R}^3x_3$-ban azok az A mátrixok, amelyekre teljesül, hogy $A^T = -A$?
\tcblower
\mmedskip
@ -577,7 +633,7 @@ Végezetül a 11. feladatban egy egydimenziós alterünk van, s ebben bármely n
\begin{frame}
\begin{tcolorbox}[title={4/7. {\symqueen}}]
Az első feladatban föl kell írni az altér egy általános elemét és lineáris kombinációra bontani. A második feladat kapcsolódik a rang fogalmához is: a generált altér dimenziójának kiszámításához maximális független rendszert kell keresni a generátorok között (azaz olyat, amiből a többi generátor már kifejezhető). Az adott példában $\{b_1 + b_2,b_2\}$ ilyen. De bázist alkot ebben az altérben $\{b_1,b_2\}$ is, hiszen $b_1 = (b_1 + b_2) - b_2$ is eleme az altérnek. A harmadik feladatra (ez a 4. gyakorlat 7/g feladatának $y = 0$ speciális esete) gondolhatunk úgy, hogy egy homogén lineáris összefüggésünk van: az, hogy az elemek összege nulla, és ez eggyel csökkenti $\mathbb{R}^n$ dimenzióját. (Valójában egy homogén lineáris egyenletrendszer szabad változóit számoltuk meg. Bázist alkotnak azok a vektorok, melyekben az első $n-1$ komponens egyike 1, az utolsó komponens-1, a többi komponens pedig 0, de ezt megadni Q szintű feladat lenne az általános n miatt. Próbálkozhatunk a triviális bázis elemeinek „utánzásával”, de ellenőrizni kell a függetlenséget.) A negyedik feladat mutatja, mennyire gondosnak kell lennünk az előző feladat megoldási elvének alkalmazásakor. Ha ugyanis a komponensek közötti összefüggés nem lineáris, akkor egész más lehet az eredmény: itt csak a nullvektor van benne az altérben. Sőt, nem lináris összefüggéssel megadott vektorok általában nem is alkotnak alteret. Az ötödik feladat is hasonló jellegű, csak itt sokkal több homogén lineáris összefüggés van a komponensek között. Az ilyen mátrixokban a főátló minden eleme 0, a főátlóra szimmetrikus elemek pedig egymás ellentettjei. Ezért pl. a főátló fölötti elemeket szabad változónak tekintve a mátrix elemei már egyértelműen meg vannak határozva, ezért a dimenzió a szabadon választható mátrixelemek száma, azaz 3. (Itt is érdemes gyakorlásul egy bázist fölírni.) A hatodik feladatban azt kell tudni, hogy $\mathbb{R}^n$ egy valódi alterének dimenziója határozottan kisebb, mint $\mathbb{R}^n$-é. A hetedik feladat is hasonló jellegű, először azt kell észrevenni, hogy a $2x2$-es szimmetrikus mátrixok terének a dimenziója mindössze 1-gyel kisebb, mint a $\mathbb{R}^{2 x 2}$ téré, így a szimmetrikus mátrixok altere és az egész tér között nincs más altér.
Az első feladatban föl kell írni az altér egy általános elemét és lineáris kombinációra bontani. A második feladat kapcsolódik a rang fogalmához is: a generált altér dimenziójának kiszámításához maximális független rendszert kell keresni a generátorok között (azaz olyat, amiből a többi generátor már kifejezhető). Az adott példában $\{b_1 + b_2,b_2\}$ ilyen. De bázist alkot ebben az altérben $\{b_1,b_2\}$ is, hiszen $b_1 = (b_1 + b_2) - b_2$ is eleme az altérnek. A harmadik feladatra (ez a 4. gyakorlat 7/g feladatának $y = 0$ speciális esete) gondolhatunk úgy, hogy egy homogén lineáris összefüggésünk van: az, hogy az elemek összege nulla, és ez eggyel csökkenti $\mathbb{R}^n$ dimenzióját. (Valójában egy homogén lineáris egyenletrendszer szabad változóit számoltuk meg. Bázist alkotnak azok a vektorok, melyekben az első $n-1$ komponens egyike 1, az utolsó komponens-1, a többi komponens pedig 0, de ezt megadni Q szintű feladat lenne az általános n miatt. Próbálkozhatunk a triviális bázis elemeinek „utánzásával”, de ellenőrizni kell a függetlenséget.) A negyedik feladat mutatja, mennyire gondosnak kell lennünk az előző feladat megoldási elvének alkalmazásakor. Ha ugyanis a komponensek közötti összefüggés nem lineáris, akkor egész más lehet az eredmény: itt csak a nullvektor van benne az altérben. Sőt, nem lináris összefüggéssel megadott vektorok általában nem is alkotnak alteret. Az ötödik feladat is hasonló jellegű, csak itt sokkal több homogén lineáris összefüggés van a komponensek között. Az ilyen mátrixokban a főátló minden eleme 0, a főátlóra szimmetrikus elemek pedig egymás ellentettjei. Ezért pl. a főátló fölötti elemeket szabad változónak tekintve a mátrix elemei már egyértelműen meg vannak határozva, ezért a dimenzió a szabadon választható mátrixelemek száma, azaz 3. (Itt is érdemes gyakorlásul egy bázist fölírni.) A hatodik feladatban azt kell tudni, hogy $\mathbb{R}^n$ egy valódi alterének dimenziója határozottan kisebb, mint $\mathbb{R}^n$-é. A hetedik feladat is hasonló jellegű, először azt kell észrevenni, hogy a $2x_2$-es szimmetrikus mátrixok terének a dimenziója mindössze 1-gyel kisebb, mint a $\mathbb{R}^{2 x 2}$ téré, így a szimmetrikus mátrixok altere és az egész tér között nincs más altér.
\end{tcolorbox}
\end{frame}
@ -649,7 +705,7 @@ Lineáris egyenletrendszerek megoldásszámára egy nagyon fontos összefüggés
\begin{frame}
\begin{tcolorbox}[title={6/1. {\symknight}}]
Legyen $A \in Rkxl$, $B \in Rpxr$ és $C \in Rtxu$. Adjunk szükséges és elégséges feltételt arra, hogy értelmes legyen az $ABT + C$ mátrixkifejezés.
Legyen $A \in Rkxl$, $B \in Rpxr$ és $C \in Rtxu$. Adjunk szükséges és elégséges feltételt arra, hogy értelmes legyen az $AB^T + C$ mátrixkifejezés.
\tcblower
\mmedskip
@ -661,7 +717,7 @@ Lineáris egyenletrendszerek megoldásszámára egy nagyon fontos összefüggés
\begin{frame}
\begin{tcolorbox}[title={6/2. {\symknight}}]
Legyen A =. Adjunk meg egy olyan $2x2$-es, egész elemű, a nullmátrixtól különböző $B$ mátrixot, amelyre igaz, hogy $AB = 0$.
Legyen A =. Adjunk meg egy olyan $2x_2$-es, egész elemű, a nullmátrixtól különböző $B$ mátrixot, amelyre igaz, hogy $AB = 0$.
\tcblower
@ -674,7 +730,7 @@ Lineáris egyenletrendszerek megoldásszámára egy nagyon fontos összefüggés
\begin{frame}
\begin{tcolorbox}[title={6/3. {\symknight}}]
Legyen $A = .$ Mely $c \in R$ számokra van olyan $2x2$-es, valós elemű, a nullmátrixtól különböző $B$ mátrix, amelyre igaz, hogy $AB = 0$?
Legyen $A = .$ Mely $c \in R$ számokra van olyan $2x_2$-es, valós elemű, a nullmátrixtól különböző $B$ mátrix, amelyre igaz, hogy $AB = 0$?
\tcblower
\mmedskip
@ -686,7 +742,7 @@ Lineáris egyenletrendszerek megoldásszámára egy nagyon fontos összefüggés
\begin{frame}
\begin{tcolorbox}[title={6/4. {\symknight}}]
Adjunk meg egy olyan $2x2$-es egész elemű, a nullmátrixtól különböző A mátrixot, amelyre igaz, hogy van olyan 0 6= $B \in \mathbb{R}^{2 x 2}$, melyre $AB = 0$.
Adjunk meg egy olyan $2x2$-es egész elemű, a nullmátrixtól különböző A mátrixot, amelyre igaz, hogy van olyan $0 \neq B \in \mathbb{R}^{2 x 2}$, melyre $AB = 0$.
\tcblower
\mmedskip
@ -715,7 +771,7 @@ Lineáris egyenletrendszerek megoldásszámára egy nagyon fontos összefüggés
\mmedskip
Pl.: $[1 0 0]T$
Pl.: $[1 0 0]^T$
\end{tcolorbox}
\end{frame}
@ -748,7 +804,7 @@ Lineáris egyenletrendszerek megoldásszámára egy nagyon fontos összefüggés
\begin{frame}
\begin{tcolorbox}[title={6/8. {\symqueen}}]
Az első feladat arra kérdez rá, hogy mikor végezhető el a mátrixok összeadása, szorzása, illetve mik a transzponált mátrix méretei. Két mátrix szorzatának oszlopaiban a bal oldali mátrix oszlopainak lineáris kombinációi állnak. Ezért az $AB = 0$ akkor tud teljesülni nem nulla B mátrixszal, ha A oszlopai lineárisan öszefüggenek. Speciálisan ha A négyzetes mátrix, akkor ez azzal ekvivalens, hogy A determinánsa nulla. Ezzel a tétellel könnyű megválaszolni a harmadik feladatot, illetve keresni megfelelő mátrixot a negyedik feladatban. Kétszer kettes mátrix esetében érdemes megjegyezni az inverz képletét: inverz akkor létezik, ha a mátrix d determinánsa nem nulla, és ekkor az inverz mátrixot úgy kapjuk, hogy az eredeti mátrixban a főátló két elemét kicseréljük, a mellékátló elemeit ellentettjükre változtatjuk, végül a mátrix minden elemét elosztjuk d-vel (így kaptuk az ötödik feladat eredményét). Nem feltétlenül négyzetes mátrixra is érvényes, hogy pontosan akkor van jobb oldali inverze, ha rangja megegyezik a sorainak a számával, azaz ha a sorai lineárisan függetlenek. Erre a tételre a hatodik és a hetedik feladat megoldásában nincs szükség, mert azok megoldása közvetlen számolás (a hetedik feladatban az egyetlen megfelelő vektor $[1/3 1/3 1/3]T$). A nyolcadik feladatban viszont ezt a tételt alkalmazzuk. Az (A) rész két sora nyilván összefügg, a (C) esetében ez azért igaz, mert $\mathbb{R}^2$ dimenziója 2, és így bármely három vektor összefüggő. A (B)-ben például az a = d = 1 és $b = c = 0$ két független vektort ad, a (D) esetben meg a három sor független lesz ha a $6= 9$, hiszen ekkor a determináns értéke nem nulla.
Az első feladat arra kérdez rá, hogy mikor végezhető el a mátrixok összeadása, szorzása, illetve mik a transzponált mátrix méretei. Két mátrix szorzatának oszlopaiban a bal oldali mátrix oszlopainak lineáris kombinációi állnak. Ezért az $AB = 0$ akkor tud teljesülni nem nulla B mátrixszal, ha A oszlopai lineárisan öszefüggenek. Speciálisan ha A négyzetes mátrix, akkor ez azzal ekvivalens, hogy A determinánsa nulla. Ezzel a tétellel könnyű megválaszolni a harmadik feladatot, illetve keresni megfelelő mátrixot a negyedik feladatban. Kétszer kettes mátrix esetében érdemes megjegyezni az inverz képletét: inverz akkor létezik, ha a mátrix d determinánsa nem nulla, és ekkor az inverz mátrixot úgy kapjuk, hogy az eredeti mátrixban a főátló két elemét kicseréljük, a mellékátló elemeit ellentettjükre változtatjuk, végül a mátrix minden elemét elosztjuk d-vel (így kaptuk az ötödik feladat eredményét). Nem feltétlenül négyzetes mátrixra is érvényes, hogy pontosan akkor van jobb oldali inverze, ha rangja megegyezik a sorainak a számával, azaz ha a sorai lineárisan függetlenek. Erre a tételre a hatodik és a hetedik feladat megoldásában nincs szükség, mert azok megoldása közvetlen számolás (a hetedik feladatban az egyetlen megfelelő vektor $[1/3 1/3 1/3]^T$). A nyolcadik feladatban viszont ezt a tételt alkalmazzuk. Az (A) rész két sora nyilván összefügg, a (C) esetében ez azért igaz, mert $\mathbb{R}^2$ dimenziója 2, és így bármely három vektor összefüggő. A (B)-ben például az a = d = 1 és $b = c = 0$ két független vektort ad, a (D) esetben meg a három sor független lesz ha a $\neq 9$, hiszen ekkor a determináns értéke nem nulla.
\end{tcolorbox}
\end{frame}
@ -810,7 +866,7 @@ Az első feladat arra kérdez rá, hogy mikor végezhető el a mátrixok összea
\begin{frame}
\begin{tcolorbox}[title={7/5. {\symknight}}]
Legyenek $A,B,C \in \mathbb{R}^3x3$ olyan valós mátrixok, melyekre $detA = 2, detB = 3$ és $detC = 4$. Mennyi lesz $2A2C-1B$ determinánsa?
Legyenek $A,B,C \in \mathbb{R}^3x_3$ olyan valós mátrixok, melyekre $detA = 2, detB = 3$ és $detC = 4$. Mennyi lesz $2A2C-1B$ determinánsa?
\tcblower
\mmedskip
@ -851,7 +907,7 @@ tegyük föl, hogy detA = 5. Mennyi lesz detB?
\begin{frame}
\begin{tcolorbox}[title={8/1. {\symknight}}]
Mik az A = $\mathbb{R}^3x3$ mátrix sajátértékei?
Mik az A = $\mathbb{R}^3x_3$ mátrix sajátértékei?
\tcblower
@ -877,7 +933,7 @@ tegyük föl, hogy detA = 5. Mennyi lesz detB?
\begin{frame}
\begin{tcolorbox}[title={8/3. {\symrook}}]
Írjunk föl egy olyan nem diagonalizálható mátrixot, melynek karakterisztikus polinomja ${\lambda}2$.
Írjunk föl egy olyan nem diagonalizálható mátrixot, melynek karakterisztikus polinomja ${\lambda}_2$.
\tcblower
@ -930,7 +986,7 @@ tegyük föl, hogy detA = 5. Mennyi lesz detB?
\begin{frame}
\begin{tcolorbox}[title={8/6. {\symqueen}}]
Egy mátrix valós sajátértékeit a karakterisztikus polinom valós gyökei adják: a főátló minden eleméből levonunk ${\lambda}$-t és kiszámítjuk a determinánst. Felső háromszögmátrix, speciálisan diagonális mátrix esetén a sajátértékek a főátlóból leolvashatók. A sajátvektorokat minden egyes sajátértékhez egy-egy lineáris egyenletrendszer megoldásával kaphatjuk meg. A diagonalizálhatóság feltétele az, hogy legyen „elegendő” sajátvektor, azaz a tér dimenziószámával megegyező mennyiségű lineárisan független sajátvektor. A harmadik feladat mátrixa esetében ez nem teljesül, mert a sajátvektorokr 0T alakúak, ahol r $6= 0$ (azaz a 0-hoz tartozó sajátaltér egydimenziós). Gyakran használt elégséges feltétel, hogy egy nxn-es mátrix diagonalizálható $\mathbb{R}$ fölött, ha n különböző valós sajátértéke van. A negyedik feladat mátrixának karakterisztikus polinomja ${\lambda}2$-c. Ennek c > 0-ra két különböző valós gyöke van, tehát ilyenkor a mátrix diagonalizálható; $c < 0$-ra nincs valós gyök, ezért $\mathbb{R}$ fölött nem diagonalizálhatjuk a mátrixot; végül c = 0-ra a megoldást a harmadik feladat adja. Hasonló érvelés adható az ötödik feladatnál is. A hatodik feladat feltétele azt mutatja, hogy a -1 sajátértéke a mátrixnak, ha tehát -1-et levonunk a főátló minden eleméből, épp az $A-(-1)I2$ mátrixot kapjuk, aminek a determinánsa 0, hiszen -1 gyöke a karakterisztikus polinomnak.
Egy mátrix valós sajátértékeit a karakterisztikus polinom valós gyökei adják: a főátló minden eleméből levonunk ${\lambda}$-t és kiszámítjuk a determinánst. Felső háromszögmátrix, speciálisan diagonális mátrix esetén a sajátértékek a főátlóból leolvashatók. A sajátvektorokat minden egyes sajátértékhez egy-egy lineáris egyenletrendszer megoldásával kaphatjuk meg. A diagonalizálhatóság feltétele az, hogy legyen „elegendő” sajátvektor, azaz a tér dimenziószámával megegyező mennyiségű lineárisan független sajátvektor. A harmadik feladat mátrixa esetében ez nem teljesül, mert a sajátvektorokr 0T alakúak, ahol r $\neq 0$ (azaz a 0-hoz tartozó sajátaltér egydimenziós). Gyakran használt elégséges feltétel, hogy egy nxn-es mátrix diagonalizálható $\mathbb{R}$ fölött, ha n különböző valós sajátértéke van. A negyedik feladat mátrixának karakterisztikus polinomja ${\lambda}_2$-c. Ennek c > 0-ra két különböző valós gyöke van, tehát ilyenkor a mátrix diagonalizálható; $c < 0$-ra nincs valós gyök, ezért $\mathbb{R}$ fölött nem diagonalizálhatjuk a mátrixot; végül c = 0-ra a megoldást a harmadik feladat adja. Hasonló érvelés adható az ötödik feladatnál is. A hatodik feladat feltétele azt mutatja, hogy a -1 sajátértéke a mátrixnak, ha tehát -1-et levonunk a főátló minden eleméből, épp az $A-(-1)I2$ mátrixot kapjuk, aminek a determinánsa 0, hiszen -1 gyöke a karakterisztikus polinomnak.
\end{tcolorbox}
\end{frame}
@ -998,7 +1054,7 @@ tegyük föl, hogy detA = 5. Mennyi lesz detB?
\begin{frame}
\begin{tcolorbox}[title={9/4. {\symrook}}]
Minden lineáris transzformációhoz rögzített bázis esetén egyértelműen tartozik egy négyzetes mátrix. Ezt úgy írhatjuk föl, hogy a bázisvektorokat leképezzük a lineáris transzformációval, e képvektorokat felírjuk a megadott bázisban, és az így kapott koordinátavektorokat írjuk a mátrix oszlopaiba. Ha változtatunk a bázison, akkor változhat a mátrix is; ez kiszámítható a bázistranszformáció képletéből $(A' = S-1AS)$. Az ötödik feladatban a képletre nincs szükség: az első bázisvektor, $b_1$ kétszeresének a képe szintén önmaga, azaz $2b_1$, s így az új mátrix első oszlopában az első koordináta $1$, a többi meg $0$. Ugyanakkor a $b_2$ és $b_3$ képében fele annyit kell „vennünk” $2b_1$-ből, mint $b_1$-ből, tehát az első sor második és harmadik eleme a felére csökken. Egy lináris transzformáció sajátértékeit kiszámolhatjuk úgy, hogy felírjuk a mátrixát egy alkalmas bázisban, és ennek vesszük a sajátértékeit. Ez a negyedik (kétlépcsős) feladat: a mátrix a triviális bázisban $2 1 0 3$ . Néha lehetséges közvetlenül a definíció segítségével is boldogulni: a harmadik feladatban minden vektor az ellentettjébe megy, ezért az egyetlen sajátérték a $-1$. A hatodik és a hetedik feladatban felírhatjuk, hogy ${\varphi}({\lambda}e1 + {\mu}e2) = {\mu}(e1 + e2)$. Ez akkor nulla, azaz ${\lambda}e1 + {\mu}e2$ akkor van a magtérben, ha ${\mu} = 0$. A képtér elemei pedig $e1 + e2$ többszörösei. A nyolcadik feladatban azt is lehet használni, hogy $[{\varphi}(v)]B = [{\varphi}]B[v]B$. Az $M[x y z]T = 0$ egyenlet megoldása: $x$ és $y$ tetszőleges, $z = 0$. A magtér tehát kétdimenziós. Megoldható a feladat a dimenzióösszefüggés segítségével is, amely szerint a magtér dimenziója a mátrix oszlopainak száma mínusz a mátrix rangja. Harmadik megoldásként láthatjuk, hogy két bázisvektor a nullába megy, ezért a magtér legalább kétdimenziós, de háromdimenziós nem lehet, mert a mátrix nem nulla.
Minden lineáris transzformációhoz rögzített bázis esetén egyértelműen tartozik egy négyzetes mátrix. Ezt úgy írhatjuk föl, hogy a bázisvektorokat leképezzük a lineáris transzformációval, e képvektorokat felírjuk a megadott bázisban, és az így kapott koordinátavektorokat írjuk a mátrix oszlopaiba. Ha változtatunk a bázison, akkor változhat a mátrix is; ez kiszámítható a bázistranszformáció képletéből $(A' = S-1AS)$. Az ötödik feladatban a képletre nincs szükség: az első bázisvektor, $b_1$ kétszeresének a képe szintén önmaga, azaz $2b_1$, s így az új mátrix első oszlopában az első koordináta $1$, a többi meg $0$. Ugyanakkor a $b_2$ és $b_3$ képében fele annyit kell „vennünk” $2b_1$-ből, mint $b_1$-ből, tehát az első sor második és harmadik eleme a felére csökken. Egy lináris transzformáció sajátértékeit kiszámolhatjuk úgy, hogy felírjuk a mátrixát egy alkalmas bázisban, és ennek vesszük a sajátértékeit. Ez a negyedik (kétlépcsős) feladat: a mátrix a triviális bázisban $2 1 0 3$ . Néha lehetséges közvetlenül a definíció segítségével is boldogulni: a harmadik feladatban minden vektor az ellentettjébe megy, ezért az egyetlen sajátérték a $-1$. A hatodik és a hetedik feladatban felírhatjuk, hogy ${\varphi}({\lambda}e1 + {\mu}e2) = {\mu}(e1 + e2)$. Ez akkor nulla, azaz ${\lambda}e1 + {\mu}e2$ akkor van a magtérben, ha ${\mu} = 0$. A képtér elemei pedig $e1 + e2$ többszörösei. A nyolcadik feladatban azt is lehet használni, hogy $[{\varphi}(v)]B = [{\varphi}]B[v]B$. Az $M[x y z]^T = 0$ egyenlet megoldása: $x$ és $y$ tetszőleges, $z = 0$. A magtér tehát kétdimenziós. Megoldható a feladat a dimenzióösszefüggés segítségével is, amely szerint a magtér dimenziója a mátrix oszlopainak száma mínusz a mátrix rangja. Harmadik megoldásként láthatjuk, hogy két bázisvektor a nullába megy, ezért a magtér legalább kétdimenziós, de háromdimenziós nem lehet, mert a mátrix nem nulla.
\end{tcolorbox}
\end{frame}
@ -1013,7 +1069,7 @@ tegyük föl, hogy detA = 5. Mennyi lesz detB?
\begin{frame}
\begin{tcolorbox}[title={10/1. {\symknight}}]
Mennyi az$[1 1 1 1]T$ és az $[1 -1 -1 -1]T$ vektorok szöge $\mathbb{R}^4$-ben, a szokásos ha, $bi = aTb$ skaláris szorzatra nézve?
Mennyi az$[1 1 1 1]^T$ és az $[1 -1 -1 -1]^T$ vektorok szöge $\mathbb{R}^4$-ben, a szokásos ha, $bi = aTb$ skaláris szorzatra nézve?
\tcblower
@ -1027,7 +1083,7 @@ tegyük föl, hogy detA = 5. Mennyi lesz detB?
\begin{frame}
\begin{tcolorbox}[title={10/2. {\symrook}}]
Az $[1 1 + i i]T \in C3$ vektor ha, $bi = b*a$ mellett merőleges az $[1 1 + i c]T$ vektorra. Határozzuk meg $ \in C$ értékét.
Az $[1 1 + i i]^T \in C3$ vektor ha, $bi = b*a$ mellett merőleges az $[1 1 + i c]^T$ vektorra. Határozzuk meg $ \in C$ értékét.
\tcblower
@ -1041,13 +1097,13 @@ tegyük föl, hogy detA = 5. Mennyi lesz detB?
\begin{frame}
\begin{tcolorbox}[title={10/3. {\symrook}}]
Álljon $W az \mathbb{R}^3$ azon vektoraiból, amelyek merőlegesek $a[0 1 1]T$ és $[1 1 0]T$ vektorok mindegyikére. Adjunk meg egy bázist $W$-ben.
Álljon $W az \mathbb{R}^3$ azon vektoraiból, amelyek merőlegesek $a[0 1 1]^T$ és $[1 1 0]^T$ vektorok mindegyikére. Adjunk meg egy bázist $W$-ben.
\tcblower
\mmedskip
$\{[1 -1 1]T\}$
$\{[1 -1 1]^T\}$
\end{tcolorbox}
\end{frame}
@ -1067,7 +1123,7 @@ tegyük föl, hogy detA = 5. Mennyi lesz detB?
\begin{frame}
\begin{tcolorbox}[title={10/4. {\symqueen}}]
A szokásos skaláris szorzatot $\mathbb{R}^n$-ben az ha, $bi = aTb$ összefüggés adja meg; két vektor merőlegessége azt jelenti, hogy a skaláris szorzatuk nulla. $\mathbb{R}^n$-ben a vektorok szögét a $cos{\gamma} =$ ha,$bi kak \cdot kbk$ összefüggéssel definiáljuk, erről szól az első feladat. (A megoldáshoz érdemes átismételni a szögfüggvények értékét a nevezetes szögeken.) A második feladat esetében a skaláris szorzat kiszámításánál vigyázzunk arra, hogy a második tényező komponenseit meg kell konjugálni. A harmadik feladatnál lineáris egyenletrendszert kapunk W elemeinek komponenseire. A negyedik feladat esetében arra kell ráismerni, hogy a feladatbeli egyenlet az u = [3 4]T és a $v = [a b]T$ vektorokra írja föl az $|hu,vi| = kuk \cdot kvk$ összefüggést, ami a Cauchy-egyenlőtlenség alapján akkor és csak akkor teljesülhet, ha $u$ és $v$ párhuzamosak.
A szokásos skaláris szorzatot $\mathbb{R}^n$-ben az ha, $bi = aTb$ összefüggés adja meg; két vektor merőlegessége azt jelenti, hogy a skaláris szorzatuk nulla. $\mathbb{R}^n$-ben a vektorok szögét a $cos{\gamma} =$ ha,$bi kak \cdot kbk$ összefüggéssel definiáljuk, erről szól az első feladat. (A megoldáshoz érdemes átismételni a szögfüggvények értékét a nevezetes szögeken.) A második feladat esetében a skaláris szorzat kiszámításánál vigyázzunk arra, hogy a második tényező komponenseit meg kell konjugálni. A harmadik feladatnál lineáris egyenletrendszert kapunk W elemeinek komponenseire. A negyedik feladat esetében arra kell ráismerni, hogy a feladatbeli egyenlet az $u = [3 4]^T$ és a $v = [a b]^T$ vektorokra írja föl az $|hu,vi| = kuk \cdot kvk$ összefüggést, ami a Cauchy-egyenlőtlenség alapján akkor és csak akkor teljesülhet, ha $u$ és $v$ párhuzamosak.
\end{tcolorbox}
\end{frame}
@ -1081,13 +1137,13 @@ tegyük föl, hogy detA = 5. Mennyi lesz detB?
\begin{frame}
\begin{tcolorbox}[title={11/1. {\symknight}}]
Ha [a]i,j,k = [0 1 1]T és a [b]i,j,k = [1 1 0]T, akkor számítsuk ki az a és b vektorok vektoriális szorzatát (koordinátákkal).
Ha $[a]i,j,k = [0 1 1]^T$ és a $[b]i,j,k = [1 1 0]^T$, akkor számítsuk ki az $a$ és $b$ vektorok vektoriális szorzatát (koordinátákkal).
\tcblower
\mmedskip
[-1 1 -1]T
$[-1 1 -1]^T$
\end{tcolorbox}
\end{frame}
@ -1108,7 +1164,7 @@ tegyük föl, hogy detA = 5. Mennyi lesz detB?
\begin{frame}
\begin{tcolorbox}[title={12/1. {\symknight}}]
Számítsuk ki az 1 2 2 1 mátrix által meghatározott kvadratikus alak értékét az[1 2]T vektoron.
Számítsuk ki az 1 2 2 1 mátrix által meghatározott kvadratikus alak értékét az $[1 2]^T$ vektoron.
\tcblower
@ -1162,7 +1218,7 @@ tegyük föl, hogy detA = 5. Mennyi lesz detB?
\begin{frame}
\begin{tcolorbox}[title={12/4. {\symknight}}]
Egy szimmetrikus, valós A mátrixhoz tartozó kvadratikus alak $Q(u) = uTAu$. Abban az esetben ha $A = a b b d$ és $u = [x y]T$, akkor $Q(u) = ax2 + 2bxy + dy2$. A második feladatban tehátolyan $x$ és $y$ számokat kell keresnünk, amelyekre $x2 + 4xy + y2$ negatív. Ha észrevesszük, hogy $x2 + 4xy + y2 = x2 + 4xy + 4y2 -3y2 = (x + 2y)2 -3y2$, akkor már könnyen találunk ilyen értékeket (de az alábbiak szerint a mátrix egyik sajátvektora is megfelelő). A kvadratikus alak jellege (karaktere, definitsége) azt mondja meg, milyen valós értékeket vesz föl a nem nulla vektorokon. Ezt a tulajdonságot le tudjuk olvasni a mátrix sajátértékeiből (amik szimmetrikus mátrix esetén mindig valósak), pontosabban azok előjeléből: $Q(u), u 6= 0$ sajátértékek előjele: jelleg: mindig pozitív mind pozitív pozitív definit mindig negatív mind negatív negatív definit mindig nemnegatív mind nemnegatív pozitív szemidefinit mindig nempozitív mind nempozitív negatív szemidefinit van pozitív is, negatív is van pozitív is, negatív is indefinit Ha $u = ei$ (a triviális bázis i-edik vektora), akkor $Q(u)$ az A mátrix főátlójának i-edik eleme. A harmadik feladatban a második és a harmadik diagonális elem pozitív, illetve negatív, s így kvadratikus alak pozitív és negatív értékeket is fölvesz, tehát biztosan indefinit. Bizonyos esetekben a következő kritérium segítségével is leolvasható a kvadratikus alak jellege. Legyen ${\Delta}0 = 1$ és ${\Delta}k$ a mátrix bal fölső sarkában lévő $k xk$-as részmátrix determinánsa (ez az ún. karakterisztikus sorozat). Pl. a karakterisztikus sorozat pontosan akkor áll csupa pozitív értékből, ha a kvadratikus alakunk pozitív definit. A negyedik feladatnál ezt a feltételt használjuk: az 1x1-es részmátrixhoz tartozó tag pozitív, s a pozitív definitség azzal lesz ekvivalens, hogy a determináns, $c-c2 = c(1-c)$ is pozitív. Ez csak a jelzett intervallumban valósulhat meg.
Egy szimmetrikus, valós A mátrixhoz tartozó kvadratikus alak $Q(u) = uTAu$. Abban az esetben ha $A = a b b d$ és $u = [x y]^T$, akkor $Q(u) = ax_2 + 2bxy + dy2$. A második feladatban tehátolyan $x$ és $y$ számokat kell keresnünk, amelyekre $x_2 + 4xy + y2$ negatív. Ha észrevesszük, hogy $x_2 + 4xy + y2 = x_2 + 4xy + 4y2 -3y2 = (x + 2y)2 -3y2$, akkor már könnyen találunk ilyen értékeket (de az alábbiak szerint a mátrix egyik sajátvektora is megfelelő). A kvadratikus alak jellege (karaktere, definitsége) azt mondja meg, milyen valós értékeket vesz föl a nem nulla vektorokon. Ezt a tulajdonságot le tudjuk olvasni a mátrix sajátértékeiből (amik szimmetrikus mátrix esetén mindig valósak), pontosabban azok előjeléből: $Q(u), u \neq 0$ sajátértékek előjele: jelleg: mindig pozitív mind pozitív pozitív definit mindig negatív mind negatív negatív definit mindig nemnegatív mind nemnegatív pozitív szemidefinit mindig nempozitív mind nempozitív negatív szemidefinit van pozitív is, negatív is van pozitív is, negatív is indefinit Ha $u = ei$ (a triviális bázis i-edik vektora), akkor $Q(u)$ az A mátrix főátlójának i-edik eleme. A harmadik feladatban a második és a harmadik diagonális elem pozitív, illetve negatív, s így kvadratikus alak pozitív és negatív értékeket is fölvesz, tehát biztosan indefinit. Bizonyos esetekben a következő kritérium segítségével is leolvasható a kvadratikus alak jellege. Legyen ${\Delta}0 = 1$ és ${\Delta}k$ a mátrix bal fölső sarkában lévő $k xk$-as részmátrix determinánsa (ez az ún. karakterisztikus sorozat). Pl. a karakterisztikus sorozat pontosan akkor áll csupa pozitív értékből, ha a kvadratikus alakunk pozitív definit. A negyedik feladatnál ezt a feltételt használjuk: az 1x1-es részmátrixhoz tartozó tag pozitív, s a pozitív definitség azzal lesz ekvivalens, hogy a determináns, $c-c2 = c(1-c)$ is pozitív. Ez csak a jelzett intervallumban valósulhat meg.
\end{tcolorbox}
\end{frame}
@ -1193,21 +1249,21 @@ $W {\subseteq} \mathbb{R}^n altér \mathbb{R}^n-ben$, ha: 1) $W$ nem üres; 2) $
\begin{frame}
\begin{tcolorbox}[title={2}]
Definiáljuk, mit jelent az, hogy a $v1,...,vk \in \mathbb{R}^n$ vektorrendszer lineárisan független.
Definiáljuk, mit jelent az, hogy a $v_1,...,vk \in \mathbb{R}^n$ vektorrendszer lineárisan független.
\tcblower
A $v1,...,vk$ vektorrendszer akkor és csak akkor lineárisan független, ha csak a triviális lineáris kombinációja adja a nullvektort. Képletben: tetszőleges ${\lambda}1,{\lambda}2,...,{\lambda}k \in \mathbb{R}$ esetén, ha ${\lambda}1v1 + {\lambda}2v2 + \cdot \cdot \cdot + {\lambda}kvk = 0$, akkor minden $i$-re ${\lambda}i = 0$.
A $v_1,...,vk$ vektorrendszer akkor és csak akkor lineárisan független, ha csak a triviális lineáris kombinációja adja a nullvektort. Képletben: tetszőleges ${\lambda}_1,{\lambda}_2,...,{\lambda}_k \in \mathbb{R}$ esetén, ha ${\lambda}_1v_1 + {\lambda}_2v_2 + \cdot \cdot \cdot + {\lambda}_kvk = 0$, akkor minden $i$-re ${\lambda}_i = 0$.
\end{tcolorbox}
\end{frame}
\begin{frame}
\begin{tcolorbox}[title={3}]
Mit jelent az, hogy a $v1,...,vk \in \mathbb{R}^n$ vektorrendszer lineárisan összefüggő? A válaszban ne hivatkozzunk a lineáris függetlenség fogalmára.
Mit jelent az, hogy a $v_1,...,vk \in \mathbb{R}^n$ vektorrendszer lineárisan összefüggő? A válaszban ne hivatkozzunk a lineáris függetlenség fogalmára.
\tcblower
A $v1,...,vk$ vektorrendszer akkor és csak akkor lineárisan összefüggő (azaz nem lineárisan független), ha léteznek olyan ${\lambda}1,{\lambda}2,...,{\lambda}k \in \mathbb{R}$ nem mind nulla számok, melyekre ${\lambda}1v1 + {\lambda}2v2 + \cdot \cdot \cdot + {\lambda}kvk = 0$.)
A $v_1,...,vk$ vektorrendszer akkor és csak akkor lineárisan összefüggő (azaz nem lineárisan független), ha léteznek olyan ${\lambda}_1,{\lambda}_2,...,{\lambda}_k \in \mathbb{R}$ nem mind nulla számok, melyekre ${\lambda}_1v_1 + {\lambda}_2v_2 + \cdot \cdot \cdot + {\lambda}_kvk = 0$.)
\end{tcolorbox}
\end{frame}
@ -1217,7 +1273,7 @@ A $v1,...,vk$ vektorrendszer akkor és csak akkor lineárisan összefüggő (aza
Mit jelent az, hogy egy v vektor lineárisan függ az $a_1,...,ak \in \mathbb{R}^n$ vektoroktól?
\tcblower
Azt jelenti, hogy v felírható $a_1,...,ak$ lineáris kombinációjaként, azaz léteznek olyan ${\lambda}1,{\lambda}2,...,{\lambda}k \in \mathbb{R}$ skalárok, melyekre $v = {\lambda}1a_1 + {\lambda}2a_2 + \cdot \cdot \cdot + {\lambda}kak$.
Azt jelenti, hogy v felírható $a_1,...,ak$ lineáris kombinációjaként, azaz léteznek olyan ${\lambda}_1,{\lambda}_2,...,{\lambda}_k \in \mathbb{R}$ skalárok, melyekre $v = {\lambda}_1a_1 + {\lambda}_2a_2 + \cdot \cdot \cdot + {\lambda}_kak$.
\end{tcolorbox}
\end{frame}
@ -1251,8 +1307,8 @@ Egy $b_1,...,bk$ vektorrendszert akkor mondunk a $V \leq \mathbb{R}^n$ altér b
\tcblower
Az a vektor koordinátavektora pontosan akkor $[a]b_1,...,bk =$
${\lambda}1 . . . {\lambda}k$
, ha $a = {\lambda}1b_1+ \cdot \cdot \cdot +{\lambda}kbk$.
${\lambda}_1 . . . {\lambda}_k$
, ha $a = {\lambda}_1b_1+ \cdot \cdot \cdot +{\lambda}_kbk$.
\end{tcolorbox}
\end{frame}
@ -1297,11 +1353,11 @@ $dimV$ a $V$ egy bázisának elemszáma, illetve 0, ha $V = \{0\}$. (Ez a defin
\begin{frame}
\begin{tcolorbox}[title={11}]
Definiáljuk egy $v1,...,vk \in \mathbb{R}^n$ vektorrendszer rangját, $r(v1,...,vk)$-t.
Definiáljuk egy $v_1,...,vk \in \mathbb{R}^n$ vektorrendszer rangját, $r(v_1,...,vk)$-t.
\tcblower
$r(v1,...,vk) = dimSpan(v1,...,vk)$, azaz egy vektorrendszer rangja megegyezik az általa generált (kifeszített) altér dimenziójával.
$r(v_1,...,vk) = dimSpan(v_1,...,vk)$, azaz egy vektorrendszer rangja megegyezik az általa generált (kifeszített) altér dimenziójával.
\end{tcolorbox}
\end{frame}
@ -1325,7 +1381,7 @@ Ha $1 \leq i \leq k és 1 \leq j \leq n, akkor i[AB]j =$
Mondjunk ki két, a mátrixok transzponálását a többi szokásos mátrixművelettel összekapcsoló összefüggést.
\tcblower
$A,B \in \mathbb{R}^{k x n} {\Rightarrow} (A + B)T = AT + BT {\lambda} \in R,A \in \mathbb{R}^{k x n} {\Rightarrow} ({\lambda}A)T = {\lambda}AT A \in Rkxl, B \in Rlxn {\Rightarrow} (AB)T = BTAT$
$A,B \in \mathbb{R}^{k x n} {\Rightarrow} (A + B)T = A^T + B^T {\lambda} \in R,A \in \mathbb{R}^{k x n} {\Rightarrow} ({\lambda}A)T = {\lambda}A^T A \in Rkxl, B \in Rlxn {\Rightarrow} (AB)T = B^TA^T$
\end{tcolorbox}
\end{frame}
@ -1337,7 +1393,7 @@ $A,B \in \mathbb{R}^{k x n} {\Rightarrow} (A + B)T = AT + BT {\lambda} \in R,A \
Definiáljuk egy $A \in \mathbb{R}^{k x n}$ mátrix oszloprangját, illetve sorrangját, ${\varrho}O(A)-t és {\varrho}S(A)$-t.
\tcblower
Ha $a_1,...,an \in Rk$ a mátrix oszlopai, akkor ${\varrho}O(A) = r(a_1,...,ak)$, azaz az oszloprang az oszlopok rendszerének rangja (vagyis az oszlopok által generált altér dimenziója.) Analóg módon, a mátrix sorrangja a sorok által generált altér dimenziója, vagy másképpen: ${\varrho}S(A) = {\varrho}O(AT)$.
Ha $a_1,...,an \in Rk$ a mátrix oszlopai, akkor ${\varrho}O(A) = r(a_1,...,ak)$, azaz az oszloprang az oszlopok rendszerének rangja (vagyis az oszlopok által generált altér dimenziója.) Analóg módon, a mátrix sorrangja a sorok által generált altér dimenziója, vagy másképpen: ${\varrho}S(A) = {\varrho}O(A^T)$.
\end{tcolorbox}
\end{frame}
@ -1395,7 +1451,7 @@ Jelölje $|a|$ az a geometriai vektor hosszát, ${\gamma}(a,b)$ pedig az $a$ és
1) $|a x b| = |a||b|sin{\gamma}(ab)$;\\
2) $a x b {\perp} a,b$;\\
3) ha $|a x b| 6= 0$, akkor $a,b,a x b$ jobbrendszert alkot.
3) ha $|a x b| \neq 0$, akkor $a,b,a x b$ jobbrendszert alkot.
\end{tcolorbox}
\end{frame}
@ -1528,7 +1584,7 @@ $(aj - ai)$.
Definiáljuk egy mátrix jobb oldali sajátvektorának a fogalmát.
\tcblower
Legyen $A \in \mathbb{R}^{n x n}$ tetszőleges négyzetes mátrix. Egy $x \in \mathbb{R}^n$ vektort az $A$ mátrix jobb oldali sajátvektorának nevezünk, ha: 1) $x 6= 0$; 2) létezik ${\lambda}0 \in \mathbb{R}$ szám, melyre $Ax = {\lambda}0x$.
Legyen $A \in \mathbb{R}^{n x n}$ tetszőleges négyzetes mátrix. Egy $x \in \mathbb{R}^n$ vektort az $A$ mátrix jobb oldali sajátvektorának nevezünk, ha: 1) $x \neq 0$; 2) létezik ${\lambda}0 \in \mathbb{R}$ szám, melyre $Ax = {\lambda}0x$.
\end{tcolorbox}
\end{frame}
@ -1538,7 +1594,7 @@ $(aj - ai)$.
\begin{tcolorbox}[title={34}]
Definiáljuk egy mátrix jobb oldali sajátértékének a fogalmát.
\tcblower
Legyen $A \in \mathbb{R}^{n x n}$ tetszőleges négyzetes mátrix. Egy ${\lambda}0 \in \mathbb{R}$ számot az $A$ mátrix jobb oldali sajátértékének nevezünk, ha van olyan $x \in \mathbb{R}^n$ vektor, melyre 1) $x 6= 0$; 2) $Ax = {\lambda}0x$.
Legyen $A \in \mathbb{R}^{n x n}$ tetszőleges négyzetes mátrix. Egy ${\lambda}0 \in \mathbb{R}$ számot az $A$ mátrix jobb oldali sajátértékének nevezünk, ha van olyan $x \in \mathbb{R}^n$ vektor, melyre 1) $x \neq 0$; 2) $Ax = {\lambda}0x$.
\end{tcolorbox}
\end{frame}
@ -1632,7 +1688,7 @@ Ha V valós vagy komplex euklideszi tér, akkor tetszőleges $x,y \in V$ vektoro
Definiáljuk egy $V$ euklideszi tér ortonormált bázisának a fogalmát.
\tcblower
Az $e1,...,en \in V$ vektorokbólállórendszertortonormáltbázisnaknevezzüka $V$ euklideszi térben, ha: 1) bázist alkotnak $V$ -ben; 2) az $ei$ vektorok páronként merőlegesek, azaz $i 6= j$ esetén $hei,eji = 0$; és 3) a vektorok normáltak, azaz $keik = 1 minden 1 \leq i \leq n$-re.
Az $e1,...,en \in V$ vektorokbólállórendszertortonormáltbázisnaknevezzüka $V$ euklideszi térben, ha: 1) bázist alkotnak $V$ -ben; 2) az $ei$ vektorok páronként merőlegesek, azaz $i \neq j$ esetén $hei,eji = 0$; és 3) a vektorok normáltak, azaz $keik = 1 minden 1 \leq i \leq n$-re.
\end{tcolorbox}
\end{frame}
@ -1642,7 +1698,7 @@ Az $e1,...,en \in V$ vektorokbólállórendszertortonormáltbázisnaknevezzüka
Mondjuk ki a valós szimmetrikus mátrixokra vonatkozó spektráltételt (azaz főtengelytételt).
\tcblower
Egy $A \in \mathbb{R}^{n x n}$ mátrix esetén pontosan akkor létezik A sajátvektoraiból álló ortonormált bázis $\mathbb{R}^n$-ben (azaz $A$ pontosan akkor diagonalizálható $\mathbb{R}$ felett ortonormált bázisban), ha az $A$ mátrix szimmetrikus (azaz $AT = A$). (Ilyenkor az $A$ sajátértékei mind valósak.)
Egy $A \in \mathbb{R}^{n x n}$ mátrix esetén pontosan akkor létezik A sajátvektoraiból álló ortonormált bázis $\mathbb{R}^n$-ben (azaz $A$ pontosan akkor diagonalizálható $\mathbb{R}$ felett ortonormált bázisban), ha az $A$ mátrix szimmetrikus (azaz $A^T = A$). (Ilyenkor az $A$ sajátértékei mind valósak.)
\end{tcolorbox}
\end{frame}
@ -1661,7 +1717,7 @@ Az $A$-hoz tartozó kvadratikus alak az a $Q : \mathbb{R}^n {\rightarrow} \mathb
Mondjuk meg, mit jelent az, hogy az $A \in \mathbb{R}^{n x n}$ szimmetrikus mátrixhoz tartozó Q kvadratikus alak pozitív definit, és jellemezzük ezt az esetet az $A$ sajátértékei segítségével.
\tcblower
Q-t akkor nevezzük pozitív definitnek, ha minden $0 6= x \in \mathbb{R}^n$ vektorra $Q(x) > 0$. Ez pontosan akkor teljesül, ha az $A$ mátrix minden sajátértéke pozitív.
Q-t akkor nevezzük pozitív definitnek, ha minden $0 \neq x \in \mathbb{R}^n$ vektorra $Q(x) > 0$. Ez pontosan akkor teljesül, ha az $A$ mátrix minden sajátértéke pozitív.
\end{tcolorbox}
\end{frame}
@ -1671,7 +1727,7 @@ Q-t akkor nevezzük pozitív definitnek, ha minden $0 6= x \in \mathbb{R}^n$ vek
Mondjuk meg, mit jelent az, hogy az $A \in \mathbb{R}^{n x n}$ szimmetrikus mátrixhoz tartozó Q kvadratikus alak negatív definit, és jellemezzük ezt az esetet az A karakterisztikus sorozata segítségével.
\tcblower
Q-t akkor nevezzük negatív definitnek, ha minden $0 6= x \in \mathbb{R}^n$ vektorra $Q(x) < 0$. Ez pontosan akkor teljesül, ha az A karakterisztikus sorozata jelváltó. (Az A mátrix ${\Delta}o,...,{\Delta}n$ karakterisztikus sorozatának k-adik tagja az A bal fölső sarkában lévő $k x k$-as részmátrix determinánsa, illetve ${\Delta}o = 1$.)
Q-t akkor nevezzük negatív definitnek, ha minden $0 \neq x \in \mathbb{R}^n$ vektorra $Q(x) < 0$. Ez pontosan akkor teljesül, ha az A karakterisztikus sorozata jelváltó. (Az A mátrix ${\Delta}o,...,{\Delta}n$ karakterisztikus sorozatának k-adik tagja az A bal fölső sarkában lévő $k x k$-as részmátrix determinánsa, illetve ${\Delta}o = 1$.)
\end{tcolorbox}
\end{frame}
@ -1691,15 +1747,15 @@ Q-t akkor nevezzük negatív definitnek, ha minden $0 6= x \in \mathbb{R}^n$ vek
Mondjuk ki a $b_1,...,bk$ vektorok lineáris függetlenségének definícióját, majd bizonyítsuk be, hogy ha $B = \{b_1,...,bk\}$ lineárisan független vektorrendszer, akkor minden lineáris kombinációjukként felírható vektor egyértelműen írható föl B-beli vektorok lineáris kombinációjaként.
\tcblower
A $v1,...,vk$ vektorrendszer akkor és csak akkor lineárisan független, ha csak a triviális lineáris kombinációja adja a nullvektort.\\
A $v_1,...,vk$ vektorrendszer akkor és csak akkor lineárisan független, ha csak a triviális lineáris kombinációja adja a nullvektort.\\
Képletben: tetszőleges ${\lambda}1,{\lambda}2,...,{\lambda}k \in R$ esetén, ha ${\lambda}1v1 + {\lambda}2v2 + \cdot \cdot \cdot + {\lambda}kvk = 0$, akkor minden $i$-re ${\lambda}i = 0$.\\
Képletben: tetszőleges ${\lambda}_1,{\lambda}_2,...,{\lambda}_k \in R$ esetén, ha ${\lambda}_1v_1 + {\lambda}_2v_2 + \cdot \cdot \cdot + {\lambda}_kvk = 0$, akkor minden $i$-re ${\lambda}_i = 0$.\\
Ha lenne egy vektor, melynek kétféle fölírása is létezne: $u = Pk i=1 {\lambda}ibi = Pk i=1 {\mu}ibi$, akkor a kétféle előállítást egymásból kivonva azt kapjuk, hogy\\
Ha lenne egy vektor, melynek kétféle fölírása is létezne: $u = Pk i=1 {\lambda}_ibi = Pk i=1 {\mu}ibi$, akkor a kétféle előállítást egymásból kivonva azt kapjuk, hogy\\
$0 = Pk i=1({\lambda}i -{\mu}i)bi$.\\
$0 = Pk i=1({\lambda}_i -{\mu}i)bi$.\\
Ha a két előállítás különbözik, akkor valamelyik $({\lambda}i-{\mu}i)$ együttható nem nulla, s ez ellentmond a $B$ lineáris függetlenségének.
Ha a két előállítás különbözik, akkor valamelyik $({\lambda}_i-{\mu}i)$ együttható nem nulla, s ez ellentmond a $B$ lineáris függetlenségének.
\end{tcolorbox}
\end{frame}
@ -1714,18 +1770,18 @@ Q-t akkor nevezzük negatív definitnek, ha minden $0 6= x \in \mathbb{R}^n$ vek
Mondjuk ki azt az állítást, mely ezeket a fogalmakat összekapcsolja, és bizonyítsuk is be az állítást.
\tcblower
Ha $k \geq 2$, akkor a $v1,...,vk$ vektorrendszer akkor és csak akkor lineárisan összefüggő, ha létezik olyan $i$, hogy $vi$ lineárisan függ a többi $vj$ vektortól (azaz előáll mint a $v1,...,vi-1,vi+1,...,vk$ vektorok lineáris kombinációja).\\
Ha $k \geq 2$, akkor a $v_1,...,vk$ vektorrendszer akkor és csak akkor lineárisan összefüggő, ha létezik olyan $i$, hogy $vi$ lineárisan függ a többi $vj$ vektortól (azaz előáll mint a $v_1,...,vi-1,vi+1,...,vk$ vektorok lineáris kombinációja).\\
\mmedskip
Tegyük föl először, hogy a megadott vektorrendszer lineárisan összefüggő.\\
Ez azt jelenti, hogy a nullvektornak van egy olyan $Pk i=1 {\lambda}ivi = 0$ előállítása, melynél valamelyik ${\lambda}i$ együttható (pl. a ${\lambda}i0$) nem $0$.\\
Ez azt jelenti, hogy a nullvektornak van egy olyan $Pk i=1 {\lambda}_ivi = 0$ előállítása, melynél valamelyik ${\lambda}_i$ együttható (pl. a ${\lambda}_i0$) nem $0$.\\
Ekkor a $vi0$ kifejezhető a többi vektor lineáris kombinációjaként, hiszen $vi0 = -(1/{\lambda}i0)Pj6=io {\lambda}jvj$.\\
Ekkor a $vi0$ kifejezhető a többi vektor lineáris kombinációjaként, hiszen $vi0 = -(1/{\lambda}_i0)Pj \neq io {\lambda}_jvj$.\\
\mmedskip
A fordított irányhoz tegyük föl, hogy $vi0$ lineárisan függ a többi $vj$ vektortól, azaz $vi0 = Pj6=i0 {\mu}jvj$ valamilyen ${\mu}j$ együtthatókra.\\
A fordított irányhoz tegyük föl, hogy $vi0$ lineárisan függ a többi $vj$ vektortól, azaz $vi0 = Pj \neq i0 {\mu}jvj$ valamilyen ${\mu}j$ együtthatókra.\\
De ekkor átrendezhetjük a fönti egyenlőséget úgy, hogy minden vektor az egyenlőség azonos oldalára kerüljön, s ekkor azt kapjuk, hogy a ${\mu}i0 = -1$ választással: $Pk i=1 {\mu}ivi = 0$. Ez nem triviális lineáris kombinációja a $vi$ vektoroknak, mert ${\mu}i0 = -1 6= 0$, tehát a vektorrendszer lineárisan összefüggő.
De ekkor átrendezhetjük a fönti egyenlőséget úgy, hogy minden vektor az egyenlőség azonos oldalára kerüljön, s ekkor azt kapjuk, hogy a ${\mu}i0 = -1$ választással: $Pk i=1 {\mu}ivi = 0$. Ez nem triviális lineáris kombinációja a $vi$ vektoroknak, mert ${\mu}i0 = -1 \neq 0$, tehát a vektorrendszer lineárisan összefüggő.
\end{tcolorbox}
\end{frame}
@ -1736,9 +1792,9 @@ Q-t akkor nevezzük negatív definitnek, ha minden $0 6= x \in \mathbb{R}^n$ vek
\tcblower
Ha egy lineárisan független $a_1,...,ak$ vektorrendszerhez hozzávéve a $b$ vektort, a kapott $a_1,...,ak,b$ vektorrendszer már összefüggő, akkor $b$ lineárisan függ az $a_1,...,ak$ vektoroktól (azaz előállítható lineáris kombinációjukként).\\
A feltétel szerint ugyanis léteznek olyan ${\lambda}1,...,{\lambda}k,{\mu}$ együtthatók, melyek közül legalább az egyik nem nulla, és melyekre $(Pk i=1 {\lambda}iai) + {\mu}b = 0$. Itt azonban ${\mu}$ nem lehet nulla, ellenkező esetben az $ai$ vektorok már önmagukban is előálítanák a nullvektort nem triviális módon, ez pedig ellentmond a lineáris függetlenségüknek.\\
A feltétel szerint ugyanis léteznek olyan ${\lambda}_1,...,{\lambda}_k,{\mu}$ együtthatók, melyek közül legalább az egyik nem nulla, és melyekre $(Pk i=1 {\lambda}_iai) + {\mu}b = 0$. Itt azonban ${\mu}$ nem lehet nulla, ellenkező esetben az $ai$ vektorok már önmagukban is előálítanák a nullvektort nem triviális módon, ez pedig ellentmond a lineáris függetlenségüknek.\\
Ha átrendezzük az előbbi egyenlőséget úgy, hogy a $b$ vektort hagyjuk az egyik oldalon, akkor ${\mu}$-vel osztva $b = Pk i=1(-{\lambda}i/{\mu})ai$, ami azt mutatja, hogy $b$ lineárisan függ az $ai$ vektoroktól.
Ha átrendezzük az előbbi egyenlőséget úgy, hogy a $b$ vektort hagyjuk az egyik oldalon, akkor ${\mu}$-vel osztva $b = Pk i=1(-{\lambda}_i/{\mu})ai$, ami azt mutatja, hogy $b$ lineárisan függ az $ai$ vektoroktól.
\end{tcolorbox}
\end{frame}
@ -1771,7 +1827,7 @@ Q-t akkor nevezzük negatív definitnek, ha minden $0 6= x \in \mathbb{R}^n$ vek
A szorzatmátrixban az $i$-edik sor $j$-edik eleme a szorzás definíciója szerint $i[AIn]j = Pn t=1(ait{\delta}tj)$.\\
Ebben az összegben ${\delta}tj = 0$ ha $t 6= j$, ezért csak az egyetlen $aij{\delta}jj = aij$ tag marad meg.
Ebben az összegben ${\delta}tj = 0$ ha $t \neq j$, ezért csak az egyetlen $aij{\delta}jj = aij$ tag marad meg.
\end{tcolorbox}
\end{frame}
@ -1780,7 +1836,7 @@ Q-t akkor nevezzük negatív definitnek, ha minden $0 6= x \in \mathbb{R}^n$ vek
\begin{tcolorbox}[title={8. (4p)}]
Mondjuk ki és bizonyítsuk be a mátrixok szorzatának transzponáltjára kimondott összefüggést.
\tcblower
Ha $A \in Rkxl$ és $B \in Rlxn$, akkor $(AB)T = BTAT$. A szorzat transzponáltjának általános eleme ugyanis: $i[(AB)T]j = j[AB]i = Pl t=1 j[A]t \cdot t[B]i = Pl t=1 i[BT]t \cdot t[AT]j = i[BTAT]j$.
Ha $A \in Rkxl$ és $B \in Rlxn$, akkor $(AB)T = B^TA^T$. A szorzat transzponáltjának általános eleme ugyanis: $i[(AB)T]j = j[AB]i = Pl t=1 j[A]t \cdot t[B]i = Pl t=1 i[B^T]t \cdot t[A^T]j = i[B^TA^T]j$.
\end{tcolorbox}
\end{frame}
@ -1788,9 +1844,9 @@ Q-t akkor nevezzük negatív definitnek, ha minden $0 6= x \in \mathbb{R}^n$ vek
\begin{tcolorbox}[title={15. (4p)}]
Definiáljuk egy $A \in \mathbb{R}^{n x n}$ mátrix jobb oldali sajátértékének fogalmát, majd igazoljuk, hogy az $A$ mátrix ${\lambda}$ sajátértékű (jobb oldali) sajátvektorai a nullvektorral kiegészítve alteret alkotnak $\mathbb{R}^n$-ben.
\tcblower
${\lambda} \in R$ jobb oldali sajátértéke $A$-nak, ha van olyan $0 6= v \in \mathbb{R}^n$ vektor, melyre $Av = {\lambda}v$. (Ilyenkor $v$-t a ${\lambda}$-hoz tartozó (egyik) sajátvektornak nevezhetjük.)\\
${\lambda} \in R$ jobb oldali sajátértéke $A$-nak, ha van olyan $0 \neq v \in \mathbb{R}^n$ vektor, melyre $Av = {\lambda}v$. (Ilyenkor $v$-t a ${\lambda}$-hoz tartozó (egyik) sajátvektornak nevezhetjük.)\\
Azt kell igazolnunk, hogy $W{\lambda} = {v \in \mathbb{R}^n |Av = {\lambda}v} \leq \mathbb{R}^n$. Nyilván $0 \in W{\lambda}$, így $W{\lambda}$ nem üres. Ha $v1,v2 \in W{\lambda}$, akkor $A(v1 +v2) = Av1 +Av2 = {\lambda}v1 +{\lambda}v2 = {\lambda}(v1 +v2)$, azaz $W{\lambda}$ zárt az összeadásra. Végül, ha $v \in W{\lambda}$ és ${\mu} \in R$, akkor $A({\mu}v) = {\mu}Av = {\mu}({\lambda}v) = {\lambda}({\mu}v)$, vagyis $W{\lambda}$ zárt a skalárral való szorzásra is.
Azt kell igazolnunk, hogy $W{\lambda} = {v \in \mathbb{R}^n |Av = {\lambda}v} \leq \mathbb{R}^n$. Nyilván $0 \in W{\lambda}$, így $W{\lambda}$ nem üres. Ha $v_1,v_2 \in W{\lambda}$, akkor $A(v_1 +v_2) = Av_1 +Av_2 = {\lambda}v_1 +{\lambda}v_2 = {\lambda}(v_1 +v_2)$, azaz $W{\lambda}$ zárt az összeadásra. Végül, ha $v \in W{\lambda}$ és ${\mu} \in R$, akkor $A({\mu}v) = {\mu}Av = {\mu}({\lambda}v) = {\lambda}({\mu}v)$, vagyis $W{\lambda}$ zárt a skalárral való szorzásra is.
\end{tcolorbox}
\end{frame}