SlideShare une entreprise Scribd logo
1  sur  21
Télécharger pour lire hors ligne
線形数学 Linear algebra
浅川伸一
平成 28 年 10 月 12 日
1 Vector
いくつかの数値をまとめて表現する方法である. x = (x1, x2, . . . , xn) これ
に対して, 普通の意味での数値をスカラ scalor という.
行ベクトル raw vectorとは n 個の数値が横に並んだもので,a = (a1, a2, . . . , an)
と表記する.列ベクトル column vector とは n 個の数値が縦に並んだもであ
り,b =






b1
b2
...
bn






および bt
= (b1, b2, . . . , bn) とベクトルの肩に t や ′
をつ
けて表記することもある.
1.1 ノルム
ベクトルのノルム norm あるいはユークリッドノルムとはベクトルの長さ
のことであり,|a| =
√
a′a =
∑
i a2
i と表記する.|x| = 1 ならば正則化され
たベクトルという.
1.2 内積
同じ次元をもつ 2 つのベクトルの内積 inner product を at
b または (a · b)
と表記する.これは (a · b) = |a| |b| cos θ =
n∑
i=1
aibi である.2 つのベクトル
なす角 θ は
cos θ =
(a · b)
|a| |b|
(1)
である.内積は 2 つのベクトルの共線性,すなわち平行の度合の尺度となり,
特に (a · b) = 0 ならばそれら 2 本のベクトルは直交し,|x′
y| = |x| |y| なら
ばそれら 2 本のベクトルは平行である.ベクトルのノルムと内積については
以下の関係が成立する.
1
1. |a|2
= (a · a)
2. |a + b|
2
= |a|
2
+ |b|
2
+ 2 (a · b)
3. (αa · b) = (a · αb) = α (a · b)
4. |a|
2
= 0 ⇐⇒ a = 0
ここで α はスカラである.
ベクトルの内積からコーシー・シュワルツ Cauchy–Schwarz の不等式
(a · b)
2
≤ |a|
2
|b|
2
(2)
(∑
aibi
)2
≤
(∑
a2
i
) (∑
b2
i
)
(3)
が導き出せる.
証明は,任意の実数 t に対して
|a − tb|
2
= |a|
2
− 2t (a · b) + t2
|b|
2
≥ 0 (4)
が常に成立するためには,判別式 D が負であればよい. 従って
D = (a · b)
2
− |a|
2
|b|
2
≤ 0 (5)
ゆえに
(a · b)
2
≤ |a|
2
|b|
2
(6)
が成り立つ.
1.3 ベクトル間の距離
2 本のベクトル間の距離を
d(a, b) = |a − b| (7)
と定義すれば,次のことが成り立つ.
1. d(a, b) ≥ 0
2. d(a, b) = 0 ⇐⇒ a = b
3. d(a, b) = d(b, a)
4. d(a, b) + d(b, c) ≥ d(a, c)
最後のものは,いわゆる三角不等式とよばれるものである.
2
2 行列 Matrix
数値を縦横の矩形に配置したものを行列という.A = (aij) などと表され
る.これは i 行 j 列目の要素が aij であるという意味である.行数と列数の
等しい行列を正方行列という.
すべての要素が 0 である行列を零行列といい 0 と太文字を使って表される.
ある行列の行と列とを入れ換えた行列を転置行列といい,行列の肩に t ま
たは ′
をつけて表す A′
= (aji).転置行列には次のような性質がある.
•
(
A′
)′
= A
• (A + B)
′
= A′
+ B′
• (AB)
′
= B′
A′
転置行列ともとの行列が等しいとき,その行列を対称行列という A′
= A.aii
要素がゼロでなく,他の要素が全てゼロ aij = 0, (i ̸= j) である行列を対角行
列という.D =






d1 0 · · · 0
0 d2
...
...
0 dn






対角要素が全て 1 の対角行列を単位
行列といい I = (δij) などと表す.ここで,δ はクロネッカー kronecker の
デルタと呼ばれ
δij =
{
1 i = j のとき
0 i ̸= j のとき
(8)
である.
2.1 行列のスカラ倍
行列のスカラ倍とは行列の各成分をスカラ倍したものであり,次のような
演算が許される.ここで lambda はスカラである.
• λA = Aλ
• (λ + µ) A = λA + µA
• λ (A + B) = λA + λB
2.2 行列の和
行列の和は対応する各要素を加えたものである.このため行数と列数が等
しい行列間でしか行列の和は定義されない.行列の和には次のような規則が
ある.
3
• A + B = B + A
• (A + B) + C = A + (B + C)
2.3 行列の積
2 つの行列の積は次のように定義される.
AnmBml =


m∑
j=1
aijbjk

 (9)
一般に AB ̸= BA である.行列の積には次のような性質がある.
• (AB) C = A (BC)
• A (B + C) = AB + AC
• IA = AI = A
2.4 行列式
一般に d × d の正方行列の行列式はスカラで det (A) あるいは |A| などと
表す.
2 次の正方行列 A =
(
a1 b1
a2 b2
)
の行列式は a =
(
a1
a2
)
, b =
(
b1
b2
)
とすれば, a1b2 − a2b1 であり, この 2 本のベクトルによって作られる平行四
辺形の面積に等しい.
|a| |b| sin θ = |a| |b|
√
1 − cos2 θ (10)
=
√
|a|2 |b|2
{
|a|2 |b|2 − (a · b)2
|a|2 |b|2
}
(11)
=
√
|a|2 |b|2 − (a · b)2 (12)
=
√
a2
1b2
2 + a2
2b2
1 − 2a1b1a2b2 (13)
=
√
(a1b2 − a2b1)
2
(14)
= a1b2 − a2b1 (15)
(16)
A の列をベクトルと考え,それらのベクトルが線形独立ではないとすると
A の行列式は 0 になる.逆行列が存在するためには行列式が 0 であっては
ならない.
一般の正方行列の行列式は,小行列展開と呼ばれる方法で計算でき,再帰
的に定義できる.すなわち,行列 A の i 行 j 列を除いて得られる m − 1 行
4
m − i 列の小行列の行列式に (−1)i+j
をかけたものを aij の余因子 cofactor
といい, Aij と表記する.このとき次の関係が成り立つ.
|A| =
m∑
j=1
aijAij =
m∑
i=1
aijAij (17)
|Aij| が分かれば A の行列式は第 1 列に対して次のように展開できる.ここ
で符合が交互に変わる.
|A| = a11 |A11| − a22 |A21| + a31 |A31| − · · · ± md1 |Ad1| (18)
この過程はより小さい行列の行列式に対して再帰的に繰り返し適用できる.
行列式には次のような性質がある.
• 対角行列, 三角行列の行列式はすべての対角成分の積に等しい. |A| =
n∏
i=1
aii
• A の任意の2列(行)を入れ換えると |A| の符号が変わる
• A′
= |A|
• |AB| = |A| |B|
• |AB| = |BA|
• A−1
= |A|
−1
2.5 逆行列
正方行列の行列式が 0 でなければ逆行列が存在する.行列 A にある行列
を掛けて答が単位行列になるような行列を逆行列といい AA−1
= I と表さ
れる.逆行列には次の性質が成り立つ.
•
(
A−1
)−1
= A
•
(
A′
)−1
=
(
A−1
)′
• (AB)
−1
= B−1
A−1
• (λA)
−1
= 1
λ A−1
•
(
A−1
+ B−1
)−1
= A (A + B)
−1
B = B (A + B)
−1
A
5
次の逆行列を求めよ
(
a b
c d
)
(
cos θ − sin θ
sin θ cos θ
)



1 1 1
0 1 1
0 0 1



 
行列 M が正方行列でないときや,行列 M の列が線形独立でないため逆
行列 M−1
が存在しないとき次の擬似逆行列 M†
が定義できる.
M†
=
[
Mt
M
]−1
Mt
(19)
擬似逆行列は M†
M = I が保証されるので最小問題を解くとき便利である.
2.6 直交行列 orthogonal matirx
L′
L = I, L′
= L−1
を満たす行列を直交行列という.
2.7 トレース Trace
. d × d の正方行列の対角要素の和をトレースといい tr (A) =
n∑
i=1
aii のよ
うに表す.行列のトレースには次の性質がある.ここで c, d はスカラである.
• tr (cA + dB) = c tr (A) + d tr (B)
• tr (AB) = tr (BA)
• tr
(
A′
A
)
=
m∑
j=1
n∑
i=1
a2
ij
• tr A
(
A′
A
)−1
A′
= m (ただし A は rank A = m の n × m 行列)
• tr (AB) = tr (BA)
• tr (A′
A) = 0 ⇐⇒ A = 0
• tr (A′
B) ≤
√
tr (A′
A) tr (B′
B) Cauchy–Schwarz の不等式の一般化
6
3 ベクトル空間 Vector space
m 個の 0 でないベクトル a1, a2, . . . , am をもちいて
α1a1 + α2a2 + . . . + αmam = 0
が成り立つ条件を考える. αi = 0 (i = 1, 2, . . . , m) のときは明らかに成り立
つ. 上式が αi = 0 (i = 1, 2, . . . , m) 以外の自明でない解をもつとき, ベクトル
a1, a2, . . . , am は線形従属(1次従属)linearly dependent であるという. 反
対に, 上式が成り立つのは ai = 0 (i = 1, 2, . . . , m) に限るとき, 線形独立(1
次独立)linearly independent であるという.
a1, a2, . . . , am が線形独立なとき, ai ̸= 0 を使って bk = −ak/ai (k =
1, 2, . . . , m) を作って
ai = b1a1 + · · · + bi−1ai−1 + bi+1ai+1 + · · · + bmam
となる. したがって, あるベクトルの組が線形従属であるということは, その
組の中のあるベクトルが他のベクトルの線形結合で表されることを意味して
いる.
3.1 線形部分空間 liner subspace
m 個の線形独立なベクトルの線形結合の集合を
W =
{
b b =
m∑
i=1
aiai
}
と表現する. m 次元ベクトル全体の集合を Em
とする, Em
の部分集合 W
が
1. a ∈ W, b ∈ W → a + b ∈ W
2. a ∈ W → ca ∈ W
を満たすとき, これを m 次元の線形部分空間という.
3.2 基底 basis
任意の線形部分空間 W で線形独立な m 個のベクトルが存在し, (m + 1)
個のベクトルは線形従属になるとき W の次元は r であるといい, dim W と
表記する. 上記の W に属する線形独立な m 個のベクトルを空間 W の基底
という. また, 空間 W は m 個のベクトルによって生成されるという. この
ことを
W = S (a1, a2, . . . , am) = S (A)
7
と表す.
重要な定理 
m 次元の部分空間 W に属する m 個の線形独立なベクトルを
a1, a2, . . . , am とすると, W に属する任意のベクトルは a1, a2, . . . , am
の線形結合としてただ一通りに定まる.
 
つまり, 線形部分空間の任意のベクトルは, その空間を定める基底を用いて表
現可能である.
一般に, 基底の定め方は一通りではない. a1, a2, . . . , am が W の基底で全
てが直交するとき, 直交基底 orthogonal basis という. さらに, bj = aj/ |aj|
とすると, |bj| = 1 (1 ≤ j ≤ m) となる. これを正規直交基底 orthonormal
basis という. b1, b2, . . . .bm が正規直交基底のとき
(bi · bj) = δij
である.
3.3 ランク
rank A m × n 行列 A の行ベクトルのうちで線形独立なベクトルの個数は
A の列ベクトルのうちで線形独立なベクトルの個数に等しい. この線形独立
なベクトルの個数のことを行列 A のランクという.
• |A| = 0 ⇔ rank A  m (A は m 次の正方行列)
• rank A = rank A′
• rank (AB) ≤ max (rank A, rank B)
• rank A = rank
(
A′
A
)
= rank
(
AA′
)
3.4 空間の分割
2 つのベクトルの組 A = (a1, a2, · · · , ap), B = (b1, b2, · · · , bq)  によっ
て生成される部分空間をそれぞれ, VA = S (A), VB = S (B) とするこのとき,
和空間: 2 つの部分空間の和, VA + VB = {a + b |a ∈ VA, b ∈ VB } は線形
部分空間になる. これを和空間と呼び, 次のように表記する.
VA∪B = VA + VB = S (A : B)
8
積空間: 2 つの部分空間の共通部分,
VA∩B = {x |x = Aα = Bβ }
も, 線形部分空間であり, これを積空間と呼ぶ. 次のように表記する.
VA∩B = VA ∩ VB
直和分解: VA ∩ VB = {0} のとき, 和空間 VA∪B は VA と VB とに直和分解
されたと呼び, 次のように表記する. また, VA と VB は独立であるとも
いう.
VA∪B = VA ⊕ VB
補空間: 全空間 En
が二つの空間 V と W とに直和分解されるとき, W は
V の補空間 complementary space といい WC
と表記する.
直交補空間: W に属する任意のベクトルが V に属する任意のベクトルと直
交するとき, W は V の直交補空間 orthocoplementary space といい,
W = V ⊥
と表記する.
V ⊥
= {a |(a · b) = 0, ∃ b ∈ V }
全空間 En
が r 個の独立な空間 Wj (j = 1, 2, . . . , r) に直和分解される
ときは, 次のように書く.
En
= W1 ⊕ W2 ⊕ · · · ⊕ Wr
部分空間の次元に関する定理 
1. dim (VA∪B) = dimVA + dimVB − dimVA∩B
2. dim (VA ⊕ VB) = dimVA + dimVB
3. dimV C
= n − dimV
 
また,
 
W = W1 ⊕ W2 ⊕ · · · ⊕ Wr に含まれる任意のベクトル x は
x = x1 + x2 + · · · + xr (xi ∈ Wi)
とただ一通りに分解される.
 
9
3.5 線形変換
m 次元ベクトル x を n 次元ベクトル y に対応させることを考え, y = ϕ (x)
と表記する. 次の性質をもつ変換 ϕ を線形変換という.
1. ϕ (αx) = αϕ (x).
2. ϕ (x + y) = ϕ (x) + ϕ (y).
任意の m 次元ベクトル x を n 次元ベクトル y に対応させる線形変換 ϕ は
m 個の n 次元ベクトルによって構成される m×n 行列 A = (a1, a2, · · · , am)
をもちいて, y = Ax と表現される.
3.6 射影行列
En
= V ⊕ W のとき, En
に含まれる任意のベクトル x は
x = x1 + x2 (where, x1 ∈ V, x2 ∈ W)
とただ一通りに分解される. このとき, x を x1 に移す変換を W に沿った V
への射影 projection という.
基本性質 
P ,Q を射影行列とすると以下の性質が成り立つ
• べき等性 P 2
= P (必要十分条件)
• 対称性 x′
(P y) = x′
P ′
y =
(
P x′
y
)
• 直交性 P Q = 0
• 相補性 P + Q = I
 
定理 P が射影行列ならば Q = I − P も射影行列である.
証明: QQ = (I − P ) (I − P )
= I + P − P + P
= I − P = Q
定理 P Q = QP = 0
証明: P Q = P (I − P )
= P − P = 0
10
4 固有値 Eigen value
たとえば, A =
(
1 1
2
1
2 1
)
として,
(
x
y
)
をどこに写すかを考える.
(
x′
y′
)
= A
(
x
y
)
=
(
x + y
2
x
2 + y
)
この行列 A は y = x と y = −x という直線の方向については拡大, 縮小しか
しない. すなわち
A
(
x
x
)
=
3
2
(
x
x
)
A
(
x
−x
)
=
1
2
(
x
−x
)
そこで任意のベクトル x = (x, y)′
をこの 2 つのベクトルに分解して考える.
すなわち, Ax = Ax1 + Ax2 = 3
2 x1 + 1
2 x2
1. A には 2 つの比例拡大(縮小)の方向がある
2. A はその 2 つの方向への作用の和として表される
これを一般化すると n 次の正方行列 A に対して
Ax = λx (x ̸= 0)
を満たすベクトル x を A の固有ベクトル, λ を A の固有値という.
そこで, 以下の問題を考える
問題 1. 正方行列 A の固有ベクトルと固有値を求める方法を考える
問題 2. 求めた固有ベクトルでベクトル空間の基底が作れるような行列を判
別する方法を考える
定理 正方行列 A の固有値は λ の代数方程式 det (A − λI) = 0 の根であ
る. 逆にこの方程式の根は A の固有値である
証明 x(̸= 0) を A の一つの固有ベクトル, λ0 を対応する固有値とすると
Ax = λ0x
Ax − λ0x = 0
これは x = (x1, x2, · · · , xn)′
に関する連立一次方程式である. これが 0 でな
い解 x をもっているのだから, その係数の行列式は 0 でなければならない.
逆にあるスカラー λ0 が det (A − λ0I) = 0 を満たせば
(Ax − λ0I) x = 0
は少なくとも一つの 0 でない解 x を持つ. そのとき
Ax = λ0x (x ̸= 0)
だから, x は A の固有ベクトルであり, λ0 は対応する固有値である.
11
4.1 固有値の求めかた
det (A − λI) = 0 のとき, 次の各根 λ1, λ2,· · · ,λn に対して連立方程式
(A − λiI) = 0 をといて x1,x2,· · · ,xn を求めればよい.
例 1 A =
(
1 1
2
1
2 1
)
の固有方程式は
det (A − λI) =
1 − λ 1
2
1
2 1 − λ
=
(
1 − λ −
1
2
) (
1 − λ +
1
2
)
= 0
ゆえに
λ =
1
2
,
3
2
• λ1 = 1
2 に対応する A の固有値ベクトルは
(A − λI) x1 =
{(
1 1
2
1
2 1
)
−
1
2
(
1 0
0 1
)} (
l
m
)
=
(
1
2
1
2
1
2
1
2
) (
l
m
)
=
(
0
0
)
l + m = 0, ⇒ l = −m
x = c
(
1
−1
)
(c は任意の 0 でない数)
• λ2 = 3
2 に対応する A の固有値ベクトルは
(A − λI) x2 =
{(
1 1
2
1
2 1
)
−
3
2
(
1 0
0 1
)} (
l
m
)
=
(
−1
2
1
2
1
2 −1
2
) (
l
m
)
=
(
0
0
)
−l + m = 0, ⇒ l = m
x = c
(
1
1
)
(c は任意の 0 でない数)
例 2
(
1 −1
1 1
)
の固有値 (複素数解)
例 3
(
3 1
−1 1
)
の固有値 (重根)
12
4.2 固有値の用途
n 次の正方行列 A の固有値を対角要素にもつ行列を D とする. この
固有値に対応する固有ベクトル (x1,x1,· · · ,xn) を並べてできた行列を X =
(x1, x2, · · · , xn) とすると
AX = XD
と表すことができる.また同じことだが A は X と D とを用いて
A = XDX−1
と表現できる. このとき X の要素である縦ベクトル xi(i = 1, . . . , n), は全
て直交する.すなわち任意のベクトル x が
x = x1 + x2 + · · · + xn
の形に一意的に分解できることを意味する.x → x1, x → x2, · · · , x → xn
に各々射影する操作をそれぞれ P1, P2, · · · , Pn と書くことにすると
x (= Ix) = P1x + P2x + · · · + Pnx
がすべての x について成立する.写像だけの式にしてみると
I = P1 + P2 + · · · + Pn
が成立する.このようにベクトルに分解しておくと
Ax = Ax1 + Ax2 + · · · + An
= λ1x1 + λ2x2 + · · · + λnxn
となる.すなわち A は xi 方向には λi 倍する引き伸ばし作用をしているこ
とになる.換言すれば A は固有値数だけの引き伸ばし作用の合成によって得
られる写像である.射影演算子 Pi を使って表すと
Ax = λ1P1x + λ2P2x + · · · + λnPnx
となるので行列だけの関係式にすると
A = λ1P1 + λ2P2 + · · · + λnPn
が成立することになる.I = P1 + P2 + · · · + Pn が成立するように Ax =
λ1P1x + λ2P2x + · · · + λnPnx の形に分解することを行列 A の射影分解ま
たはスペクトル分解という.P1, P2, · · · , Pn はそれぞれ λ1, λ2, · · · , λn に対
する固有空間への射影を表している.この Pi を使うと
A2
= λ2
1P1 + λ2
2P2 + · · · + λ2
nPn
5A − I = (5λ1 + 1) P1 + (5λ2 + 1) P2 + · · · + (λn − 1) Pn
などのように A の多項式も Pi を使って表現できる.
固有値 λi に対する (A − λiI) x = 0 を満たすベクトル x 全体のことを固
有値 λi に対する固有空間という.
13
4.3 固有値の性質
n 次の正方行列 A の固有値を(重複を許して)λ1, λ2, · · · , λn とすると
1. 固有値の積は行列式である
∏n
i=1 λi = |A|
2. 固有値の和は行列のトレースである
∑n
i=1 λi = tr A
3. A′
の固有値は λ1,λ2,· · · ,λn
4. Ak
(k = 1, 2, · · · ) の固有値は λk
1,λk
2,· · · ,λk
n
5. f(n) を x の多項式とするとき f(A) の固有値は f(λ1),f(λ2),· · · ,f(λn)
5 行列の微分
d 次元のベクトル,すなわち d 個の変数 x1, x2, . . . , xd をとる関数 f (x) を
考える.このベクトルに関して f(·) の微分すなわち勾配は
∇f (x) = grad f (x) =
∂ (x)
∂x
=






∂f(x)
∂x1
∂f(x)
∂x2
...
∂f(x)
∂xd






(20)
で計算される.
行列 M の要素がスカラ θ の関数であるとき,行列 M を θ で微分すると
次の行列を得る.
∂M
∂θ
=






∂m11
∂θ
∂m12
∂θ · · · ∂m1d
∂θ
∂m21
∂θ
∂m22
∂θ · · · ∂m2d
∂θ
...
...
...
...
∂mn1
∂θ
∂mn2
∂θ · · · ∂mnd
∂θ






(21)
この行列 M の逆行列 M−1
の微分は次のようになる.
∂
∂θ
M−1
= −M−1 ∂M
∂θ
M−1
(22)
行列 M およびベクトル y が ベクトル x に独立であるとき,以下の等式
が成り立つ.
∂
∂x
[Mx] = M (23)
∂
∂x
[
yt
x
]
=
∂
∂x
[
xt
y
]
= y (24)
14
∂
∂x
[
xt
Mx
]
=
[
M + Mt
]
x (25)
ここで,M が対称行列ならば
∂
∂x
[
xt
Mx
]
= 2Mx (26)
のように簡単になる.
∂tr
(
Xt
Y X
)
∂X
=
(
Y + Y t
)
X (27)
∂ ln |X|
∂X
=
(
Xt
)−1
(28)
∂ (xt
My)
∂M
= xyt
(29)
∂
(
xt
Mt
y
)
∂M
= yt
x (30)
6 演習問題
1. 次の行列は何行何列か
(
1 3 0
7 −1 2
)
2. 次の行列の 3 行 2 列目の要素を答えよ











α β γ δ
ϵ ζ η θ
ι κ λ µ
ν ξ o π
ρ σ τ υ
ϕ χ ψ ω











15
3. A, B, C はそれぞれ 3 行 2 列,3 行 3 列,2 行 3 列の行列とする.以下の
うち行列の積が定義できないものに ×, できるものには ⃝ をつけよ.
AA AB AC A′
A A′
B A′
C
BA BB BC B′
A B′
B B′
C
CA CB CC C′
A C′
B C′
C
AA′
AB′
AC′
A′
A′
A′
B′
A′
C′
BA′
BB′
BC′
B′
A′
B′
B′
B′
C′
CA′
CB′
CC′
C′
A′
C′
B′
C′
C′
4. 次の計算をせよ.
(a)
(
7 5 1
−1 2 4
)
+
(
3 5 9
11 8 6
)
=
(b)
(
2 0 5
)



−9
5
3


 =
(c)
(
1 2
3 1
) (
x
y
)
=
(d)
(
x y
)
(
1 2
3 1
)
=
(e)



(
3 1
−2 1
)−1



′
=
5. 次の式を満たす x を求めよ.



2 0 7
0 1 0
1 2 1






−x −14x 7x
0 1 0
x 4x −2x


 =



1 0 0
0 1 0
0 0 1



16
6. A =
(
1 2
3 4
)
としたとき次の行列を計算せよ.
(a) A3
=
(b) A−1
=
(c) A2
− 5A − 2I =
7. y =






0
5
8
9






, A =






1 1
1 2
1 3
1 4






としたとき次の行列を計算せよ.
(a) A′
A =
(b)
(
A′
A
)−1
=
(c) θ =
(
A′
A
)−1
A′
y =
(d) Q = A
(
A′
A
)−1
A′
=
(e) Q′
=
(f) Q2
=
(g) I − Q =
17
(h) (I − Q) (I − Q) =
(i) y − Qy = y − Aθ =
(j) y′
(I − Q) (I − Q) y =
8. y =






y1
y2
y3
y4






, A =






1 a1
1 a2
1 a3
1 a4






としたとき次の行列を計算せよ.
(a) A′
A =
(b)
(
A′
A
)−1
=
(c) θ =
(
A′
A
)−1
A′
y =
(d) Q = A
(
A′
A
)−1
A′
=
(e) Q′
=
(f) Q2
=
(g) I − Q =
(h) (I − Q) (I − Q) =
18
(i) y − Qy = y − Aθ =
(j) y′
(I − Q) (I − Q) y =
9. a =
(
3
2
)
, b =
(
−3
1
)
, c =
(
3
−1
)
, d =
(
−2
4
)
とする. それぞれの
ベクトルをグラフに書け.
19
10. 連立方程式
{
x + 2y = 6
3x − y = 4
をグラフを用いて解け.
11. 次の行列 A =
(
1 2
3 −1
)
によって 次の各点 x = (x1, x1)′
はどこ写さ
れるかグラフに示せ.
(x,y) (x,y) (x,y)
(0,0) (0,1) (0,2)
(1,0) (1,1) (1,2)
(2,0) (2,1) (2,2)
12. 次の行列 A =
(
1 2
3 −1
)
によって y = Ax はどこ写されるかベクト
ル y − x をグラフに示せ.さらに A の固有値を求めよ.
13. 次の行列 A =
(
2 0
0 2
)
によって y = Ax はどこ写されるかベクトル
y − x をグラフに示せ.さらに A の固有値を求めよ.
14. 次の行列 A =
(
−2 0
0 −2
)
によって y = Ax はどこ写されるかベクト
ル y − x をグラフに示せ.さらに A の固有値を求めよ.
15. 次の行列 A =
(
1 2
2 1
)
によって y = Ax はどこ写されるかベクトル
y − x をグラフに示せ.さらに A の固有値を求めよ.
16. 次の行列 A =
(
0 1
−1
4 −5
4
)
によって y = Ax はどこ写されるかベク
トル y − x をグラフに示せ.さらに A の固有値を求めせ.
17. 次の行列 A =
(
2 1
1 2
)
によって y = Ax はどこ写されるかベクトル
y − x をグラフに示せ.さらに A の固有値を求めせ.
18. 次の行列 A =
(
0 1
−26 −2
)
によって y = Ax はどこ写されるかベク
トル y − x をグラフに示せ.さらに A の固有値を求めせ.
19. 次の行列 A =
(
0 5
−2 2
)
によって y = Ax はどこ写されるかベクト
ル y − x をグラフに示せ.さらに A の固有値を求めせ.
20
20. 次の行列 A =
(
0 1
−1
4 0
)
によって y = Ax はどこ写されるかベクト
ル y − x をグラフに示せ.さらに A の固有値を求めせ.
21. 次の行列 A =
(
2 1
1 1
2
)
によって y = Ax はどこ写されるかベクトル
y − x をグラフに示せ.さらに A の固有値を求めせ.
21

Contenu connexe

Tendances

東京都市大学 データ解析入門 2 行列分解 1
東京都市大学 データ解析入門 2 行列分解 1東京都市大学 データ解析入門 2 行列分解 1
東京都市大学 データ解析入門 2 行列分解 1hirokazutanaka
 
東京都市大学 データ解析入門 7 回帰分析とモデル選択 2
東京都市大学 データ解析入門 7 回帰分析とモデル選択 2東京都市大学 データ解析入門 7 回帰分析とモデル選択 2
東京都市大学 データ解析入門 7 回帰分析とモデル選択 2hirokazutanaka
 
東京都市大学 データ解析入門 3 行列分解 2
東京都市大学 データ解析入門 3 行列分解 2東京都市大学 データ解析入門 3 行列分解 2
東京都市大学 データ解析入門 3 行列分解 2hirokazutanaka
 
卒論プレゼンテーション -DRAFT-
卒論プレゼンテーション -DRAFT-卒論プレゼンテーション -DRAFT-
卒論プレゼンテーション -DRAFT-Tomoshige Nakamura
 
スペクトラル・クラスタリング
スペクトラル・クラスタリングスペクトラル・クラスタリング
スペクトラル・クラスタリングAkira Miyazawa
 
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)Kota Mori
 
さくっと線形代数
さくっと線形代数さくっと線形代数
さくっと線形代数Kota Mori
 
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM) コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM) Takahiro (Poly) Horikawa
 
2014年5月14日_水曜セミナー発表内容_FINAL
2014年5月14日_水曜セミナー発表内容_FINAL2014年5月14日_水曜セミナー発表内容_FINAL
2014年5月14日_水曜セミナー発表内容_FINALTomoshige Nakamura
 
東京都市大学 データ解析入門 9 クラスタリングと分類分析 2
東京都市大学 データ解析入門 9 クラスタリングと分類分析 2東京都市大学 データ解析入門 9 クラスタリングと分類分析 2
東京都市大学 データ解析入門 9 クラスタリングと分類分析 2hirokazutanaka
 
20170327_レムニスケートにまつわる色々な計算
20170327_レムニスケートにまつわる色々な計算20170327_レムニスケートにまつわる色々な計算
20170327_レムニスケートにまつわる色々な計算matsumoring
 
Coq関係計算ライブラリの開発と写像の性質の証明
Coq関係計算ライブラリの開発と写像の性質の証明Coq関係計算ライブラリの開発と写像の性質の証明
Coq関係計算ライブラリの開発と写像の性質の証明Yoshihiro Mizoguchi
 
20150922_楕円関数とおもしろい応用
20150922_楕円関数とおもしろい応用20150922_楕円関数とおもしろい応用
20150922_楕円関数とおもしろい応用matsumoring
 
20140512_水曜セミナードラフトv1
20140512_水曜セミナードラフトv120140512_水曜セミナードラフトv1
20140512_水曜セミナードラフトv1Tomoshige Nakamura
 
数学教材(中間発表)
数学教材(中間発表)数学教材(中間発表)
数学教材(中間発表)Mizuguchi1205
 
080 統計的推測 検定
080 統計的推測 検定080 統計的推測 検定
080 統計的推測 検定t2tarumi
 

Tendances (20)

東京都市大学 データ解析入門 2 行列分解 1
東京都市大学 データ解析入門 2 行列分解 1東京都市大学 データ解析入門 2 行列分解 1
東京都市大学 データ解析入門 2 行列分解 1
 
東京都市大学 データ解析入門 7 回帰分析とモデル選択 2
東京都市大学 データ解析入門 7 回帰分析とモデル選択 2東京都市大学 データ解析入門 7 回帰分析とモデル選択 2
東京都市大学 データ解析入門 7 回帰分析とモデル選択 2
 
東京都市大学 データ解析入門 3 行列分解 2
東京都市大学 データ解析入門 3 行列分解 2東京都市大学 データ解析入門 3 行列分解 2
東京都市大学 データ解析入門 3 行列分解 2
 
卒論プレゼンテーション -DRAFT-
卒論プレゼンテーション -DRAFT-卒論プレゼンテーション -DRAFT-
卒論プレゼンテーション -DRAFT-
 
prml4.1.3-4.1.4
prml4.1.3-4.1.4prml4.1.3-4.1.4
prml4.1.3-4.1.4
 
スペクトラル・クラスタリング
スペクトラル・クラスタリングスペクトラル・クラスタリング
スペクトラル・クラスタリング
 
PRML 第4章
PRML 第4章PRML 第4章
PRML 第4章
 
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)
 
さくっと線形代数
さくっと線形代数さくっと線形代数
さくっと線形代数
 
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM) コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
 
2014年5月14日_水曜セミナー発表内容_FINAL
2014年5月14日_水曜セミナー発表内容_FINAL2014年5月14日_水曜セミナー発表内容_FINAL
2014年5月14日_水曜セミナー発表内容_FINAL
 
東京都市大学 データ解析入門 9 クラスタリングと分類分析 2
東京都市大学 データ解析入門 9 クラスタリングと分類分析 2東京都市大学 データ解析入門 9 クラスタリングと分類分析 2
東京都市大学 データ解析入門 9 クラスタリングと分類分析 2
 
20170327_レムニスケートにまつわる色々な計算
20170327_レムニスケートにまつわる色々な計算20170327_レムニスケートにまつわる色々な計算
20170327_レムニスケートにまつわる色々な計算
 
Coq関係計算ライブラリの開発と写像の性質の証明
Coq関係計算ライブラリの開発と写像の性質の証明Coq関係計算ライブラリの開発と写像の性質の証明
Coq関係計算ライブラリの開発と写像の性質の証明
 
20150922_楕円関数とおもしろい応用
20150922_楕円関数とおもしろい応用20150922_楕円関数とおもしろい応用
20150922_楕円関数とおもしろい応用
 
20140512_水曜セミナードラフトv1
20140512_水曜セミナードラフトv120140512_水曜セミナードラフトv1
20140512_水曜セミナードラフトv1
 
PRML 10.4 - 10.6
PRML 10.4 - 10.6PRML 10.4 - 10.6
PRML 10.4 - 10.6
 
C03
C03C03
C03
 
数学教材(中間発表)
数学教材(中間発表)数学教材(中間発表)
数学教材(中間発表)
 
080 統計的推測 検定
080 統計的推測 検定080 統計的推測 検定
080 統計的推測 検定
 

En vedette

primers neural networks
primers neural networksprimers neural networks
primers neural networksShin Asakawa
 
2016tensorflow ja001
2016tensorflow ja0012016tensorflow ja001
2016tensorflow ja001Shin Asakawa
 
TensorFlow math ja 05 word2vec
TensorFlow math ja 05 word2vecTensorFlow math ja 05 word2vec
TensorFlow math ja 05 word2vecShin Asakawa
 
基礎からのベイズ統計学 2章 勉強会資料
基礎からのベイズ統計学 2章 勉強会資料基礎からのベイズ統計学 2章 勉強会資料
基礎からのベイズ統計学 2章 勉強会資料at grandpa
 
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理Ken'ichi Matsui
 
統計学の基礎の基礎
統計学の基礎の基礎統計学の基礎の基礎
統計学の基礎の基礎Ken'ichi Matsui
 
機械学習を学ぶための準備 その3(行列について)試験問題 解答
機械学習を学ぶための準備 その3(行列について)試験問題 解答機械学習を学ぶための準備 その3(行列について)試験問題 解答
機械学習を学ぶための準備 その3(行列について)試験問題 解答NHN テコラス株式会社
 
innodb_thread_concurrencyとtransparent hugepageの影響
innodb_thread_concurrencyとtransparent hugepageの影響innodb_thread_concurrencyとtransparent hugepageの影響
innodb_thread_concurrencyとtransparent hugepageの影響hiroi10
 
機械学習を学ぶための準備 その4(行列について)試験問題
機械学習を学ぶための準備 その4(行列について)試験問題機械学習を学ぶための準備 その4(行列について)試験問題
機械学習を学ぶための準備 その4(行列について)試験問題NHN テコラス株式会社
 
【SIROK技術勉強会 #4】機械学習と線形代数の基礎
【SIROK技術勉強会 #4】機械学習と線形代数の基礎【SIROK技術勉強会 #4】機械学習と線形代数の基礎
【SIROK技術勉強会 #4】機械学習と線形代数の基礎Shuntaro Tamura
 
機械学習を学ぶための準備 その3(行列について)試験問題
機械学習を学ぶための準備 その3(行列について)試験問題機械学習を学ぶための準備 その3(行列について)試験問題
機械学習を学ぶための準備 その3(行列について)試験問題NHN テコラス株式会社
 
Tensor flowと機械学習に必要な数学を基礎から学ぶ会 lt_20170118
Tensor flowと機械学習に必要な数学を基礎から学ぶ会 lt_20170118Tensor flowと機械学習に必要な数学を基礎から学ぶ会 lt_20170118
Tensor flowと機械学習に必要な数学を基礎から学ぶ会 lt_20170118隆夫 中島
 
機械学習を学ぶための準備 その4 (行列の掛け算について) 試験問題 解答
機械学習を学ぶための準備 その4  (行列の掛け算について) 試験問題 解答機械学習を学ぶための準備 その4  (行列の掛け算について) 試験問題 解答
機械学習を学ぶための準備 その4 (行列の掛け算について) 試験問題 解答NHN テコラス株式会社
 
TensorFlow User Group #1
TensorFlow User Group #1TensorFlow User Group #1
TensorFlow User Group #1陽平 山口
 
深層学習(ディープラーニング)入門勉強会資料(浅川)
深層学習(ディープラーニング)入門勉強会資料(浅川)深層学習(ディープラーニング)入門勉強会資料(浅川)
深層学習(ディープラーニング)入門勉強会資料(浅川)Shin Asakawa
 
TensorFlowで学ぶDQN
TensorFlowで学ぶDQNTensorFlowで学ぶDQN
TensorFlowで学ぶDQNEtsuji Nakai
 
なにわTech20170218(tpu) tfug
なにわTech20170218(tpu) tfugなにわTech20170218(tpu) tfug
なにわTech20170218(tpu) tfugNatsutani Minoru
 
ベイズ推定とDeep Learningを使用したレコメンドエンジン開発
ベイズ推定とDeep Learningを使用したレコメンドエンジン開発ベイズ推定とDeep Learningを使用したレコメンドエンジン開発
ベイズ推定とDeep Learningを使用したレコメンドエンジン開発LINE Corporation
 
Tensor flow usergroup 2016 (公開版)
Tensor flow usergroup 2016 (公開版)Tensor flow usergroup 2016 (公開版)
Tensor flow usergroup 2016 (公開版)Hiroki Nakahara
 

En vedette (20)

primers neural networks
primers neural networksprimers neural networks
primers neural networks
 
2016tensorflow ja001
2016tensorflow ja0012016tensorflow ja001
2016tensorflow ja001
 
TensorFlow math ja 05 word2vec
TensorFlow math ja 05 word2vecTensorFlow math ja 05 word2vec
TensorFlow math ja 05 word2vec
 
基礎からのベイズ統計学 2章 勉強会資料
基礎からのベイズ統計学 2章 勉強会資料基礎からのベイズ統計学 2章 勉強会資料
基礎からのベイズ統計学 2章 勉強会資料
 
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
 
統計学の基礎の基礎
統計学の基礎の基礎統計学の基礎の基礎
統計学の基礎の基礎
 
機械学習を学ぶための準備 その3(行列について)試験問題 解答
機械学習を学ぶための準備 その3(行列について)試験問題 解答機械学習を学ぶための準備 その3(行列について)試験問題 解答
機械学習を学ぶための準備 その3(行列について)試験問題 解答
 
innodb_thread_concurrencyとtransparent hugepageの影響
innodb_thread_concurrencyとtransparent hugepageの影響innodb_thread_concurrencyとtransparent hugepageの影響
innodb_thread_concurrencyとtransparent hugepageの影響
 
機械学習を学ぶための準備 その4(行列について)試験問題
機械学習を学ぶための準備 その4(行列について)試験問題機械学習を学ぶための準備 その4(行列について)試験問題
機械学習を学ぶための準備 その4(行列について)試験問題
 
2016word embbed
2016word embbed2016word embbed
2016word embbed
 
【SIROK技術勉強会 #4】機械学習と線形代数の基礎
【SIROK技術勉強会 #4】機械学習と線形代数の基礎【SIROK技術勉強会 #4】機械学習と線形代数の基礎
【SIROK技術勉強会 #4】機械学習と線形代数の基礎
 
機械学習を学ぶための準備 その3(行列について)試験問題
機械学習を学ぶための準備 その3(行列について)試験問題機械学習を学ぶための準備 その3(行列について)試験問題
機械学習を学ぶための準備 その3(行列について)試験問題
 
Tensor flowと機械学習に必要な数学を基礎から学ぶ会 lt_20170118
Tensor flowと機械学習に必要な数学を基礎から学ぶ会 lt_20170118Tensor flowと機械学習に必要な数学を基礎から学ぶ会 lt_20170118
Tensor flowと機械学習に必要な数学を基礎から学ぶ会 lt_20170118
 
機械学習を学ぶための準備 その4 (行列の掛け算について) 試験問題 解答
機械学習を学ぶための準備 その4  (行列の掛け算について) 試験問題 解答機械学習を学ぶための準備 その4  (行列の掛け算について) 試験問題 解答
機械学習を学ぶための準備 その4 (行列の掛け算について) 試験問題 解答
 
TensorFlow User Group #1
TensorFlow User Group #1TensorFlow User Group #1
TensorFlow User Group #1
 
深層学習(ディープラーニング)入門勉強会資料(浅川)
深層学習(ディープラーニング)入門勉強会資料(浅川)深層学習(ディープラーニング)入門勉強会資料(浅川)
深層学習(ディープラーニング)入門勉強会資料(浅川)
 
TensorFlowで学ぶDQN
TensorFlowで学ぶDQNTensorFlowで学ぶDQN
TensorFlowで学ぶDQN
 
なにわTech20170218(tpu) tfug
なにわTech20170218(tpu) tfugなにわTech20170218(tpu) tfug
なにわTech20170218(tpu) tfug
 
ベイズ推定とDeep Learningを使用したレコメンドエンジン開発
ベイズ推定とDeep Learningを使用したレコメンドエンジン開発ベイズ推定とDeep Learningを使用したレコメンドエンジン開発
ベイズ推定とDeep Learningを使用したレコメンドエンジン開発
 
Tensor flow usergroup 2016 (公開版)
Tensor flow usergroup 2016 (公開版)Tensor flow usergroup 2016 (公開版)
Tensor flow usergroup 2016 (公開版)
 

Similaire à Linera lgebra

行列とSupノルム
行列とSupノルム行列とSupノルム
行列とSupノルム政孝 鍋島
 
Rのoptim関数でロバスト回帰(LMSとLAV)
Rのoptim関数でロバスト回帰(LMSとLAV)Rのoptim関数でロバスト回帰(LMSとLAV)
Rのoptim関数でロバスト回帰(LMSとLAV)wada, kazumi
 
2014年度秋学期 応用数学(解析) 第1回 イントロダクション (2014. 9. 25)
2014年度秋学期 応用数学(解析) 第1回 イントロダクション (2014. 9. 25)2014年度秋学期 応用数学(解析) 第1回 イントロダクション (2014. 9. 25)
2014年度秋学期 応用数学(解析) 第1回 イントロダクション (2014. 9. 25)Akira Asano
 
応用数学まとめ
応用数学まとめ応用数学まとめ
応用数学まとめTK D
 
データ解析2 線形代数の復習
データ解析2 線形代数の復習データ解析2 線形代数の復習
データ解析2 線形代数の復習Hirotaka Hachiya
 
複素数・四元数と図形の回転
複素数・四元数と図形の回転複素数・四元数と図形の回転
複素数・四元数と図形の回転Yoshihiro Mizoguchi
 
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第7回 2階線形微分方程式(1) (2014. 11. 6)
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第7回 2階線形微分方程式(1) (2014. 11. 6)2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第7回 2階線形微分方程式(1) (2014. 11. 6)
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第7回 2階線形微分方程式(1) (2014. 11. 6)Akira Asano
 
Deep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___informationDeep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___informationtakutori
 
「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう
「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう 「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう
「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう Junpei Tsuji
 
mathemaical_notation
mathemaical_notationmathemaical_notation
mathemaical_notationKenta Oono
 
ベクトルで理解する相関係数
ベクトルで理解する相関係数ベクトルで理解する相関係数
ベクトルで理解する相関係数Satoshi MATSUURA
 
2015年度秋学期 応用数学(解析) 第8回 2階線形微分方程式(2) (2015. 11. 19)
2015年度秋学期 応用数学(解析) 第8回 2階線形微分方程式(2) (2015. 11. 19)2015年度秋学期 応用数学(解析) 第8回 2階線形微分方程式(2) (2015. 11. 19)
2015年度秋学期 応用数学(解析) 第8回 2階線形微分方程式(2) (2015. 11. 19)Akira Asano
 
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第8回 2階線形微分方程式(2) (2014. 11. 13)
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第8回 2階線形微分方程式(2) (2014. 11. 13)2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第8回 2階線形微分方程式(2) (2014. 11. 13)
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第8回 2階線形微分方程式(2) (2014. 11. 13)Akira Asano
 
LU分解について
LU分解についてLU分解について
LU分解についてJayson Toma
 
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)Yukara Ikemiya
 
凸角形全体の位相の性質
凸角形全体の位相の性質凸角形全体の位相の性質
凸角形全体の位相の性質nabeshimamasataka
 
凸角形全体の位相の性質
凸角形全体の位相の性質 凸角形全体の位相の性質
凸角形全体の位相の性質 政孝 鍋島
 
Math tutorial public
Math tutorial publicMath tutorial public
Math tutorial publicKenta Oono
 

Similaire à Linera lgebra (20)

行列とSupノルム
行列とSupノルム行列とSupノルム
行列とSupノルム
 
Re revenge chap03-1
Re revenge chap03-1Re revenge chap03-1
Re revenge chap03-1
 
Rのoptim関数でロバスト回帰(LMSとLAV)
Rのoptim関数でロバスト回帰(LMSとLAV)Rのoptim関数でロバスト回帰(LMSとLAV)
Rのoptim関数でロバスト回帰(LMSとLAV)
 
2014年度秋学期 応用数学(解析) 第1回 イントロダクション (2014. 9. 25)
2014年度秋学期 応用数学(解析) 第1回 イントロダクション (2014. 9. 25)2014年度秋学期 応用数学(解析) 第1回 イントロダクション (2014. 9. 25)
2014年度秋学期 応用数学(解析) 第1回 イントロダクション (2014. 9. 25)
 
2013 03 25
2013 03 252013 03 25
2013 03 25
 
応用数学まとめ
応用数学まとめ応用数学まとめ
応用数学まとめ
 
データ解析2 線形代数の復習
データ解析2 線形代数の復習データ解析2 線形代数の復習
データ解析2 線形代数の復習
 
複素数・四元数と図形の回転
複素数・四元数と図形の回転複素数・四元数と図形の回転
複素数・四元数と図形の回転
 
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第7回 2階線形微分方程式(1) (2014. 11. 6)
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第7回 2階線形微分方程式(1) (2014. 11. 6)2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第7回 2階線形微分方程式(1) (2014. 11. 6)
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第7回 2階線形微分方程式(1) (2014. 11. 6)
 
Deep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___informationDeep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___information
 
「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう
「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう 「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう
「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう
 
mathemaical_notation
mathemaical_notationmathemaical_notation
mathemaical_notation
 
ベクトルで理解する相関係数
ベクトルで理解する相関係数ベクトルで理解する相関係数
ベクトルで理解する相関係数
 
2015年度秋学期 応用数学(解析) 第8回 2階線形微分方程式(2) (2015. 11. 19)
2015年度秋学期 応用数学(解析) 第8回 2階線形微分方程式(2) (2015. 11. 19)2015年度秋学期 応用数学(解析) 第8回 2階線形微分方程式(2) (2015. 11. 19)
2015年度秋学期 応用数学(解析) 第8回 2階線形微分方程式(2) (2015. 11. 19)
 
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第8回 2階線形微分方程式(2) (2014. 11. 13)
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第8回 2階線形微分方程式(2) (2014. 11. 13)2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第8回 2階線形微分方程式(2) (2014. 11. 13)
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第8回 2階線形微分方程式(2) (2014. 11. 13)
 
LU分解について
LU分解についてLU分解について
LU分解について
 
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)
 
凸角形全体の位相の性質
凸角形全体の位相の性質凸角形全体の位相の性質
凸角形全体の位相の性質
 
凸角形全体の位相の性質
凸角形全体の位相の性質 凸角形全体の位相の性質
凸角形全体の位相の性質
 
Math tutorial public
Math tutorial publicMath tutorial public
Math tutorial public
 

Plus de Shin Asakawa

2016word embbed supp
2016word embbed supp2016word embbed supp
2016word embbed suppShin Asakawa
 
2016人工知能と経済の未来合評会資料
2016人工知能と経済の未来合評会資料2016人工知能と経済の未来合評会資料
2016人工知能と経済の未来合評会資料Shin Asakawa
 
dl-with-python01_handout
dl-with-python01_handoutdl-with-python01_handout
dl-with-python01_handoutShin Asakawa
 

Plus de Shin Asakawa (8)

2016word embbed supp
2016word embbed supp2016word embbed supp
2016word embbed supp
 
2016 dg2
2016 dg22016 dg2
2016 dg2
 
2016人工知能と経済の未来合評会資料
2016人工知能と経済の未来合評会資料2016人工知能と経済の未来合評会資料
2016人工知能と経済の未来合評会資料
 
2016tf study5
2016tf study52016tf study5
2016tf study5
 
dl-with-python01_handout
dl-with-python01_handoutdl-with-python01_handout
dl-with-python01_handout
 
Rnncamp2handout
Rnncamp2handoutRnncamp2handout
Rnncamp2handout
 
Rnncamp01
Rnncamp01Rnncamp01
Rnncamp01
 
Rnncamp01
Rnncamp01Rnncamp01
Rnncamp01
 

Linera lgebra

  • 1. 線形数学 Linear algebra 浅川伸一 平成 28 年 10 月 12 日 1 Vector いくつかの数値をまとめて表現する方法である. x = (x1, x2, . . . , xn) これ に対して, 普通の意味での数値をスカラ scalor という. 行ベクトル raw vectorとは n 個の数値が横に並んだもので,a = (a1, a2, . . . , an) と表記する.列ベクトル column vector とは n 個の数値が縦に並んだもであ り,b =       b1 b2 ... bn       および bt = (b1, b2, . . . , bn) とベクトルの肩に t や ′ をつ けて表記することもある. 1.1 ノルム ベクトルのノルム norm あるいはユークリッドノルムとはベクトルの長さ のことであり,|a| = √ a′a = ∑ i a2 i と表記する.|x| = 1 ならば正則化され たベクトルという. 1.2 内積 同じ次元をもつ 2 つのベクトルの内積 inner product を at b または (a · b) と表記する.これは (a · b) = |a| |b| cos θ = n∑ i=1 aibi である.2 つのベクトル なす角 θ は cos θ = (a · b) |a| |b| (1) である.内積は 2 つのベクトルの共線性,すなわち平行の度合の尺度となり, 特に (a · b) = 0 ならばそれら 2 本のベクトルは直交し,|x′ y| = |x| |y| なら ばそれら 2 本のベクトルは平行である.ベクトルのノルムと内積については 以下の関係が成立する. 1
  • 2. 1. |a|2 = (a · a) 2. |a + b| 2 = |a| 2 + |b| 2 + 2 (a · b) 3. (αa · b) = (a · αb) = α (a · b) 4. |a| 2 = 0 ⇐⇒ a = 0 ここで α はスカラである. ベクトルの内積からコーシー・シュワルツ Cauchy–Schwarz の不等式 (a · b) 2 ≤ |a| 2 |b| 2 (2) (∑ aibi )2 ≤ (∑ a2 i ) (∑ b2 i ) (3) が導き出せる. 証明は,任意の実数 t に対して |a − tb| 2 = |a| 2 − 2t (a · b) + t2 |b| 2 ≥ 0 (4) が常に成立するためには,判別式 D が負であればよい. 従って D = (a · b) 2 − |a| 2 |b| 2 ≤ 0 (5) ゆえに (a · b) 2 ≤ |a| 2 |b| 2 (6) が成り立つ. 1.3 ベクトル間の距離 2 本のベクトル間の距離を d(a, b) = |a − b| (7) と定義すれば,次のことが成り立つ. 1. d(a, b) ≥ 0 2. d(a, b) = 0 ⇐⇒ a = b 3. d(a, b) = d(b, a) 4. d(a, b) + d(b, c) ≥ d(a, c) 最後のものは,いわゆる三角不等式とよばれるものである. 2
  • 3. 2 行列 Matrix 数値を縦横の矩形に配置したものを行列という.A = (aij) などと表され る.これは i 行 j 列目の要素が aij であるという意味である.行数と列数の 等しい行列を正方行列という. すべての要素が 0 である行列を零行列といい 0 と太文字を使って表される. ある行列の行と列とを入れ換えた行列を転置行列といい,行列の肩に t ま たは ′ をつけて表す A′ = (aji).転置行列には次のような性質がある. • ( A′ )′ = A • (A + B) ′ = A′ + B′ • (AB) ′ = B′ A′ 転置行列ともとの行列が等しいとき,その行列を対称行列という A′ = A.aii 要素がゼロでなく,他の要素が全てゼロ aij = 0, (i ̸= j) である行列を対角行 列という.D =       d1 0 · · · 0 0 d2 ... ... 0 dn       対角要素が全て 1 の対角行列を単位 行列といい I = (δij) などと表す.ここで,δ はクロネッカー kronecker の デルタと呼ばれ δij = { 1 i = j のとき 0 i ̸= j のとき (8) である. 2.1 行列のスカラ倍 行列のスカラ倍とは行列の各成分をスカラ倍したものであり,次のような 演算が許される.ここで lambda はスカラである. • λA = Aλ • (λ + µ) A = λA + µA • λ (A + B) = λA + λB 2.2 行列の和 行列の和は対応する各要素を加えたものである.このため行数と列数が等 しい行列間でしか行列の和は定義されない.行列の和には次のような規則が ある. 3
  • 4. • A + B = B + A • (A + B) + C = A + (B + C) 2.3 行列の積 2 つの行列の積は次のように定義される. AnmBml =   m∑ j=1 aijbjk   (9) 一般に AB ̸= BA である.行列の積には次のような性質がある. • (AB) C = A (BC) • A (B + C) = AB + AC • IA = AI = A 2.4 行列式 一般に d × d の正方行列の行列式はスカラで det (A) あるいは |A| などと 表す. 2 次の正方行列 A = ( a1 b1 a2 b2 ) の行列式は a = ( a1 a2 ) , b = ( b1 b2 ) とすれば, a1b2 − a2b1 であり, この 2 本のベクトルによって作られる平行四 辺形の面積に等しい. |a| |b| sin θ = |a| |b| √ 1 − cos2 θ (10) = √ |a|2 |b|2 { |a|2 |b|2 − (a · b)2 |a|2 |b|2 } (11) = √ |a|2 |b|2 − (a · b)2 (12) = √ a2 1b2 2 + a2 2b2 1 − 2a1b1a2b2 (13) = √ (a1b2 − a2b1) 2 (14) = a1b2 − a2b1 (15) (16) A の列をベクトルと考え,それらのベクトルが線形独立ではないとすると A の行列式は 0 になる.逆行列が存在するためには行列式が 0 であっては ならない. 一般の正方行列の行列式は,小行列展開と呼ばれる方法で計算でき,再帰 的に定義できる.すなわち,行列 A の i 行 j 列を除いて得られる m − 1 行 4
  • 5. m − i 列の小行列の行列式に (−1)i+j をかけたものを aij の余因子 cofactor といい, Aij と表記する.このとき次の関係が成り立つ. |A| = m∑ j=1 aijAij = m∑ i=1 aijAij (17) |Aij| が分かれば A の行列式は第 1 列に対して次のように展開できる.ここ で符合が交互に変わる. |A| = a11 |A11| − a22 |A21| + a31 |A31| − · · · ± md1 |Ad1| (18) この過程はより小さい行列の行列式に対して再帰的に繰り返し適用できる. 行列式には次のような性質がある. • 対角行列, 三角行列の行列式はすべての対角成分の積に等しい. |A| = n∏ i=1 aii • A の任意の2列(行)を入れ換えると |A| の符号が変わる • A′ = |A| • |AB| = |A| |B| • |AB| = |BA| • A−1 = |A| −1 2.5 逆行列 正方行列の行列式が 0 でなければ逆行列が存在する.行列 A にある行列 を掛けて答が単位行列になるような行列を逆行列といい AA−1 = I と表さ れる.逆行列には次の性質が成り立つ. • ( A−1 )−1 = A • ( A′ )−1 = ( A−1 )′ • (AB) −1 = B−1 A−1 • (λA) −1 = 1 λ A−1 • ( A−1 + B−1 )−1 = A (A + B) −1 B = B (A + B) −1 A 5
  • 6. 次の逆行列を求めよ ( a b c d ) ( cos θ − sin θ sin θ cos θ )    1 1 1 0 1 1 0 0 1    行列 M が正方行列でないときや,行列 M の列が線形独立でないため逆 行列 M−1 が存在しないとき次の擬似逆行列 M† が定義できる. M† = [ Mt M ]−1 Mt (19) 擬似逆行列は M† M = I が保証されるので最小問題を解くとき便利である. 2.6 直交行列 orthogonal matirx L′ L = I, L′ = L−1 を満たす行列を直交行列という. 2.7 トレース Trace . d × d の正方行列の対角要素の和をトレースといい tr (A) = n∑ i=1 aii のよ うに表す.行列のトレースには次の性質がある.ここで c, d はスカラである. • tr (cA + dB) = c tr (A) + d tr (B) • tr (AB) = tr (BA) • tr ( A′ A ) = m∑ j=1 n∑ i=1 a2 ij • tr A ( A′ A )−1 A′ = m (ただし A は rank A = m の n × m 行列) • tr (AB) = tr (BA) • tr (A′ A) = 0 ⇐⇒ A = 0 • tr (A′ B) ≤ √ tr (A′ A) tr (B′ B) Cauchy–Schwarz の不等式の一般化 6
  • 7. 3 ベクトル空間 Vector space m 個の 0 でないベクトル a1, a2, . . . , am をもちいて α1a1 + α2a2 + . . . + αmam = 0 が成り立つ条件を考える. αi = 0 (i = 1, 2, . . . , m) のときは明らかに成り立 つ. 上式が αi = 0 (i = 1, 2, . . . , m) 以外の自明でない解をもつとき, ベクトル a1, a2, . . . , am は線形従属(1次従属)linearly dependent であるという. 反 対に, 上式が成り立つのは ai = 0 (i = 1, 2, . . . , m) に限るとき, 線形独立(1 次独立)linearly independent であるという. a1, a2, . . . , am が線形独立なとき, ai ̸= 0 を使って bk = −ak/ai (k = 1, 2, . . . , m) を作って ai = b1a1 + · · · + bi−1ai−1 + bi+1ai+1 + · · · + bmam となる. したがって, あるベクトルの組が線形従属であるということは, その 組の中のあるベクトルが他のベクトルの線形結合で表されることを意味して いる. 3.1 線形部分空間 liner subspace m 個の線形独立なベクトルの線形結合の集合を W = { b b = m∑ i=1 aiai } と表現する. m 次元ベクトル全体の集合を Em とする, Em の部分集合 W が 1. a ∈ W, b ∈ W → a + b ∈ W 2. a ∈ W → ca ∈ W を満たすとき, これを m 次元の線形部分空間という. 3.2 基底 basis 任意の線形部分空間 W で線形独立な m 個のベクトルが存在し, (m + 1) 個のベクトルは線形従属になるとき W の次元は r であるといい, dim W と 表記する. 上記の W に属する線形独立な m 個のベクトルを空間 W の基底 という. また, 空間 W は m 個のベクトルによって生成されるという. この ことを W = S (a1, a2, . . . , am) = S (A) 7
  • 8. と表す. 重要な定理 m 次元の部分空間 W に属する m 個の線形独立なベクトルを a1, a2, . . . , am とすると, W に属する任意のベクトルは a1, a2, . . . , am の線形結合としてただ一通りに定まる. つまり, 線形部分空間の任意のベクトルは, その空間を定める基底を用いて表 現可能である. 一般に, 基底の定め方は一通りではない. a1, a2, . . . , am が W の基底で全 てが直交するとき, 直交基底 orthogonal basis という. さらに, bj = aj/ |aj| とすると, |bj| = 1 (1 ≤ j ≤ m) となる. これを正規直交基底 orthonormal basis という. b1, b2, . . . .bm が正規直交基底のとき (bi · bj) = δij である. 3.3 ランク rank A m × n 行列 A の行ベクトルのうちで線形独立なベクトルの個数は A の列ベクトルのうちで線形独立なベクトルの個数に等しい. この線形独立 なベクトルの個数のことを行列 A のランクという. • |A| = 0 ⇔ rank A m (A は m 次の正方行列) • rank A = rank A′ • rank (AB) ≤ max (rank A, rank B) • rank A = rank ( A′ A ) = rank ( AA′ ) 3.4 空間の分割 2 つのベクトルの組 A = (a1, a2, · · · , ap), B = (b1, b2, · · · , bq)  によっ て生成される部分空間をそれぞれ, VA = S (A), VB = S (B) とするこのとき, 和空間: 2 つの部分空間の和, VA + VB = {a + b |a ∈ VA, b ∈ VB } は線形 部分空間になる. これを和空間と呼び, 次のように表記する. VA∪B = VA + VB = S (A : B) 8
  • 9. 積空間: 2 つの部分空間の共通部分, VA∩B = {x |x = Aα = Bβ } も, 線形部分空間であり, これを積空間と呼ぶ. 次のように表記する. VA∩B = VA ∩ VB 直和分解: VA ∩ VB = {0} のとき, 和空間 VA∪B は VA と VB とに直和分解 されたと呼び, 次のように表記する. また, VA と VB は独立であるとも いう. VA∪B = VA ⊕ VB 補空間: 全空間 En が二つの空間 V と W とに直和分解されるとき, W は V の補空間 complementary space といい WC と表記する. 直交補空間: W に属する任意のベクトルが V に属する任意のベクトルと直 交するとき, W は V の直交補空間 orthocoplementary space といい, W = V ⊥ と表記する. V ⊥ = {a |(a · b) = 0, ∃ b ∈ V } 全空間 En が r 個の独立な空間 Wj (j = 1, 2, . . . , r) に直和分解される ときは, 次のように書く. En = W1 ⊕ W2 ⊕ · · · ⊕ Wr 部分空間の次元に関する定理 1. dim (VA∪B) = dimVA + dimVB − dimVA∩B 2. dim (VA ⊕ VB) = dimVA + dimVB 3. dimV C = n − dimV また, W = W1 ⊕ W2 ⊕ · · · ⊕ Wr に含まれる任意のベクトル x は x = x1 + x2 + · · · + xr (xi ∈ Wi) とただ一通りに分解される. 9
  • 10. 3.5 線形変換 m 次元ベクトル x を n 次元ベクトル y に対応させることを考え, y = ϕ (x) と表記する. 次の性質をもつ変換 ϕ を線形変換という. 1. ϕ (αx) = αϕ (x). 2. ϕ (x + y) = ϕ (x) + ϕ (y). 任意の m 次元ベクトル x を n 次元ベクトル y に対応させる線形変換 ϕ は m 個の n 次元ベクトルによって構成される m×n 行列 A = (a1, a2, · · · , am) をもちいて, y = Ax と表現される. 3.6 射影行列 En = V ⊕ W のとき, En に含まれる任意のベクトル x は x = x1 + x2 (where, x1 ∈ V, x2 ∈ W) とただ一通りに分解される. このとき, x を x1 に移す変換を W に沿った V への射影 projection という. 基本性質 P ,Q を射影行列とすると以下の性質が成り立つ • べき等性 P 2 = P (必要十分条件) • 対称性 x′ (P y) = x′ P ′ y = ( P x′ y ) • 直交性 P Q = 0 • 相補性 P + Q = I 定理 P が射影行列ならば Q = I − P も射影行列である. 証明: QQ = (I − P ) (I − P ) = I + P − P + P = I − P = Q 定理 P Q = QP = 0 証明: P Q = P (I − P ) = P − P = 0 10
  • 11. 4 固有値 Eigen value たとえば, A = ( 1 1 2 1 2 1 ) として, ( x y ) をどこに写すかを考える. ( x′ y′ ) = A ( x y ) = ( x + y 2 x 2 + y ) この行列 A は y = x と y = −x という直線の方向については拡大, 縮小しか しない. すなわち A ( x x ) = 3 2 ( x x ) A ( x −x ) = 1 2 ( x −x ) そこで任意のベクトル x = (x, y)′ をこの 2 つのベクトルに分解して考える. すなわち, Ax = Ax1 + Ax2 = 3 2 x1 + 1 2 x2 1. A には 2 つの比例拡大(縮小)の方向がある 2. A はその 2 つの方向への作用の和として表される これを一般化すると n 次の正方行列 A に対して Ax = λx (x ̸= 0) を満たすベクトル x を A の固有ベクトル, λ を A の固有値という. そこで, 以下の問題を考える 問題 1. 正方行列 A の固有ベクトルと固有値を求める方法を考える 問題 2. 求めた固有ベクトルでベクトル空間の基底が作れるような行列を判 別する方法を考える 定理 正方行列 A の固有値は λ の代数方程式 det (A − λI) = 0 の根であ る. 逆にこの方程式の根は A の固有値である 証明 x(̸= 0) を A の一つの固有ベクトル, λ0 を対応する固有値とすると Ax = λ0x Ax − λ0x = 0 これは x = (x1, x2, · · · , xn)′ に関する連立一次方程式である. これが 0 でな い解 x をもっているのだから, その係数の行列式は 0 でなければならない. 逆にあるスカラー λ0 が det (A − λ0I) = 0 を満たせば (Ax − λ0I) x = 0 は少なくとも一つの 0 でない解 x を持つ. そのとき Ax = λ0x (x ̸= 0) だから, x は A の固有ベクトルであり, λ0 は対応する固有値である. 11
  • 12. 4.1 固有値の求めかた det (A − λI) = 0 のとき, 次の各根 λ1, λ2,· · · ,λn に対して連立方程式 (A − λiI) = 0 をといて x1,x2,· · · ,xn を求めればよい. 例 1 A = ( 1 1 2 1 2 1 ) の固有方程式は det (A − λI) = 1 − λ 1 2 1 2 1 − λ = ( 1 − λ − 1 2 ) ( 1 − λ + 1 2 ) = 0 ゆえに λ = 1 2 , 3 2 • λ1 = 1 2 に対応する A の固有値ベクトルは (A − λI) x1 = {( 1 1 2 1 2 1 ) − 1 2 ( 1 0 0 1 )} ( l m ) = ( 1 2 1 2 1 2 1 2 ) ( l m ) = ( 0 0 ) l + m = 0, ⇒ l = −m x = c ( 1 −1 ) (c は任意の 0 でない数) • λ2 = 3 2 に対応する A の固有値ベクトルは (A − λI) x2 = {( 1 1 2 1 2 1 ) − 3 2 ( 1 0 0 1 )} ( l m ) = ( −1 2 1 2 1 2 −1 2 ) ( l m ) = ( 0 0 ) −l + m = 0, ⇒ l = m x = c ( 1 1 ) (c は任意の 0 でない数) 例 2 ( 1 −1 1 1 ) の固有値 (複素数解) 例 3 ( 3 1 −1 1 ) の固有値 (重根) 12
  • 13. 4.2 固有値の用途 n 次の正方行列 A の固有値を対角要素にもつ行列を D とする. この 固有値に対応する固有ベクトル (x1,x1,· · · ,xn) を並べてできた行列を X = (x1, x2, · · · , xn) とすると AX = XD と表すことができる.また同じことだが A は X と D とを用いて A = XDX−1 と表現できる. このとき X の要素である縦ベクトル xi(i = 1, . . . , n), は全 て直交する.すなわち任意のベクトル x が x = x1 + x2 + · · · + xn の形に一意的に分解できることを意味する.x → x1, x → x2, · · · , x → xn に各々射影する操作をそれぞれ P1, P2, · · · , Pn と書くことにすると x (= Ix) = P1x + P2x + · · · + Pnx がすべての x について成立する.写像だけの式にしてみると I = P1 + P2 + · · · + Pn が成立する.このようにベクトルに分解しておくと Ax = Ax1 + Ax2 + · · · + An = λ1x1 + λ2x2 + · · · + λnxn となる.すなわち A は xi 方向には λi 倍する引き伸ばし作用をしているこ とになる.換言すれば A は固有値数だけの引き伸ばし作用の合成によって得 られる写像である.射影演算子 Pi を使って表すと Ax = λ1P1x + λ2P2x + · · · + λnPnx となるので行列だけの関係式にすると A = λ1P1 + λ2P2 + · · · + λnPn が成立することになる.I = P1 + P2 + · · · + Pn が成立するように Ax = λ1P1x + λ2P2x + · · · + λnPnx の形に分解することを行列 A の射影分解ま たはスペクトル分解という.P1, P2, · · · , Pn はそれぞれ λ1, λ2, · · · , λn に対 する固有空間への射影を表している.この Pi を使うと A2 = λ2 1P1 + λ2 2P2 + · · · + λ2 nPn 5A − I = (5λ1 + 1) P1 + (5λ2 + 1) P2 + · · · + (λn − 1) Pn などのように A の多項式も Pi を使って表現できる. 固有値 λi に対する (A − λiI) x = 0 を満たすベクトル x 全体のことを固 有値 λi に対する固有空間という. 13
  • 14. 4.3 固有値の性質 n 次の正方行列 A の固有値を(重複を許して)λ1, λ2, · · · , λn とすると 1. 固有値の積は行列式である ∏n i=1 λi = |A| 2. 固有値の和は行列のトレースである ∑n i=1 λi = tr A 3. A′ の固有値は λ1,λ2,· · · ,λn 4. Ak (k = 1, 2, · · · ) の固有値は λk 1,λk 2,· · · ,λk n 5. f(n) を x の多項式とするとき f(A) の固有値は f(λ1),f(λ2),· · · ,f(λn) 5 行列の微分 d 次元のベクトル,すなわち d 個の変数 x1, x2, . . . , xd をとる関数 f (x) を 考える.このベクトルに関して f(·) の微分すなわち勾配は ∇f (x) = grad f (x) = ∂ (x) ∂x =       ∂f(x) ∂x1 ∂f(x) ∂x2 ... ∂f(x) ∂xd       (20) で計算される. 行列 M の要素がスカラ θ の関数であるとき,行列 M を θ で微分すると 次の行列を得る. ∂M ∂θ =       ∂m11 ∂θ ∂m12 ∂θ · · · ∂m1d ∂θ ∂m21 ∂θ ∂m22 ∂θ · · · ∂m2d ∂θ ... ... ... ... ∂mn1 ∂θ ∂mn2 ∂θ · · · ∂mnd ∂θ       (21) この行列 M の逆行列 M−1 の微分は次のようになる. ∂ ∂θ M−1 = −M−1 ∂M ∂θ M−1 (22) 行列 M およびベクトル y が ベクトル x に独立であるとき,以下の等式 が成り立つ. ∂ ∂x [Mx] = M (23) ∂ ∂x [ yt x ] = ∂ ∂x [ xt y ] = y (24) 14
  • 15. ∂ ∂x [ xt Mx ] = [ M + Mt ] x (25) ここで,M が対称行列ならば ∂ ∂x [ xt Mx ] = 2Mx (26) のように簡単になる. ∂tr ( Xt Y X ) ∂X = ( Y + Y t ) X (27) ∂ ln |X| ∂X = ( Xt )−1 (28) ∂ (xt My) ∂M = xyt (29) ∂ ( xt Mt y ) ∂M = yt x (30) 6 演習問題 1. 次の行列は何行何列か ( 1 3 0 7 −1 2 ) 2. 次の行列の 3 行 2 列目の要素を答えよ            α β γ δ ϵ ζ η θ ι κ λ µ ν ξ o π ρ σ τ υ ϕ χ ψ ω            15
  • 16. 3. A, B, C はそれぞれ 3 行 2 列,3 行 3 列,2 行 3 列の行列とする.以下の うち行列の積が定義できないものに ×, できるものには ⃝ をつけよ. AA AB AC A′ A A′ B A′ C BA BB BC B′ A B′ B B′ C CA CB CC C′ A C′ B C′ C AA′ AB′ AC′ A′ A′ A′ B′ A′ C′ BA′ BB′ BC′ B′ A′ B′ B′ B′ C′ CA′ CB′ CC′ C′ A′ C′ B′ C′ C′ 4. 次の計算をせよ. (a) ( 7 5 1 −1 2 4 ) + ( 3 5 9 11 8 6 ) = (b) ( 2 0 5 )    −9 5 3    = (c) ( 1 2 3 1 ) ( x y ) = (d) ( x y ) ( 1 2 3 1 ) = (e)    ( 3 1 −2 1 )−1    ′ = 5. 次の式を満たす x を求めよ.    2 0 7 0 1 0 1 2 1       −x −14x 7x 0 1 0 x 4x −2x    =    1 0 0 0 1 0 0 0 1    16
  • 17. 6. A = ( 1 2 3 4 ) としたとき次の行列を計算せよ. (a) A3 = (b) A−1 = (c) A2 − 5A − 2I = 7. y =       0 5 8 9       , A =       1 1 1 2 1 3 1 4       としたとき次の行列を計算せよ. (a) A′ A = (b) ( A′ A )−1 = (c) θ = ( A′ A )−1 A′ y = (d) Q = A ( A′ A )−1 A′ = (e) Q′ = (f) Q2 = (g) I − Q = 17
  • 18. (h) (I − Q) (I − Q) = (i) y − Qy = y − Aθ = (j) y′ (I − Q) (I − Q) y = 8. y =       y1 y2 y3 y4       , A =       1 a1 1 a2 1 a3 1 a4       としたとき次の行列を計算せよ. (a) A′ A = (b) ( A′ A )−1 = (c) θ = ( A′ A )−1 A′ y = (d) Q = A ( A′ A )−1 A′ = (e) Q′ = (f) Q2 = (g) I − Q = (h) (I − Q) (I − Q) = 18
  • 19. (i) y − Qy = y − Aθ = (j) y′ (I − Q) (I − Q) y = 9. a = ( 3 2 ) , b = ( −3 1 ) , c = ( 3 −1 ) , d = ( −2 4 ) とする. それぞれの ベクトルをグラフに書け. 19
  • 20. 10. 連立方程式 { x + 2y = 6 3x − y = 4 をグラフを用いて解け. 11. 次の行列 A = ( 1 2 3 −1 ) によって 次の各点 x = (x1, x1)′ はどこ写さ れるかグラフに示せ. (x,y) (x,y) (x,y) (0,0) (0,1) (0,2) (1,0) (1,1) (1,2) (2,0) (2,1) (2,2) 12. 次の行列 A = ( 1 2 3 −1 ) によって y = Ax はどこ写されるかベクト ル y − x をグラフに示せ.さらに A の固有値を求めよ. 13. 次の行列 A = ( 2 0 0 2 ) によって y = Ax はどこ写されるかベクトル y − x をグラフに示せ.さらに A の固有値を求めよ. 14. 次の行列 A = ( −2 0 0 −2 ) によって y = Ax はどこ写されるかベクト ル y − x をグラフに示せ.さらに A の固有値を求めよ. 15. 次の行列 A = ( 1 2 2 1 ) によって y = Ax はどこ写されるかベクトル y − x をグラフに示せ.さらに A の固有値を求めよ. 16. 次の行列 A = ( 0 1 −1 4 −5 4 ) によって y = Ax はどこ写されるかベク トル y − x をグラフに示せ.さらに A の固有値を求めせ. 17. 次の行列 A = ( 2 1 1 2 ) によって y = Ax はどこ写されるかベクトル y − x をグラフに示せ.さらに A の固有値を求めせ. 18. 次の行列 A = ( 0 1 −26 −2 ) によって y = Ax はどこ写されるかベク トル y − x をグラフに示せ.さらに A の固有値を求めせ. 19. 次の行列 A = ( 0 5 −2 2 ) によって y = Ax はどこ写されるかベクト ル y − x をグラフに示せ.さらに A の固有値を求めせ. 20
  • 21. 20. 次の行列 A = ( 0 1 −1 4 0 ) によって y = Ax はどこ写されるかベクト ル y − x をグラフに示せ.さらに A の固有値を求めせ. 21. 次の行列 A = ( 2 1 1 1 2 ) によって y = Ax はどこ写されるかベクトル y − x をグラフに示せ.さらに A の固有値を求めせ. 21