SlideShare une entreprise Scribd logo
1  sur  12
Télécharger pour lire hors ligne
PRML 3章 線形回帰モデル
 3.1 ∼ 3.1.2
pp. 135-141

PRML復復習レーン #3
2012/07/16                                   yag_ays



 図は全てhttp://research.microsoft.com/en-us/um/people/cmbishop/prml/webfigs.htmより
3.1∼3.1.2のあらすじ


• 線形回帰
 • 入力変数から目標変数を予測
 • 入力変数に関して非線形な関数を導入する   (xn )

• 最尤推定と最小二乗法
 • パラメータを推定する
• 最小二乗法の幾何学
3.1 線形基底関数モデル

最も単純な線形回帰モデルを考える
        y(x, w) = w0 + w1 x1 + · · · + wD xd


  入力変数: x = (x1 , . . . xD )T
 パラメータ: w = (w0 , . . . wD )T



  入力変数に関して線形関数に                           基底関数の
なっているため,表現能力に乏しい                            導入
入力変数に関して非線形な関数                      j (x) を噛ませる

                         M 1
                         X
        y(x, w) = w0 +         wj   j (x)
                         j=1



バイアスパラメータ w0 を整理して
              M 1
              X
                              T
    y(x, w) =     wj j (x) = w (x)
                                     ただし
               j=0
                                            0 (x)   =1

         関数 y(x, w) : 非線形
      パラメータ w       : 線形
       基底関数 j (x) : 非線形
よく用いられる基底関数の例
多項式              ガウス基底関数                               シグモイド関数
                                 ⇢                 2
                                                                   ✓                ◆
             j                       (x     µj )                       x       µj
j (x)   =x       j (x)   = exp
                                          2s2
                                                       j (x)   =
                                                                           s




   • その他
    • スプライン関数で範囲を区切る
    • フーリエ基底やウェーブレットも
3.1.1 最尤推定と最小二乗法

目的変数 が関数    とノイズ で与えられる時
    t   y(x, w) ✏
    t = y(x, w) + ✏


ノイズがガウス分布に従うとすると
  p(t|x, w, ) = N (t|y(x, w), 1 )


入力ベクトルと目標値が与えられた時の尤度関数は
                 N
                 Y
                           T       1
   p(t|X, w, ) =   N (tn |w (xn ),   )
                      n=1
両辺対数を取って N
                  X
                            T               1
 ln p(t|X, w, ) =   N (tn |w (xn ),             )
                 n=1
                 N           N
               =   ln          ln 2⇡       ED (w)
                 2           2

このとき,二乗和誤差関数は
                XN
              1                     T            2
     ED (w) =       {tn         w       (xn )}
              2 n=1


尤度関数の最大化 = 二乗和誤差関数の最小化 なので
                    N
                    X
                           T             T
 r ln p(t|X, w, ) =   {tn w (xn )} (xn )
                       n=1
勾配を0とおいて w について解く
        N                                N
                                                                 !
        X                T
                                         X                   T
                                     T
   0=         tn (xn )           w             (xn ) (xn )
        n=1                              n=1
                                                     (展開しただけ)

w について解く
  wML = ( T )      1     T
                             t




         計画行列
バイアスパラメータw0 の解釈
バイアスパラメータを残したまま
  二乗和誤差関数を求めると
            XN               M 1
                             X
          1                                     2
 ED (w) =       {tn   w0           wj   j (xn )}
          2 n=1              j=1



w0 について解くと
                      M 1
                      X
                  ¯
             w0 = t          wj    j
                       j=1

                      N                           XN
                   1 X                          1
            ただし, =
                ¯
                t        tn               j   =         j (xn )
                   N n=1                        N n=1
バイアスパラメータw0 の解釈
                     M 1
                     X
                ¯
           w0 = t          wj    j
                     j=1

    目標変数の平均 ー 基底関数の平均
             N
       ¯  1X                     1X
                                     N
       t=       tn         j   =         j (xn )
          N n=1                  N n=1




また,ノイズの精度パラメータ について
                XN
       1      1                  T                 2
            =       {tn         wM L        (xn )}
       ML     N n=1

     これは回帰関数周りでの目標値との残差分散
3.1.2 最小二乗法の幾何学



幾何学なんて無かった...
3.1.2 最小二乗法の幾何学(補足)
•   皆様から教えてもらったことを自分なりに解釈してみる(ほとんどそ
    のまま).普通に間違ったこと書いてると思うので,指摘して頂けれ
    ば幸い.

•   図3.2の見方としては,tが手前に伸びている.それを部分空間Sに正
    射影したものがy.この図ではM=2,N=3.

•   tのベクトルの要素はデータ点の数N個あるので,tはN次元空間で表
    すことができる.基底関数の数MをNと同じにすればtを正確に表現
    することができるが,それでは過学習のような状態になってしまうた
    め,Nより少ない数(M<N)で何とか表現したい.

•   そのときにM次元空間で扱える範囲でtに一番似せようとしたベクト
    ルがyであり,これはtの正射影ベクトルになる.これがtとyと二乗和
    誤差の幾何学的な関係.

•   「二乗和誤差はyとtの二乗ユークリッド距離に等しい」は,yとtが
    作る三角形のもう一つの辺のこと(これが小さくなるとNより少ない
    次元数でtを上手く表現できていることになって嬉しい)

•   このような幾何学的解釈は,この後もPRML下巻などで出てくるらし
    い

Contenu connexe

Tendances

PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3matsuolab
 
PRML輪読#7
PRML輪読#7PRML輪読#7
PRML輪読#7matsuolab
 
PRML輪読#14
PRML輪読#14PRML輪読#14
PRML輪読#14matsuolab
 
PRML輪読#5
PRML輪読#5PRML輪読#5
PRML輪読#5matsuolab
 
2014.01.23 prml勉強会4.2確率的生成モデル
2014.01.23 prml勉強会4.2確率的生成モデル2014.01.23 prml勉強会4.2確率的生成モデル
2014.01.23 prml勉強会4.2確率的生成モデルTakeshi Sakaki
 
[PRML] パターン認識と機械学習(第2章:確率分布)
[PRML] パターン認識と機械学習(第2章:確率分布)[PRML] パターン認識と機械学習(第2章:確率分布)
[PRML] パターン認識と機械学習(第2章:確率分布)Ryosuke Sasaki
 
PRML輪読#2
PRML輪読#2PRML輪読#2
PRML輪読#2matsuolab
 
PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6Kohei Tomita
 
PRML輪読#6
PRML輪読#6PRML輪読#6
PRML輪読#6matsuolab
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1matsuolab
 
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)Itaru Otomaru
 
PRML輪読#4
PRML輪読#4PRML輪読#4
PRML輪読#4matsuolab
 
PRML輪読#12
PRML輪読#12PRML輪読#12
PRML輪読#12matsuolab
 
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)Ryosuke Sasaki
 
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process ModelsDeep Learning JP
 
PRML 1.6 情報理論
PRML 1.6 情報理論PRML 1.6 情報理論
PRML 1.6 情報理論sleepy_yoshi
 

Tendances (20)

PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3
 
PRML輪読#7
PRML輪読#7PRML輪読#7
PRML輪読#7
 
PRML 第4章
PRML 第4章PRML 第4章
PRML 第4章
 
PRML輪読#14
PRML輪読#14PRML輪読#14
PRML輪読#14
 
PRML輪読#5
PRML輪読#5PRML輪読#5
PRML輪読#5
 
2014.01.23 prml勉強会4.2確率的生成モデル
2014.01.23 prml勉強会4.2確率的生成モデル2014.01.23 prml勉強会4.2確率的生成モデル
2014.01.23 prml勉強会4.2確率的生成モデル
 
[PRML] パターン認識と機械学習(第2章:確率分布)
[PRML] パターン認識と機械学習(第2章:確率分布)[PRML] パターン認識と機械学習(第2章:確率分布)
[PRML] パターン認識と機械学習(第2章:確率分布)
 
PRML輪読#2
PRML輪読#2PRML輪読#2
PRML輪読#2
 
PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6
 
PRML輪読#6
PRML輪読#6PRML輪読#6
PRML輪読#6
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1
 
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
 
PRML輪読#4
PRML輪読#4PRML輪読#4
PRML輪読#4
 
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
 
PRML輪読#12
PRML輪読#12PRML輪読#12
PRML輪読#12
 
PRML chapter7
PRML chapter7PRML chapter7
PRML chapter7
 
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
 
Prml2.1 2.2,2.4-2.5
Prml2.1 2.2,2.4-2.5Prml2.1 2.2,2.4-2.5
Prml2.1 2.2,2.4-2.5
 
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
 
PRML 1.6 情報理論
PRML 1.6 情報理論PRML 1.6 情報理論
PRML 1.6 情報理論
 

En vedette

Osaka prml reading_3.2-3.3.1
Osaka prml reading_3.2-3.3.1Osaka prml reading_3.2-3.3.1
Osaka prml reading_3.2-3.3.1florets1
 
Kdd 2014 Tutorial - the recommender problem revisited
Kdd 2014 Tutorial -  the recommender problem revisitedKdd 2014 Tutorial -  the recommender problem revisited
Kdd 2014 Tutorial - the recommender problem revisitedXavier Amatriain
 
数式を使わずイメージで理解するEMアルゴリズム
数式を使わずイメージで理解するEMアルゴリズム数式を使わずイメージで理解するEMアルゴリズム
数式を使わずイメージで理解するEMアルゴリズム裕樹 奥田
 

En vedette (6)

NICOMI
NICOMINICOMI
NICOMI
 
Osaka prml reading_3.2-3.3.1
Osaka prml reading_3.2-3.3.1Osaka prml reading_3.2-3.3.1
Osaka prml reading_3.2-3.3.1
 
Spotfire_8
Spotfire_8Spotfire_8
Spotfire_8
 
Prml
PrmlPrml
Prml
 
Kdd 2014 Tutorial - the recommender problem revisited
Kdd 2014 Tutorial -  the recommender problem revisitedKdd 2014 Tutorial -  the recommender problem revisited
Kdd 2014 Tutorial - the recommender problem revisited
 
数式を使わずイメージで理解するEMアルゴリズム
数式を使わずイメージで理解するEMアルゴリズム数式を使わずイメージで理解するEMアルゴリズム
数式を使わずイメージで理解するEMアルゴリズム
 

Similaire à Re revenge chap03-1

13.2 隠れマルコフモデル
13.2 隠れマルコフモデル13.2 隠れマルコフモデル
13.2 隠れマルコフモデルshow you
 
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)Yukara Ikemiya
 
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM) コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM) Takahiro (Poly) Horikawa
 
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰sleipnir002
 
「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう
「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう 「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう
「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう Junpei Tsuji
 
確率的主成分分析
確率的主成分分析確率的主成分分析
確率的主成分分析Mika Yoshimura
 
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成Prunus 1350
 
ユークリッド距離以外の距離で教師無しクラスタリング
ユークリッド距離以外の距離で教師無しクラスタリングユークリッド距離以外の距離で教師無しクラスタリング
ユークリッド距離以外の距離で教師無しクラスタリングMaruyama Tetsutaro
 
お披露目会05/2010
お披露目会05/2010お披露目会05/2010
お披露目会05/2010JAVA DM
 
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化Miyoshi Yuya
 
050 確率と確率分布
050 確率と確率分布050 確率と確率分布
050 確率と確率分布t2tarumi
 

Similaire à Re revenge chap03-1 (20)

PRML Chapter5.2
PRML Chapter5.2PRML Chapter5.2
PRML Chapter5.2
 
Prml07
Prml07Prml07
Prml07
 
prml4.1.3-4.1.4
prml4.1.3-4.1.4prml4.1.3-4.1.4
prml4.1.3-4.1.4
 
13.2 隠れマルコフモデル
13.2 隠れマルコフモデル13.2 隠れマルコフモデル
13.2 隠れマルコフモデル
 
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)
 
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM) コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
 
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰
 
「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう
「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう 「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう
「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう
 
確率的主成分分析
確率的主成分分析確率的主成分分析
確率的主成分分析
 
Linera lgebra
Linera lgebraLinera lgebra
Linera lgebra
 
Prml 2.3
Prml 2.3Prml 2.3
Prml 2.3
 
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成
 
ユークリッド距離以外の距離で教師無しクラスタリング
ユークリッド距離以外の距離で教師無しクラスタリングユークリッド距離以外の距離で教師無しクラスタリング
ユークリッド距離以外の距離で教師無しクラスタリング
 
お披露目会05/2010
お披露目会05/2010お披露目会05/2010
お披露目会05/2010
 
Chapter2.3.6
Chapter2.3.6Chapter2.3.6
Chapter2.3.6
 
PRML5
PRML5PRML5
PRML5
 
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化
 
PRML chapter5
PRML chapter5PRML chapter5
PRML chapter5
 
ndwave5.pdf
ndwave5.pdfndwave5.pdf
ndwave5.pdf
 
050 確率と確率分布
050 確率と確率分布050 確率と確率分布
050 確率と確率分布
 

Plus de 裕樹 奥田

Humor Recognition and Humor Anchor Extraction
Humor Recognition and Humor Anchor ExtractionHumor Recognition and Humor Anchor Extraction
Humor Recognition and Humor Anchor Extraction裕樹 奥田
 
20110602labseminar pub
20110602labseminar pub20110602labseminar pub
20110602labseminar pub裕樹 奥田
 
Rを用いた解析の実例 Project *ぶろったん*
Rを用いた解析の実例 Project *ぶろったん*Rを用いた解析の実例 Project *ぶろったん*
Rを用いた解析の実例 Project *ぶろったん*裕樹 奥田
 
Diagramパッケージを使ってみる
Diagramパッケージを使ってみるDiagramパッケージを使ってみる
Diagramパッケージを使ってみる裕樹 奥田
 

Plus de 裕樹 奥田 (8)

Humor Recognition and Humor Anchor Extraction
Humor Recognition and Humor Anchor ExtractionHumor Recognition and Humor Anchor Extraction
Humor Recognition and Humor Anchor Extraction
 
20110602labseminar pub
20110602labseminar pub20110602labseminar pub
20110602labseminar pub
 
bmb2010_g86
bmb2010_g86bmb2010_g86
bmb2010_g86
 
Tsukubar8
Tsukubar8Tsukubar8
Tsukubar8
 
Rを用いた解析の実例 Project *ぶろったん*
Rを用いた解析の実例 Project *ぶろったん*Rを用いた解析の実例 Project *ぶろったん*
Rを用いた解析の実例 Project *ぶろったん*
 
Ajacs17
Ajacs17Ajacs17
Ajacs17
 
ESS
ESSESS
ESS
 
Diagramパッケージを使ってみる
Diagramパッケージを使ってみるDiagramパッケージを使ってみる
Diagramパッケージを使ってみる
 

Re revenge chap03-1

  • 1. PRML 3章 線形回帰モデル 3.1 ∼ 3.1.2 pp. 135-141 PRML復復習レーン #3 2012/07/16 yag_ays 図は全てhttp://research.microsoft.com/en-us/um/people/cmbishop/prml/webfigs.htmより
  • 2. 3.1∼3.1.2のあらすじ • 線形回帰 • 入力変数から目標変数を予測 • 入力変数に関して非線形な関数を導入する (xn ) • 最尤推定と最小二乗法 • パラメータを推定する • 最小二乗法の幾何学
  • 3. 3.1 線形基底関数モデル 最も単純な線形回帰モデルを考える y(x, w) = w0 + w1 x1 + · · · + wD xd 入力変数: x = (x1 , . . . xD )T パラメータ: w = (w0 , . . . wD )T 入力変数に関して線形関数に 基底関数の なっているため,表現能力に乏しい 導入
  • 4. 入力変数に関して非線形な関数 j (x) を噛ませる M 1 X y(x, w) = w0 + wj j (x) j=1 バイアスパラメータ w0 を整理して M 1 X T y(x, w) = wj j (x) = w (x) ただし j=0 0 (x) =1 関数 y(x, w) : 非線形 パラメータ w : 線形 基底関数 j (x) : 非線形
  • 5. よく用いられる基底関数の例 多項式 ガウス基底関数 シグモイド関数 ⇢ 2 ✓ ◆ j (x µj ) x µj j (x) =x j (x) = exp 2s2 j (x) = s • その他 • スプライン関数で範囲を区切る • フーリエ基底やウェーブレットも
  • 6. 3.1.1 最尤推定と最小二乗法 目的変数 が関数    とノイズ で与えられる時 t y(x, w) ✏ t = y(x, w) + ✏ ノイズがガウス分布に従うとすると p(t|x, w, ) = N (t|y(x, w), 1 ) 入力ベクトルと目標値が与えられた時の尤度関数は N Y T 1 p(t|X, w, ) = N (tn |w (xn ), ) n=1
  • 7. 両辺対数を取って N X T 1 ln p(t|X, w, ) = N (tn |w (xn ), ) n=1 N N = ln ln 2⇡ ED (w) 2 2 このとき,二乗和誤差関数は XN 1 T 2 ED (w) = {tn w (xn )} 2 n=1 尤度関数の最大化 = 二乗和誤差関数の最小化 なので N X T T r ln p(t|X, w, ) = {tn w (xn )} (xn ) n=1
  • 8. 勾配を0とおいて w について解く N N ! X T X T T 0= tn (xn ) w (xn ) (xn ) n=1 n=1 (展開しただけ) w について解く wML = ( T ) 1 T t 計画行列
  • 9. バイアスパラメータw0 の解釈 バイアスパラメータを残したまま 二乗和誤差関数を求めると XN M 1 X 1 2 ED (w) = {tn w0 wj j (xn )} 2 n=1 j=1 w0 について解くと M 1 X ¯ w0 = t wj j j=1 N XN 1 X 1 ただし, = ¯ t tn j = j (xn ) N n=1 N n=1
  • 10. バイアスパラメータw0 の解釈 M 1 X ¯ w0 = t wj j j=1 目標変数の平均 ー 基底関数の平均 N ¯ 1X 1X N t= tn j = j (xn ) N n=1 N n=1 また,ノイズの精度パラメータ について XN 1 1 T 2 = {tn wM L (xn )} ML N n=1 これは回帰関数周りでの目標値との残差分散
  • 12. 3.1.2 最小二乗法の幾何学(補足) • 皆様から教えてもらったことを自分なりに解釈してみる(ほとんどそ のまま).普通に間違ったこと書いてると思うので,指摘して頂けれ ば幸い. • 図3.2の見方としては,tが手前に伸びている.それを部分空間Sに正 射影したものがy.この図ではM=2,N=3. • tのベクトルの要素はデータ点の数N個あるので,tはN次元空間で表 すことができる.基底関数の数MをNと同じにすればtを正確に表現 することができるが,それでは過学習のような状態になってしまうた め,Nより少ない数(M<N)で何とか表現したい. • そのときにM次元空間で扱える範囲でtに一番似せようとしたベクト ルがyであり,これはtの正射影ベクトルになる.これがtとyと二乗和 誤差の幾何学的な関係. • 「二乗和誤差はyとtの二乗ユークリッド距離に等しい」は,yとtが 作る三角形のもう一つの辺のこと(これが小さくなるとNより少ない 次元数でtを上手く表現できていることになって嬉しい) • このような幾何学的解釈は,この後もPRML下巻などで出てくるらし い