SlideShare une entreprise Scribd logo
1  sur  58
@piroyoung
自己紹介 
ステータス 
• @piroyoung a,k,a みずかみひろき 
• 数学(ゲーム理論) 
→ SPA企業の総合職(物流・小売) 
→ データナントカ(コンサル)Now! 
• 最近,渋谷が気になる 
スキル・興味・近況 
• R, SQL, Python, Ruby, Jags/Stan 
• データマイニング屋 
• NLPについては何も知らない 
• Scala修行中 
• 新しいものが好き 
• Yo!! 始めました → PIROYOUNG 
• LINEも始めました→ piroyoung 
2
自然言語処理のための 
機械学習入門 
(たかむらぼん) 
1章 必要な数学的知識 
NLPStudy #2 
@piroyoung 
みずかみ ひろき
• 本発表の内容は,あくまでも私個人の見解であり, 
所属する組織や団体とは一切関係がありません. 
• それどころか大部分の情報源が「私の記憶」です. 
記憶力には万全を機してはおりますが,もし間違い 
などありましたら,こっそりご指摘いただければ幸 
いです.
• 1.2 最適化問題 
• 1.2.1 凸集合と凸関数 
• 1.2.2 凸計画問題 
今日やること 
• 1.2.3 等式制約付き凸計画問題 
• 1.2.4 不等式制約付き凸計画問題 
• 1.3 確率 
• 1.3.1 期待値 平均 分散 
• 1.3.2 結合確率と条件付き確率 
• 1.3.3 独立性 
• 1.3.4 代表的な離散確率分布 
• 1.4 連続確率変数 
• 1.4.1 平均・分散 
• 1.4.2 連続確率分布の例 
• 1.5 パラメータ推定法 
• 1.5.1 i.i.dと尤度 
• 1.5.2 最尤推定 
• 1.5.3 最大事後確率推定 
• 1.6 情報理論 
• 1.6.1 エントロピー 
• 1.6.2 KL情報量 
• 1.6.3 JS情報量 
• 1.6.4 自己相互情報量 
• 1.7 この章のまとめ
• 1.2 最適化問題 
• 1.2.1 凸集合と凸関数 
• 1.2.2 凸計画問題 
今日やること 
• 1.2.3 等式制約付き凸計画問題 
• 1.2.4 不等式制約付き凸計画問題 
• 1.3 確率 
• 1.3.1 期待値 平均 分散 
• 1.3.2 結合確率と条件付き確率 
• 1.3.3 独立性 
• 1.3.4 代表的な離散確率分布 
• 1.4 連続確率変数 
• 1.4.1 平均・分散 
• 1.4.2 連続確率分布の例 
• 1.5 パラメータ推定法 
• 1.5.1 i.i.dと尤度 
• 1.5.2 最尤推定 
• 1.5.3 最大事後確率推定 
• 1.6 情報理論 
• 1.6.1 エントロピー 
• 1.6.2 KL情報量 
• 1.6.3 JS情報量 
• 1.6.4 自己相互情報量 
• 1.7 この章のまとめ
突然ですがアンケート 
Q:最尤法を知っていますか?
突然ですがアンケート 
Q:最尤法を知っていますか? 
◾集計結果◾ ◾Yes以外:5% 
◾Yes: % 
950000 ⇥ 104
最尤法の解説 
ゆーどかんすー! 
✓ 
f(Y |✓)
最尤法の解説 
f(Y |✓)
最尤法の解説 
ゆーどかんすー! さいゆーすいて一ち 
f(Y |✓) 
✓ 
★
再び突然ですがアンケート 
Q:最尤法が理解できましたか?
再び突然ですがアンケート 
Q:最尤法が理解できましたか? 
◾Yes:100% 
◾Yes以外:0% 
◾集計結果◾
情報量のあれこれ 
Kullback Leibler divergence (KL情報量) 
• 事前分布 p( ·)の元での情報 Y のKL情報量 D KL (Y || p( ·))を 
DKL (Y ||p(·)) := Ep(·|Y ) 
 
log 
p(·|Y ) 
p(·)
情報量のあれこれ 
Kullback Leibler divergence (KL情報量) 
• 事前分布 p( ·)の元での情報 Y のKL情報量 D KL (Y || p( ·))を 
DKL (Y ||p(·)) := Ep(·|Y ) 
 
log 
p(·|Y ) 
p(·) 
 
DKL( || ) = p(Yes| ) log 
p(Yes| ) 
p(Yes) 
= log 
1 
0.95 
= log 0.95 = 0.05129329 . . . 
確率分布間の「遠さ」のようなもの!! 
要するに・・・
情報量のあれこれ 
Kullback Leibler divergence (KL情報量) 
• 事前分布 p( ·)の元での情報 Y のKL情報量 D KL (Y || p( ·))を 
DKL (Y ||p(·)) := Ep(·|Y ) 
 
log 
p(·|Y ) 
p(·) 
 
要するに当・・た・らずとも遠からず!! 
DKL( || ) = p(Yes| ) log 
p(Yes| ) 
p(Yes) 
= log 
1 
0.95 
= log 0.95 = 0.05129329 . . . 
確率分布間の「遠さ」のようなもの!!
• 1.2 最適化問題 
• 1.2.1 凸集合と凸関数 
• 1.2.2 凸計画問題 
今日やること 
• 1.2.3 等式制約付き凸計画問題 
• 1.2.4 不等式制約付き凸計画問題 
• 1.3 確率 
• 1.3.1 期待値 平均 分散 
• 1.3.2 結合確率と条件付き確率 
• 1.3.3 独立性 
• 1.3.4 代表的な離散確率分布 
• 1.4 連続確率変数 
• 1.4.1 平均・分散 
• 1.4.2 連続確率分布の例 
• 1.5 パラメータ推定法 
• 1.5.1 i.i.dと尤度 
• 1.5.2 最尤推定 
• 1.5.3 最大事後確率推定 
• 1.6 情報理論 
• 1.6.1 エントロピー 
• 1.6.2 KL情報量 
• 1.6.3 JS情報量 
• 1.6.4 自己相互情報量 
• 1.7 この章のまとめ
• 解析的な裏付け中心 (☓ アルゴリズム) 
• 「最適化問題」とは何かがわかる! 
• 最適化問題の分類がわかる!! 
• 凸性が嬉しくなる 
• Lagrangeの未定乗数法 
• KKT条件 
本日のスコープ
1.2 最適化問題 #とは 
1.2.1 凸集合と凸関数 
1.2.2 凸計画問題 
1.2.3 等式制約付き凸計画問題 
1.2.4 不等式制約付き凸計画問題
1.2 最適化問題 #とは 
 
 
 
 
輸送量xij 
 
 
 
 
工場Fi 
出荷上限fi 
倉庫 
wj 需要 
輸送コスト単価cij 
Wj
1.2 最適化問題 #とは 
 
 
 
 
輸送量xij 
 
 
 
 
工場Fi 
出荷上限fi 
:ちゃんと持ってこいよ! 
Wj 
倉庫 
wj 需要 
輸送コスト単価cij 
X 
i 
xij = wj 
Wj
1.2 最適化問題 #とは 
 
 
 
 
輸送量xij 
 
 
 
 
工場Fi 
出荷上限fi 
:ちゃんと持ってこいよ! 
Wj 
倉庫 
wj 需要 
輸送コスト単価cij 
X 
i 
xij = wj 
:俺にも限界がある 
Wj 
Fi 
X 
j 
xij  fi
1.2 最適化問題 #とは 
 
 
 
 
輸送量xij 
 
 
 
 
工場Fi 
出荷上限fi 
:ちゃんと持ってこいよ! 
Wj 
倉庫 
wj 需要 
輸送コスト単価cij 
X 
i 
xij = wj 
:俺にも限界がある 
Wj 
Fi 
X 
j 
xij  fi 
僕:いくらかかかるの? 
f(x) = 
X 
i 
X 
j 
cijxij
1.2 最適化問題 #とは 
 
 
 
 
輸送量xij 
 
 
 
 
工場Fi 
出荷上限fi 
:ちゃんと持ってこいよ! 
Wj 
倉庫 
wj 需要 
輸送コスト単価cij 
X 
i 
xij = wj 
:俺にも限界がある 
Wj 
Fi 
X 
j 
xij  fi 
僕:いくらかかかるの? 
f(x) = 
X 
i 
X 
j 
cijxij 
僕:やすくせえよ!!
1.2 最適化問題 #とは 
 
 
 
 
輸送量xij 
 
 
 
 
工場Fi 
出荷上限fi 
:ちゃんと持ってこいよ! 
Wj 
倉庫 
wj 需要 
輸送コスト単価cij 
X 
i 
xij = wj 
:俺にも限界がある 
Wj 
Fi 
X 
j 
xij  fi 
僕:いくらかかかるの? 
f(x) = 
X 
i 
X 
j 
cijxij 
僕:やすくせえよ!! 
最小化問題!!
1.2 最適化問題 #とは 
 
 
 
 
輸送量xij 
 
 
 
 
工場Fi 
出荷上限fi 
:ちゃんと持ってこいよ! 
Wj 
倉庫 
wj 需要 
輸送コスト単価cij 
X 
i 
xij = wj 
:俺にも限界がある 
Wj 
Fi 
X 
j 
xij  fi 
僕:いくらかかかるの? 
f(x) = 
目的関数 
X 
i 
X 
j 
cijxij 
僕:やすくせえよ!! 
最小化問題!!
1.2 最適化問題 #とは 
 
 
 
 
輸送量xij 
 
 
 
 
工場Fi 
出荷上限fi 
:ちゃんと持ってこいよ! 
Wj 
倉庫 
wj 需要 
輸送コスト単価cij 
X 
i 
制約条件 
xij = wj 
:俺にも限界がある 
Wj 
Fi 
X 
j 
xij  fi 
僕:いくらかかかるの? 
f(x) = 
目的関数 
X 
i 
X 
j 
cijxij 
僕:やすくせえよ!! 
最小化問題!!
1.2 最適化問題 #とは 
・このことを一般にこう書く 
最適化問題 
Minimize : f(x) 
subject to : x 2 S 
・この問題設定は珍しくない. 
制約付き線形回帰 
Minimize : 
kY − bXk2 
subject to : 
bi  0 
f(x) 
x 2 S 
S 
▶目的関数 
▶許容解・実行可能解 
▶実行可能領域 
x⇤s.t.f(x⇤) = min 
▶最適解 
x2S 
f(x) 
• 最大化の問題は最小化問題に帰 
着させられる.
1.2 最適化問題 #とは 
・このことを一般にこう書く 
最適化問題 
Minimize : f(x) 
subject to : x 2 S 
・この問題設定は珍しくない. 
制約付き線形回帰 
Minimize : 
kY − bXk2 
subject to : 
bi  0 
• 最尤法 
▶尤度の最大化 
• サポートベクターマシーン 
▶マージンの最大化 
• 線形回帰 
▶2乗誤差の最小化 
• 金融 
▶リスクの最小化 
▶期待利得の最大化 
• 製造業 
▶コストの最小化 
▶利益の最大化
1.2 最適化問題 #とは 
最適化問題• 一般の場合 
Minimize : f(x) 
subject to : x 2 S 
▶非線形最適化 
• かつ 凸 
▶凸計画 
• かつ線形 
▶線形計画 
▶一般の関数 
▶一般の集合 
▶凸関数 
▶凸集合 
▶1次関数 
▶多面体 
f 
S 
f 
S 
f 
S
1.2 最適化問題 #とは 
最適化問題• 一般の場合 
Minimize : f(x) 
subject to : x 2 S 
▶非線形最適化 
• かつ 凸 
▶凸計画 
• かつ線形 
▶線形計画 
▶一般の関数 
▶一般の集合 
▶凸関数 
▶凸集合 
▶1次関数 
▶多面体 
f 
S 
f 
S 
f 
S 
今回!!
1.2 最適化問題 #とは 
1.2.1 凸集合と凸関数 
1.2.2 凸計画問題 
1.2.3 等式制約付き凸計画問題 
1.2.4 不等式制約付き凸計画問題
1.2.1 凸集合と凸関数 
• 凸集合とは「へこみ」が無い集合▶凸でない集合 
▶凸集合 
S ⇢ Rn が凸集合 
def , 8x, y 2 S 
8 2 [0, 1] 
に対して次が成り立つ 
x + (1 − )y 2 S
1.2.1 凸集合と凸関数 
• 凸集合とは「へこみ」が無い集合 
S ⇢ Rn が凸集合 
def , 8x, y 2 S 
8 2 [0, 1] 
に対して次が成り立つ 
x + (1 − )y 2 S 
▶エピグラフ 
• エピグラフ 
epif = {(x, y) 2 Rn+1|y  f(x), x 2 Rn} 
なる領域 epif を関数 f 
のエピグラフという.
1.2.1 凸集合と凸関数 
• 凸関数は凹みがない関数 
f : R ! Rn が凸関数 
def , epif が凸集合 
• 凸関数の凸集合上での極小解は 
最小解(最適解) 
• の補集合が凸な時はその 
関数を凹関数という. 
epif epif 
• 極値を持つ凸関数 is 狭義凸関数
1.2 最適化問題 #とは 
1.2.1 凸集合と凸関数 
1.2.2 凸計画問題 
1.2.3 等式制約付き凸計画問題 
1.2.4 不等式制約付き凸計画問題
1.2.2 凸計画問題 
• 凸計画問題• この手の問題は結局のところ極値 
を探す問題になる. 
• ご想像の通り線形計画問題は凸計 
画問題 
• 凸計画問題は非線形計画問題 
最適化問題 
Minimize : f(x) 
subject to : x 2 S 
において 
が凸関数 
が凸集合 
f(x) 
S 
なる最適化問題を凸計画問題という
1.2.2 凸計画問題 
• 一般の制約がない場合• この手の問題は結局のところ極値 
を探す問題になる. 
Minimize : f(x) 
x⇤ が最適解であるための.. 
rf(x⇤) = 0 
r2f(x⇤) 
r2f(x⇤) 
▶1次必要条件 = 極値 
:半正定値行列 
:正定値行列 
▶2次必要条件 = 凸関数 
▶2次十分条件 = 狭義凸関数 
r※ rf(x⇤):勾配ベクトル2f(x⇤) :ヘッセ行列
1.2.2 凸計画問題 
• 一般の制約がない場合• この手の問題は結局のところ極値 
を探す問題になる. 
Minimize : f(x) 
x⇤ が最適解であるための.. 
rf(x⇤) = 0 
r2f(x⇤) 
r2f(x⇤) 
▶1次必要条件 = 極値 
:半正定値行列 
:正定値行列 
▶2次必要条件 = 凸関数 
凸計画では1次だけ見れば良い! 
▶2次十分条件 = 狭義凸関数 
r※ rf(x⇤):勾配ベクトル2f(x⇤) :ヘッセ行列
1.2 最適化問題 #とは 
1.2.1 凸集合と凸関数 
1.2.2 凸計画問題 
1.2.3 等式制約付き凸計画問題 
1.2.4 不等式制約付き凸計画問題
1.2.3 等式制約付き凸計画問題 
• 等式制約付き凸計画 
Minimize : f(x) 
subject to : gi(x) = 0 
f(x) 
f(x) x⇤ 
• が極値をとる が許容解とは限らない! 
• このとき1次の必要条件 に変わるものは?? 
rf(x⇤) = 0
1.2.3 等式制約付き凸計画問題 
rg(x⇤) と r f ( x ⇤ ) が一次従属になっている
1.2.3 等式制約付き凸計画問題 
Minimize : f(x) 
subject to : gi(x) = 0 
• 先の図を一般的に・・・ 
9i 2 R s.t. rf(x⇤) = 
X 
i 
irgi(x⇤) 
▶1次必要条件 : 下記を満たす  が存在する.
1.2.3 等式制約付き凸計画問題 
Minimize : f(x) 
subject to : gi(x) = 0 
• 先の図を一般的に・・・ 
▶1次必要条件 : 下記を満たす  が存在する. 
9i 2 R s.t. rf(x⇤) = 
X 
i 
irgi(x⇤) 
• ↑の x⇤ 
の探し方として... 
L(x, ) := f(x⇤)  
X 
i 
igi(x⇤) 
なる関数において下記の解は1次必要条件を満たす! 
! 
!x 
L(x⇤, ⇤) = 0 
! 
! 
L(x⇤, ⇤) = 0
1.2.3 等式制約付き凸計画問題 
Minimize : f(x) 
subject to : gi(x) = 0 
• 先の図を一般的に・・・ 
9i 2 R s.t. rf(x⇤) = 
X 
i 
irgi(x⇤) 
▶1次必要条件 : 下記を満たす が存在する. 
• ↑の x⇤ 
の探し方として... 
L(x, ) := f(x⇤)  
X 
i 
igi(x⇤) 
Lagrangeの未定乗数法 
なる関数において下記の解は1次必要条件を満たす! 
! 
!x 
L(x⇤, ⇤) = 0 
! 
! 
L(x⇤, ⇤) = 0
1.2 最適化問題 #とは 
1.2.1 凸集合と凸関数 
1.2.2 凸計画問題 
1.2.3 等式制約付き凸計画問題 
1.2.4 不等式制約付き凸計画問題
1.2.3 不等式制約付き凸計画問題 
• 不等式制約付き凸計画 
Minimize : f(x) 
subject to : gi(x) = 0 
hj(x)  0 
• 不等式制約 を考慮する最適化問題 
hj(x)  0 
• このとき1次の必要条件 r f ( x ⇤ ) = 0 に変わるものは??
1.2.3 不等式制約付き凸計画問題 
• 有効な制約 
点 x 2 R n で制約 h k ( x )  0 が有効である. 
def , hk(x) = 0 
Minimize : f(x) 
subject to : gi(x) = 0 
hj(x)  0 
▶有効な制約のみで未定乗数法を適用すればよい!
1.2.3 不等式制約付き凸計画問題 
• KKT条件 
Minimize : f(x) 
subject to : gi(x) = 0 
hj(x)  0 
x ⇤ 2 R が最適解であるとする. 
このとき g i 及び がある条件を満たせば 
hj 
rf(x⇤) = irgi(x⇤) + μjrhj(x⇤) 
gi(x⇤) = 0 
hj(x⇤)  0, μj  0, μjhj(x⇤) = 0 
なる  2 R m 及び μ 2 R l が存在する. 
▶制約想定 
▶相補性条件
まとめ
まとめ 
制約なし制約あり 
1次の必要条件KKT条件 
2次の必要条件が半正定値 
Lagrange関数の 
ちょめちょめ 
2次の十分条件正定値 
Lagrange関数の 
ちょめちょめ 
rf(x⇤) = 0 
r2f(x⇤) 
r2f(x⇤)
まとめ 
制約なし制約あり 
1次の必要条件KKT条件 
2次の必要条件が半正定値 
Lagrange関数の 
Hessianが半正定値 
凸計画では1次の必要条件だけみてればいい 
2次の十分条件正定値 
Lagrange関数の 
Hessianが正定値 
rf(x⇤) = 0 
r2f(x⇤) 
r2f(x⇤)
もっと知りたい方へ 
• KKT条件 
• Fakasの補題(二者択一の定理) 
• 強分離定理 (凸解析の話題) 
• ハーン・バナッハの定理(関数解析) 
• Lagrangeの未定乗数法 
• 陰関数の定理
参考文献 
• 本日の教材はこの本の1章 
• 2章の 
「文書および単語の数学的表現」 
• はめっちゃバイブル 
• 次回発表楽しみにしています.
参考文献 
• 薄い本 
• その割に実例のってる. 
• コンパクトに要点がまとまっていま 
す.
参考文献 
• 理論とアルゴリズムのバランスがい 
い感じ. 
• しかも薄い.
参考文献 
• そこそこ重い 
• 質量が大きい 
• 内容が濃い 
• アルゴリズムより 
• 私が学生のときはこんな本なかった! 
• 最適化版PRML!?

Contenu connexe

Tendances

はじめてのパターン認識8章 サポートベクトルマシン
はじめてのパターン認識8章 サポートベクトルマシンはじめてのパターン認識8章 サポートベクトルマシン
はじめてのパターン認識8章 サポートベクトルマシンNobuyukiTakayasu
 
Infinite SVM - ICML 2011 読み会
Infinite SVM - ICML 2011 読み会Infinite SVM - ICML 2011 読み会
Infinite SVM - ICML 2011 読み会Shuyo Nakatani
 
Infinite SVM [改] - ICML 2011 読み会
Infinite SVM [改] - ICML 2011 読み会Infinite SVM [改] - ICML 2011 読み会
Infinite SVM [改] - ICML 2011 読み会Shuyo Nakatani
 
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化Miyoshi Yuya
 
動的計画法入門(An introduction to Dynamic Programming)
動的計画法入門(An introduction to Dynamic Programming)動的計画法入門(An introduction to Dynamic Programming)
動的計画法入門(An introduction to Dynamic Programming)kakira9618
 
Crfと素性テンプレート
Crfと素性テンプレートCrfと素性テンプレート
Crfと素性テンプレートKei Uchiumi
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシンShinya Shimizu
 
R による文書分類入門
R による文書分類入門R による文書分類入門
R による文書分類入門Takeshi Arabiki
 
20170422 数学カフェ Part1
20170422 数学カフェ Part120170422 数学カフェ Part1
20170422 数学カフェ Part1Kenta Oono
 
TokyoNLP#5 パーセプトロンで楽しい仲間がぽぽぽぽ~ん
TokyoNLP#5 パーセプトロンで楽しい仲間がぽぽぽぽ~んTokyoNLP#5 パーセプトロンで楽しい仲間がぽぽぽぽ~ん
TokyoNLP#5 パーセプトロンで楽しい仲間がぽぽぽぽ~んsleepy_yoshi
 
SGD+α: 確率的勾配降下法の現在と未来
SGD+α: 確率的勾配降下法の現在と未来SGD+α: 確率的勾配降下法の現在と未来
SGD+α: 確率的勾配降下法の現在と未来Hidekazu Oiwa
 
2値分類・多クラス分類
2値分類・多クラス分類2値分類・多クラス分類
2値分類・多クラス分類t dev
 
Deep Learning を実装する
Deep Learning を実装するDeep Learning を実装する
Deep Learning を実装するShuhei Iitsuka
 
第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知Chika Inoshita
 
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011Preferred Networks
 
クラシックな機械学習の入門 3. 線形回帰および識別
クラシックな機械学習の入門 3. 線形回帰および識別クラシックな機械学習の入門 3. 線形回帰および識別
クラシックな機械学習の入門 3. 線形回帰および識別Hiroshi Nakagawa
 
機械学習と深層学習の数理
機械学習と深層学習の数理機械学習と深層学習の数理
機械学習と深層学習の数理Ryo Nakamura
 
クラシックな機械学習の入門  5. サポートベクターマシン
クラシックな機械学習の入門  5. サポートベクターマシンクラシックな機械学習の入門  5. サポートベクターマシン
クラシックな機械学習の入門  5. サポートベクターマシンHiroshi Nakagawa
 

Tendances (20)

はじめてのパターン認識8章 サポートベクトルマシン
はじめてのパターン認識8章 サポートベクトルマシンはじめてのパターン認識8章 サポートベクトルマシン
はじめてのパターン認識8章 サポートベクトルマシン
 
Infinite SVM - ICML 2011 読み会
Infinite SVM - ICML 2011 読み会Infinite SVM - ICML 2011 読み会
Infinite SVM - ICML 2011 読み会
 
Infinite SVM [改] - ICML 2011 読み会
Infinite SVM [改] - ICML 2011 読み会Infinite SVM [改] - ICML 2011 読み会
Infinite SVM [改] - ICML 2011 読み会
 
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化
 
動的計画法入門(An introduction to Dynamic Programming)
動的計画法入門(An introduction to Dynamic Programming)動的計画法入門(An introduction to Dynamic Programming)
動的計画法入門(An introduction to Dynamic Programming)
 
Crfと素性テンプレート
Crfと素性テンプレートCrfと素性テンプレート
Crfと素性テンプレート
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン
 
R による文書分類入門
R による文書分類入門R による文書分類入門
R による文書分類入門
 
20170422 数学カフェ Part1
20170422 数学カフェ Part120170422 数学カフェ Part1
20170422 数学カフェ Part1
 
TokyoNLP#5 パーセプトロンで楽しい仲間がぽぽぽぽ~ん
TokyoNLP#5 パーセプトロンで楽しい仲間がぽぽぽぽ~んTokyoNLP#5 パーセプトロンで楽しい仲間がぽぽぽぽ~ん
TokyoNLP#5 パーセプトロンで楽しい仲間がぽぽぽぽ~ん
 
SGD+α: 確率的勾配降下法の現在と未来
SGD+α: 確率的勾配降下法の現在と未来SGD+α: 確率的勾配降下法の現在と未来
SGD+α: 確率的勾配降下法の現在と未来
 
2値分類・多クラス分類
2値分類・多クラス分類2値分類・多クラス分類
2値分類・多クラス分類
 
演習発表 Sari v.1.2
演習発表 Sari v.1.2演習発表 Sari v.1.2
演習発表 Sari v.1.2
 
Deep Learning を実装する
Deep Learning を実装するDeep Learning を実装する
Deep Learning を実装する
 
演習発表 Sari v.1.1
演習発表 Sari v.1.1演習発表 Sari v.1.1
演習発表 Sari v.1.1
 
第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知
 
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
 
クラシックな機械学習の入門 3. 線形回帰および識別
クラシックな機械学習の入門 3. 線形回帰および識別クラシックな機械学習の入門 3. 線形回帰および識別
クラシックな機械学習の入門 3. 線形回帰および識別
 
機械学習と深層学習の数理
機械学習と深層学習の数理機械学習と深層学習の数理
機械学習と深層学習の数理
 
クラシックな機械学習の入門  5. サポートベクターマシン
クラシックな機械学習の入門  5. サポートベクターマシンクラシックな機械学習の入門  5. サポートベクターマシン
クラシックな機械学習の入門  5. サポートベクターマシン
 

En vedette

文脈自由文法の話
文脈自由文法の話文脈自由文法の話
文脈自由文法の話kogecoo
 
深層学習時代の自然言語処理
深層学習時代の自然言語処理深層学習時代の自然言語処理
深層学習時代の自然言語処理Yuya Unno
 
機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual TalksYuya Unno
 
自然言語処理のためのDeep Learning
自然言語処理のためのDeep Learning自然言語処理のためのDeep Learning
自然言語処理のためのDeep LearningYuta Kikuchi
 
トピックモデルの話
トピックモデルの話トピックモデルの話
トピックモデルの話kogecoo
 
バンディットアルゴリズム入門と実践
バンディットアルゴリズム入門と実践バンディットアルゴリズム入門と実践
バンディットアルゴリズム入門と実践智之 村上
 
機会学習ハッカソン:ランダムフォレスト
機会学習ハッカソン:ランダムフォレスト機会学習ハッカソン:ランダムフォレスト
機会学習ハッカソン:ランダムフォレストTeppei Baba
 
今日から使える! みんなのクラスタリング超入門
今日から使える! みんなのクラスタリング超入門今日から使える! みんなのクラスタリング超入門
今日から使える! みんなのクラスタリング超入門toilet_lunch
 
ロジスティック回帰の考え方・使い方 - TokyoR #33
ロジスティック回帰の考え方・使い方 - TokyoR #33ロジスティック回帰の考え方・使い方 - TokyoR #33
ロジスティック回帰の考え方・使い方 - TokyoR #33horihorio
 
TensorFlowで会話AIを作ってみた。
TensorFlowで会話AIを作ってみた。TensorFlowで会話AIを作ってみた。
TensorFlowで会話AIを作ってみた。tak9029
 
実戦投入する機械学習
実戦投入する機械学習実戦投入する機械学習
実戦投入する機械学習Takahiro Kubo
 
論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative Models論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative ModelsSeiya Tokui
 
トピックモデルを用いた 潜在ファッション嗜好の推定
トピックモデルを用いた 潜在ファッション嗜好の推定トピックモデルを用いた 潜在ファッション嗜好の推定
トピックモデルを用いた 潜在ファッション嗜好の推定Takashi Kaneda
 
パターン認識 第10章 決定木
パターン認識 第10章 決定木 パターン認識 第10章 決定木
パターン認識 第10章 決定木 Miyoshi Yuya
 
SVMについて
SVMについてSVMについて
SVMについてmknh1122
 
はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-
はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-
はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-Naoki Yanai
 

En vedette (20)

文脈自由文法の話
文脈自由文法の話文脈自由文法の話
文脈自由文法の話
 
深層学習時代の自然言語処理
深層学習時代の自然言語処理深層学習時代の自然言語処理
深層学習時代の自然言語処理
 
機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks
 
自然言語処理
自然言語処理自然言語処理
自然言語処理
 
一般向けのDeep Learning
一般向けのDeep Learning一般向けのDeep Learning
一般向けのDeep Learning
 
自然言語処理のためのDeep Learning
自然言語処理のためのDeep Learning自然言語処理のためのDeep Learning
自然言語処理のためのDeep Learning
 
トピックモデルの話
トピックモデルの話トピックモデルの話
トピックモデルの話
 
バンディットアルゴリズム入門と実践
バンディットアルゴリズム入門と実践バンディットアルゴリズム入門と実践
バンディットアルゴリズム入門と実践
 
決定木学習
決定木学習決定木学習
決定木学習
 
機会学習ハッカソン:ランダムフォレスト
機会学習ハッカソン:ランダムフォレスト機会学習ハッカソン:ランダムフォレスト
機会学習ハッカソン:ランダムフォレスト
 
今日から使える! みんなのクラスタリング超入門
今日から使える! みんなのクラスタリング超入門今日から使える! みんなのクラスタリング超入門
今日から使える! みんなのクラスタリング超入門
 
ロジスティック回帰の考え方・使い方 - TokyoR #33
ロジスティック回帰の考え方・使い方 - TokyoR #33ロジスティック回帰の考え方・使い方 - TokyoR #33
ロジスティック回帰の考え方・使い方 - TokyoR #33
 
TensorFlowで会話AIを作ってみた。
TensorFlowで会話AIを作ってみた。TensorFlowで会話AIを作ってみた。
TensorFlowで会話AIを作ってみた。
 
実戦投入する機械学習
実戦投入する機械学習実戦投入する機械学習
実戦投入する機械学習
 
論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative Models論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative Models
 
トピックモデルを用いた 潜在ファッション嗜好の推定
トピックモデルを用いた 潜在ファッション嗜好の推定トピックモデルを用いた 潜在ファッション嗜好の推定
トピックモデルを用いた 潜在ファッション嗜好の推定
 
パターン認識 第10章 決定木
パターン認識 第10章 決定木 パターン認識 第10章 決定木
パターン認識 第10章 決定木
 
深層学習による自然言語処理の研究動向
深層学習による自然言語処理の研究動向深層学習による自然言語処理の研究動向
深層学習による自然言語処理の研究動向
 
SVMについて
SVMについてSVMについて
SVMについて
 
はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-
はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-
はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-
 

Similaire à 自然言語処理のための機械学習入門1章

東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1hirokazutanaka
 
Graph and network_chap14
Graph and network_chap14Graph and network_chap14
Graph and network_chap14Hiroki Iida
 
組合せ最適化入門:線形計画から整数計画まで
組合せ最適化入門:線形計画から整数計画まで組合せ最適化入門:線形計画から整数計画まで
組合せ最適化入門:線形計画から整数計画までShunji Umetani
 
凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜
凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜
凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜Tomoki Yoshida
 
Operations research yonezawa_no2
Operations research yonezawa_no2Operations research yonezawa_no2
Operations research yonezawa_no2ssuser0bebd2
 
Shunsuke Horii
Shunsuke HoriiShunsuke Horii
Shunsuke HoriiSuurist
 
Operations research yonezawa_no1
Operations research yonezawa_no1Operations research yonezawa_no1
Operations research yonezawa_no1ssuser0bebd2
 
CEDEC 2009 Imagire Day 続・レンダリスト養成講座
CEDEC 2009 Imagire Day 続・レンダリスト養成講座CEDEC 2009 Imagire Day 続・レンダリスト養成講座
CEDEC 2009 Imagire Day 続・レンダリスト養成講座Silicon Studio Corporation
 
関数の最小値を求めることから機械学習へ
関数の最小値を求めることから機械学習へ関数の最小値を求めることから機械学習へ
関数の最小値を求めることから機械学習へHiro H.
 
サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会
サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会
サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会Shotaro Sano
 
Donutsプロコンチャレンジ 2015 解説
Donutsプロコンチャレンジ 2015 解説Donutsプロコンチャレンジ 2015 解説
Donutsプロコンチャレンジ 2015 解説kuno4n
 
【Unity道場】ゲーム制作に使う数学を学習しよう
【Unity道場】ゲーム制作に使う数学を学習しよう【Unity道場】ゲーム制作に使う数学を学習しよう
【Unity道場】ゲーム制作に使う数学を学習しようUnity Technologies Japan K.K.
 
ウェーブレット木の世界
ウェーブレット木の世界ウェーブレット木の世界
ウェーブレット木の世界Preferred Networks
 

Similaire à 自然言語処理のための機械学習入門1章 (20)

1次式とノルムで構成された最適化問題とその双対問題
1次式とノルムで構成された最適化問題とその双対問題1次式とノルムで構成された最適化問題とその双対問題
1次式とノルムで構成された最適化問題とその双対問題
 
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
 
6 Info Theory
6 Info Theory6 Info Theory
6 Info Theory
 
Graph and network_chap14
Graph and network_chap14Graph and network_chap14
Graph and network_chap14
 
組合せ最適化入門:線形計画から整数計画まで
組合せ最適化入門:線形計画から整数計画まで組合せ最適化入門:線形計画から整数計画まで
組合せ最適化入門:線形計画から整数計画まで
 
凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜
凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜
凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜
 
1
11
1
 
Ml ch7
Ml ch7Ml ch7
Ml ch7
 
Operations research yonezawa_no2
Operations research yonezawa_no2Operations research yonezawa_no2
Operations research yonezawa_no2
 
Introduction to programming
Introduction to programmingIntroduction to programming
Introduction to programming
 
Shunsuke Horii
Shunsuke HoriiShunsuke Horii
Shunsuke Horii
 
Operations research yonezawa_no1
Operations research yonezawa_no1Operations research yonezawa_no1
Operations research yonezawa_no1
 
動的計画法
動的計画法動的計画法
動的計画法
 
CEDEC 2009 Imagire Day 続・レンダリスト養成講座
CEDEC 2009 Imagire Day 続・レンダリスト養成講座CEDEC 2009 Imagire Day 続・レンダリスト養成講座
CEDEC 2009 Imagire Day 続・レンダリスト養成講座
 
関数の最小値を求めることから機械学習へ
関数の最小値を求めることから機械学習へ関数の最小値を求めることから機械学習へ
関数の最小値を求めることから機械学習へ
 
サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会
サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会
サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会
 
Donutsプロコンチャレンジ 2015 解説
Donutsプロコンチャレンジ 2015 解説Donutsプロコンチャレンジ 2015 解説
Donutsプロコンチャレンジ 2015 解説
 
【Unity道場】ゲーム制作に使う数学を学習しよう
【Unity道場】ゲーム制作に使う数学を学習しよう【Unity道場】ゲーム制作に使う数学を学習しよう
【Unity道場】ゲーム制作に使う数学を学習しよう
 
ウェーブレット木の世界
ウェーブレット木の世界ウェーブレット木の世界
ウェーブレット木の世界
 
Convex optimization
Convex optimization Convex optimization
Convex optimization
 

自然言語処理のための機械学習入門1章

  • 2. 自己紹介 ステータス • @piroyoung a,k,a みずかみひろき • 数学(ゲーム理論) → SPA企業の総合職(物流・小売) → データナントカ(コンサル)Now! • 最近,渋谷が気になる スキル・興味・近況 • R, SQL, Python, Ruby, Jags/Stan • データマイニング屋 • NLPについては何も知らない • Scala修行中 • 新しいものが好き • Yo!! 始めました → PIROYOUNG • LINEも始めました→ piroyoung 2
  • 3. 自然言語処理のための 機械学習入門 (たかむらぼん) 1章 必要な数学的知識 NLPStudy #2 @piroyoung みずかみ ひろき
  • 4. • 本発表の内容は,あくまでも私個人の見解であり, 所属する組織や団体とは一切関係がありません. • それどころか大部分の情報源が「私の記憶」です. 記憶力には万全を機してはおりますが,もし間違い などありましたら,こっそりご指摘いただければ幸 いです.
  • 5. • 1.2 最適化問題 • 1.2.1 凸集合と凸関数 • 1.2.2 凸計画問題 今日やること • 1.2.3 等式制約付き凸計画問題 • 1.2.4 不等式制約付き凸計画問題 • 1.3 確率 • 1.3.1 期待値 平均 分散 • 1.3.2 結合確率と条件付き確率 • 1.3.3 独立性 • 1.3.4 代表的な離散確率分布 • 1.4 連続確率変数 • 1.4.1 平均・分散 • 1.4.2 連続確率分布の例 • 1.5 パラメータ推定法 • 1.5.1 i.i.dと尤度 • 1.5.2 最尤推定 • 1.5.3 最大事後確率推定 • 1.6 情報理論 • 1.6.1 エントロピー • 1.6.2 KL情報量 • 1.6.3 JS情報量 • 1.6.4 自己相互情報量 • 1.7 この章のまとめ
  • 6. • 1.2 最適化問題 • 1.2.1 凸集合と凸関数 • 1.2.2 凸計画問題 今日やること • 1.2.3 等式制約付き凸計画問題 • 1.2.4 不等式制約付き凸計画問題 • 1.3 確率 • 1.3.1 期待値 平均 分散 • 1.3.2 結合確率と条件付き確率 • 1.3.3 独立性 • 1.3.4 代表的な離散確率分布 • 1.4 連続確率変数 • 1.4.1 平均・分散 • 1.4.2 連続確率分布の例 • 1.5 パラメータ推定法 • 1.5.1 i.i.dと尤度 • 1.5.2 最尤推定 • 1.5.3 最大事後確率推定 • 1.6 情報理論 • 1.6.1 エントロピー • 1.6.2 KL情報量 • 1.6.3 JS情報量 • 1.6.4 自己相互情報量 • 1.7 この章のまとめ
  • 10.
  • 15. 情報量のあれこれ Kullback Leibler divergence (KL情報量) • 事前分布 p( ·)の元での情報 Y のKL情報量 D KL (Y || p( ·))を DKL (Y ||p(·)) := Ep(·|Y )  log p(·|Y ) p(·)
  • 16. 情報量のあれこれ Kullback Leibler divergence (KL情報量) • 事前分布 p( ·)の元での情報 Y のKL情報量 D KL (Y || p( ·))を DKL (Y ||p(·)) := Ep(·|Y )  log p(·|Y ) p(·) DKL( || ) = p(Yes| ) log p(Yes| ) p(Yes) = log 1 0.95 = log 0.95 = 0.05129329 . . . 確率分布間の「遠さ」のようなもの!! 要するに・・・
  • 17. 情報量のあれこれ Kullback Leibler divergence (KL情報量) • 事前分布 p( ·)の元での情報 Y のKL情報量 D KL (Y || p( ·))を DKL (Y ||p(·)) := Ep(·|Y )  log p(·|Y ) p(·) 要するに当・・た・らずとも遠からず!! DKL( || ) = p(Yes| ) log p(Yes| ) p(Yes) = log 1 0.95 = log 0.95 = 0.05129329 . . . 確率分布間の「遠さ」のようなもの!!
  • 18. • 1.2 最適化問題 • 1.2.1 凸集合と凸関数 • 1.2.2 凸計画問題 今日やること • 1.2.3 等式制約付き凸計画問題 • 1.2.4 不等式制約付き凸計画問題 • 1.3 確率 • 1.3.1 期待値 平均 分散 • 1.3.2 結合確率と条件付き確率 • 1.3.3 独立性 • 1.3.4 代表的な離散確率分布 • 1.4 連続確率変数 • 1.4.1 平均・分散 • 1.4.2 連続確率分布の例 • 1.5 パラメータ推定法 • 1.5.1 i.i.dと尤度 • 1.5.2 最尤推定 • 1.5.3 最大事後確率推定 • 1.6 情報理論 • 1.6.1 エントロピー • 1.6.2 KL情報量 • 1.6.3 JS情報量 • 1.6.4 自己相互情報量 • 1.7 この章のまとめ
  • 19. • 解析的な裏付け中心 (☓ アルゴリズム) • 「最適化問題」とは何かがわかる! • 最適化問題の分類がわかる!! • 凸性が嬉しくなる • Lagrangeの未定乗数法 • KKT条件 本日のスコープ
  • 20. 1.2 最適化問題 #とは 1.2.1 凸集合と凸関数 1.2.2 凸計画問題 1.2.3 等式制約付き凸計画問題 1.2.4 不等式制約付き凸計画問題
  • 21. 1.2 最適化問題 #とは     輸送量xij     工場Fi 出荷上限fi 倉庫 wj 需要 輸送コスト単価cij Wj
  • 22. 1.2 最適化問題 #とは     輸送量xij     工場Fi 出荷上限fi :ちゃんと持ってこいよ! Wj 倉庫 wj 需要 輸送コスト単価cij X i xij = wj Wj
  • 23. 1.2 最適化問題 #とは     輸送量xij     工場Fi 出荷上限fi :ちゃんと持ってこいよ! Wj 倉庫 wj 需要 輸送コスト単価cij X i xij = wj :俺にも限界がある Wj Fi X j xij  fi
  • 24. 1.2 最適化問題 #とは     輸送量xij     工場Fi 出荷上限fi :ちゃんと持ってこいよ! Wj 倉庫 wj 需要 輸送コスト単価cij X i xij = wj :俺にも限界がある Wj Fi X j xij  fi 僕:いくらかかかるの? f(x) = X i X j cijxij
  • 25. 1.2 最適化問題 #とは     輸送量xij     工場Fi 出荷上限fi :ちゃんと持ってこいよ! Wj 倉庫 wj 需要 輸送コスト単価cij X i xij = wj :俺にも限界がある Wj Fi X j xij  fi 僕:いくらかかかるの? f(x) = X i X j cijxij 僕:やすくせえよ!!
  • 26. 1.2 最適化問題 #とは     輸送量xij     工場Fi 出荷上限fi :ちゃんと持ってこいよ! Wj 倉庫 wj 需要 輸送コスト単価cij X i xij = wj :俺にも限界がある Wj Fi X j xij  fi 僕:いくらかかかるの? f(x) = X i X j cijxij 僕:やすくせえよ!! 最小化問題!!
  • 27. 1.2 最適化問題 #とは     輸送量xij     工場Fi 出荷上限fi :ちゃんと持ってこいよ! Wj 倉庫 wj 需要 輸送コスト単価cij X i xij = wj :俺にも限界がある Wj Fi X j xij  fi 僕:いくらかかかるの? f(x) = 目的関数 X i X j cijxij 僕:やすくせえよ!! 最小化問題!!
  • 28. 1.2 最適化問題 #とは     輸送量xij     工場Fi 出荷上限fi :ちゃんと持ってこいよ! Wj 倉庫 wj 需要 輸送コスト単価cij X i 制約条件 xij = wj :俺にも限界がある Wj Fi X j xij  fi 僕:いくらかかかるの? f(x) = 目的関数 X i X j cijxij 僕:やすくせえよ!! 最小化問題!!
  • 29. 1.2 最適化問題 #とは ・このことを一般にこう書く 最適化問題 Minimize : f(x) subject to : x 2 S ・この問題設定は珍しくない. 制約付き線形回帰 Minimize : kY − bXk2 subject to : bi 0 f(x) x 2 S S ▶目的関数 ▶許容解・実行可能解 ▶実行可能領域 x⇤s.t.f(x⇤) = min ▶最適解 x2S f(x) • 最大化の問題は最小化問題に帰 着させられる.
  • 30. 1.2 最適化問題 #とは ・このことを一般にこう書く 最適化問題 Minimize : f(x) subject to : x 2 S ・この問題設定は珍しくない. 制約付き線形回帰 Minimize : kY − bXk2 subject to : bi 0 • 最尤法 ▶尤度の最大化 • サポートベクターマシーン ▶マージンの最大化 • 線形回帰 ▶2乗誤差の最小化 • 金融 ▶リスクの最小化 ▶期待利得の最大化 • 製造業 ▶コストの最小化 ▶利益の最大化
  • 31. 1.2 最適化問題 #とは 最適化問題• 一般の場合 Minimize : f(x) subject to : x 2 S ▶非線形最適化 • かつ 凸 ▶凸計画 • かつ線形 ▶線形計画 ▶一般の関数 ▶一般の集合 ▶凸関数 ▶凸集合 ▶1次関数 ▶多面体 f S f S f S
  • 32. 1.2 最適化問題 #とは 最適化問題• 一般の場合 Minimize : f(x) subject to : x 2 S ▶非線形最適化 • かつ 凸 ▶凸計画 • かつ線形 ▶線形計画 ▶一般の関数 ▶一般の集合 ▶凸関数 ▶凸集合 ▶1次関数 ▶多面体 f S f S f S 今回!!
  • 33. 1.2 最適化問題 #とは 1.2.1 凸集合と凸関数 1.2.2 凸計画問題 1.2.3 等式制約付き凸計画問題 1.2.4 不等式制約付き凸計画問題
  • 34. 1.2.1 凸集合と凸関数 • 凸集合とは「へこみ」が無い集合▶凸でない集合 ▶凸集合 S ⇢ Rn が凸集合 def , 8x, y 2 S 8 2 [0, 1] に対して次が成り立つ x + (1 − )y 2 S
  • 35. 1.2.1 凸集合と凸関数 • 凸集合とは「へこみ」が無い集合 S ⇢ Rn が凸集合 def , 8x, y 2 S 8 2 [0, 1] に対して次が成り立つ x + (1 − )y 2 S ▶エピグラフ • エピグラフ epif = {(x, y) 2 Rn+1|y f(x), x 2 Rn} なる領域 epif を関数 f のエピグラフという.
  • 36. 1.2.1 凸集合と凸関数 • 凸関数は凹みがない関数 f : R ! Rn が凸関数 def , epif が凸集合 • 凸関数の凸集合上での極小解は 最小解(最適解) • の補集合が凸な時はその 関数を凹関数という. epif epif • 極値を持つ凸関数 is 狭義凸関数
  • 37. 1.2 最適化問題 #とは 1.2.1 凸集合と凸関数 1.2.2 凸計画問題 1.2.3 等式制約付き凸計画問題 1.2.4 不等式制約付き凸計画問題
  • 38. 1.2.2 凸計画問題 • 凸計画問題• この手の問題は結局のところ極値 を探す問題になる. • ご想像の通り線形計画問題は凸計 画問題 • 凸計画問題は非線形計画問題 最適化問題 Minimize : f(x) subject to : x 2 S において が凸関数 が凸集合 f(x) S なる最適化問題を凸計画問題という
  • 39. 1.2.2 凸計画問題 • 一般の制約がない場合• この手の問題は結局のところ極値 を探す問題になる. Minimize : f(x) x⇤ が最適解であるための.. rf(x⇤) = 0 r2f(x⇤) r2f(x⇤) ▶1次必要条件 = 極値 :半正定値行列 :正定値行列 ▶2次必要条件 = 凸関数 ▶2次十分条件 = 狭義凸関数 r※ rf(x⇤):勾配ベクトル2f(x⇤) :ヘッセ行列
  • 40. 1.2.2 凸計画問題 • 一般の制約がない場合• この手の問題は結局のところ極値 を探す問題になる. Minimize : f(x) x⇤ が最適解であるための.. rf(x⇤) = 0 r2f(x⇤) r2f(x⇤) ▶1次必要条件 = 極値 :半正定値行列 :正定値行列 ▶2次必要条件 = 凸関数 凸計画では1次だけ見れば良い! ▶2次十分条件 = 狭義凸関数 r※ rf(x⇤):勾配ベクトル2f(x⇤) :ヘッセ行列
  • 41. 1.2 最適化問題 #とは 1.2.1 凸集合と凸関数 1.2.2 凸計画問題 1.2.3 等式制約付き凸計画問題 1.2.4 不等式制約付き凸計画問題
  • 42. 1.2.3 等式制約付き凸計画問題 • 等式制約付き凸計画 Minimize : f(x) subject to : gi(x) = 0 f(x) f(x) x⇤ • が極値をとる が許容解とは限らない! • このとき1次の必要条件 に変わるものは?? rf(x⇤) = 0
  • 43. 1.2.3 等式制約付き凸計画問題 rg(x⇤) と r f ( x ⇤ ) が一次従属になっている
  • 44. 1.2.3 等式制約付き凸計画問題 Minimize : f(x) subject to : gi(x) = 0 • 先の図を一般的に・・・ 9i 2 R s.t. rf(x⇤) = X i irgi(x⇤) ▶1次必要条件 : 下記を満たす が存在する.
  • 45. 1.2.3 等式制約付き凸計画問題 Minimize : f(x) subject to : gi(x) = 0 • 先の図を一般的に・・・ ▶1次必要条件 : 下記を満たす が存在する. 9i 2 R s.t. rf(x⇤) = X i irgi(x⇤) • ↑の x⇤ の探し方として... L(x, ) := f(x⇤) X i igi(x⇤) なる関数において下記の解は1次必要条件を満たす! ! !x L(x⇤, ⇤) = 0 ! ! L(x⇤, ⇤) = 0
  • 46. 1.2.3 等式制約付き凸計画問題 Minimize : f(x) subject to : gi(x) = 0 • 先の図を一般的に・・・ 9i 2 R s.t. rf(x⇤) = X i irgi(x⇤) ▶1次必要条件 : 下記を満たす が存在する. • ↑の x⇤ の探し方として... L(x, ) := f(x⇤) X i igi(x⇤) Lagrangeの未定乗数法 なる関数において下記の解は1次必要条件を満たす! ! !x L(x⇤, ⇤) = 0 ! ! L(x⇤, ⇤) = 0
  • 47. 1.2 最適化問題 #とは 1.2.1 凸集合と凸関数 1.2.2 凸計画問題 1.2.3 等式制約付き凸計画問題 1.2.4 不等式制約付き凸計画問題
  • 48. 1.2.3 不等式制約付き凸計画問題 • 不等式制約付き凸計画 Minimize : f(x) subject to : gi(x) = 0 hj(x)  0 • 不等式制約 を考慮する最適化問題 hj(x)  0 • このとき1次の必要条件 r f ( x ⇤ ) = 0 に変わるものは??
  • 49. 1.2.3 不等式制約付き凸計画問題 • 有効な制約 点 x 2 R n で制約 h k ( x )  0 が有効である. def , hk(x) = 0 Minimize : f(x) subject to : gi(x) = 0 hj(x)  0 ▶有効な制約のみで未定乗数法を適用すればよい!
  • 50. 1.2.3 不等式制約付き凸計画問題 • KKT条件 Minimize : f(x) subject to : gi(x) = 0 hj(x)  0 x ⇤ 2 R が最適解であるとする. このとき g i 及び がある条件を満たせば hj rf(x⇤) = irgi(x⇤) + μjrhj(x⇤) gi(x⇤) = 0 hj(x⇤)  0, μj 0, μjhj(x⇤) = 0 なる 2 R m 及び μ 2 R l が存在する. ▶制約想定 ▶相補性条件
  • 52. まとめ 制約なし制約あり 1次の必要条件KKT条件 2次の必要条件が半正定値 Lagrange関数の ちょめちょめ 2次の十分条件正定値 Lagrange関数の ちょめちょめ rf(x⇤) = 0 r2f(x⇤) r2f(x⇤)
  • 53. まとめ 制約なし制約あり 1次の必要条件KKT条件 2次の必要条件が半正定値 Lagrange関数の Hessianが半正定値 凸計画では1次の必要条件だけみてればいい 2次の十分条件正定値 Lagrange関数の Hessianが正定値 rf(x⇤) = 0 r2f(x⇤) r2f(x⇤)
  • 54. もっと知りたい方へ • KKT条件 • Fakasの補題(二者択一の定理) • 強分離定理 (凸解析の話題) • ハーン・バナッハの定理(関数解析) • Lagrangeの未定乗数法 • 陰関数の定理
  • 55. 参考文献 • 本日の教材はこの本の1章 • 2章の 「文書および単語の数学的表現」 • はめっちゃバイブル • 次回発表楽しみにしています.
  • 56. 参考文献 • 薄い本 • その割に実例のってる. • コンパクトに要点がまとまっていま す.
  • 58. 参考文献 • そこそこ重い • 質量が大きい • 内容が濃い • アルゴリズムより • 私が学生のときはこんな本なかった! • 最適化版PRML!?