Contenu connexe
Similaire à 劣モジュラ最適化と機械学習 3章 (14)
劣モジュラ最適化と機械学習 3章
- 2. 自己紹介と告知
• Twitter : @St_Hakky
• ブログ:http://st-hakky.hatenablog.com/
• 関西で機械学習勉強会を実施中!!
• 団体のモットー:
• 圧倒的スピード感で大量の書物と論文をぶった切る
• 「えっ、まだ読んでないの?」と煽り奉り、輪講会を乱立させる
• 過去のイベント例
• PRML輪講会、PRML上巻/下巻一気読み
• データ解析のための統計モデリング入門の輪講会
• わかりやすいパターン認識(続)の輪講会
• 参加したい方は、Facebookのグループにまずは参加を。
• URL :https://www.facebook.com/groups/1767916400127792/
- 6. コンテンツ
• 3.1 劣モジュラ最大化と貪欲法
• 3.1.1 劣モジュラ最大化と近似アルゴリズム
• 3.1.2 劣モジュラ最大化のための貪欲法
• 3.1.3 貪欲法の近似率
• 3.2 適用例1 : 文書要約への適用
• 3.2.1 文書要約の劣モジュラ最大化としての定式化
• 3.2.2 文書要約のその他の規準
• 3.3 適用例2:センサ配掴問題
• 3.3.1 ガウス過程回帰による分布の推定
• 3.3.2 センサ配置の規準と劣モジュラ性
• 3.4 適用例3: 能動学習
• 3.4.1 一括型能動学習と劣モジュラ性
• 3.5 その他の適用例
• 3.6 補足:センサ配置可能箇所の設定について
- 7. この章で考える問題
𝑓: 2 𝑉
→ ℝ は、単調な劣モジュラ関数
目的:𝑓(𝑆) → 最大
制約:𝑆 → 最大
(3.1)
劣モジュラ関数を最大化する問題について考える
制約条件は、選択する部分集合の要素数が最大でk
(> 0)個である
- 10. コンテンツ
• 3.1 劣モジュラ最大化と貪欲法
• 3.1.1 劣モジュラ最大化と近似アルゴリズム
• 3.1.2 劣モジュラ最大化のための貪欲法
• 3.1.3 貪欲法の近似率
• 3.2 適用例1 : 文書要約への適用
• 3.2.1 文書要約の劣モジュラ最大化としての定式化
• 3.2.2 文書要約のその他の規準
• 3.3 適用例2:センサ配掴問題
• 3.3.1 ガウス過程回帰による分布の推定
• 3.3.2 センサ配置の規準と劣モジュラ性
• 3.4 適用例3: 能動学習
• 3.4.1 一括型能動学習と劣モジュラ性
• 3.5 その他の適用例
• 3.6 補足:センサ配置可能箇所の設定について
- 23. 近似率
𝛼を0 < 𝛼 ≤ 1 を満たす定数として. 問題(𝑃)の任意
の入力について、以下が成り立つ。
𝛼 * 問題(𝑃)の最適値 ≤ 𝒜 𝑃 が出力する解の目的関数値
𝛼:𝒜 𝑃 の近似率あるいは近似保証という。
またこのとき、𝒜 𝑃 を問題(𝑃)の𝛼-近似アルゴリズ
ムと呼ぶ
- 35. 貪欲法の近似率について
α 𝑘 = 1 − 1 −
1
𝑘
𝑘
は、自然数𝑘に関して単調減少
α 𝑘は、𝑘 → ∞のとき、α 𝑘 → 1 −
1
𝑒
> 0.63となり、貪欲法は、0.63-近似
アルゴリズムであることがわかる。この証明は、次で与える。
- 37. コンテンツ
• 3.1 劣モジュラ最大化と貪欲法
• 3.1.1 劣モジュラ最大化と近似アルゴリズム
• 3.1.2 劣モジュラ最大化のための貪欲法
• 3.1.3 貪欲法の近似率
• 3.2 適用例1 : 文書要約への適用
• 3.2.1 文書要約の劣モジュラ最大化としての定式化
• 3.2.2 文書要約のその他の規準
• 3.3 適用例2:センサ配掴問題
• 3.3.1 ガウス過程回帰による分布の推定
• 3.3.2 センサ配置の規準と劣モジュラ性
• 3.4 適用例3: 能動学習
• 3.4.1 一括型能動学習と劣モジュラ性
• 3.5 その他の適用例
• 3.6 補足:センサ配置可能箇所の設定について
- 38. 適用例1 : 文書要約への適用
• 問題設定:
• ある文章が与えられたときに、その文章を構成する文
の中から、できるだけもとの文章を表現できるような、
その一部の文を選択する
• 直感的なイメージ:
• 文を1つずつ足していくと徐々にもとの文章の意味を表
す表現力は高まる。
• 逆に、その効果はすでに採用した文が多ければ小さく
なっていく。
- 44. 文書要約の劣モジュラ最大化としての定式化
𝑓𝑑𝑜𝑐 𝑆 = ℒ 𝑆 + λ𝑅 𝑆
一般に相反するこれらのトレードオフは各応用場面
によるので, トレードオフを調整するパラメータ𝜆を
用いて次式のように規準を表す
ℒ 𝑆 :文章全体に対して関連の高い文の集合を選択すること
𝑅(𝑆):選択する文間の冗長性を少なくするように文の集合を選択すること
- 45. 文書要約の劣モジュラ最大化としての定式化
𝑓𝑑𝑜𝑐 𝑆 = ℒ 𝑆 + λ𝑅 𝑆
一般に相反するこれらのトレードオフは各応用場面
によるので, トレードオフを調整するパラメータ𝜆を
用いて次式のように規準を表す
ℒ 𝑆 :文章全体に対して関連の高い文の集合を選択すること
𝑅(𝑆):選択する文間の冗長性を少なくするように文の集合を選択すること
単調劣モジュラ関数単調劣モジュラ関数
- 49. 関連性を評価する関数ℒ 𝑆 の例
LinとBilmesによる基準
ℒ 𝑆 =
𝑖∈𝑉
𝑚𝑖𝑛{𝐶𝑖(𝑆), γ𝐶𝑖(𝑉)}
𝐶𝑖(𝑆):2 𝑉 → ℝ:文𝑖がどの程度𝑆によりカバーされているかを
表す単調な劣モジュラ関数
0 ≤ γ ≤ 1はしきい値を調整するためのパラメータ
このような関数𝐶𝑖の例:
𝐶𝑖(𝑆) := 𝑖∈𝑉 𝑠𝑖𝑗など。
- 53. 冗長性の評価関数:𝑅 𝑆
冗長性の評価関数
𝑅 𝑆 =
𝑘=1
𝐾
𝑗∈𝑃 𝑘∩𝑆
𝑟𝑗
文の集合𝑆を選択することの多様性に対する報酬を
加える式。これも有効な関数の一つ。
𝑃𝑘 (𝑘 = 1. , . . 𝐾, ):文全体の分割。
→ 𝑘 𝑃𝑘 = 𝑉で異なる𝑘, 𝑙 ∈ {1. , . . , 𝐾}に対して𝑃𝑘 ∩ 𝑃𝑧 = {}
𝑟𝑗 > 0:新しく文𝑗を空集合へ加えることに対する報酬
- 54. 冗長性の評価関数:𝑅 𝑆
冗長性の評価関数
𝑅 𝑆 =
𝑘=1
𝐾
𝑗∈𝑃 𝑘∩𝑆
𝑟𝑗
文の集合𝑆を選択することの多様性に対する報酬を
加える式。これも有効な関数の一つ。
𝑃𝑘 (𝑘 = 1. , . . 𝐾, ):文全体の分割。
→ 𝑘 𝑃𝑘 = 𝑉で異なる𝑘, 𝑙 ∈ {1. , . . , 𝐾}に対して𝑃𝑘 ∩ 𝑃𝑧 = {}
𝑟𝑗 > 0:新しく文𝑗を空集合へ加えることに対する報酬
分割𝑃𝑖を得るための例:
文章全体に対してクラスタリング等
- 55. 冗長性の評価関数:𝑅 𝑆
冗長性の評価関数
𝑅 𝑆 =
𝑘=1
𝐾
𝑗∈𝑃 𝑘∩𝑆
𝑟𝑗
文の集合𝑆を選択することの多様性に対する報酬を
加える式。これも有効な関数の一つ。
この規準を用いることで、まだ1度も選ばれていない分割の中から文𝑖
を選ぶことに対して報酬を加えることで選択する文の多様性を確保
- 56. 関数𝑓𝑑𝑜𝑐を用いた文書要約のまとめ
𝑓𝑑𝑜𝑐 𝑆 = ℒ 𝑆 + λ𝑅 𝑆
ℒ 𝑆 :文章全体に対して関連の高い文の集合を選択すること
𝑅(𝑆):選択する文間の冗長性を少なくするように文の集合を選択すること
単調劣モジュラ関数単調劣モジュラ関数
単調劣モジュラ関数!!
- 57. 関数𝑓𝑑𝑜𝑐を用いた文書要約のまとめ
𝑓𝑑𝑜𝑐 𝑆 = ℒ 𝑆 + λ𝑅 𝑆
単調劣モジュラ関数単調劣モジュラ関数
単調劣モジュラ関数
規準𝑓𝑑𝑜𝑐 を用いた文書要約は劣モジュラ関数の最大化問題へと帰着
𝑘個以下の文から成る要約を考えれば十分な場合は𝑓𝑑𝑜𝑐 の単調性か
ら、これは単調な劣モジュラ関数最大化問題として定式化される
- 61. ナップサック制約
目的:𝑓𝑑𝑜𝑐 𝑆 →最大
制約:S ⊆ 𝑉, 𝑖∈𝑆
𝑐𝑖 ≤ 𝑘
(3.6)
選択した集合Sに関するコストの和に対する制約
ナップサック制約
要素数制約の場合と同様、𝒇が単調関数であれば(3.6)への貪欲
法の適用により近似率として0.63が得られる
- 71. コンテンツ
• 3.1 劣モジュラ最大化と貪欲法
• 3.1.1 劣モジュラ最大化と近似アルゴリズム
• 3.1.2 劣モジュラ最大化のための貪欲法
• 3.1.3 貪欲法の近似率
• 3.2 適用例1 : 文書要約への適用
• 3.2.1 文書要約の劣モジュラ最大化としての定式化
• 3.2.2 文書要約のその他の規準
• 3.3 適用例2:センサ配掴問題
• 3.3.1 ガウス過程回帰による分布の推定
• 3.3.2 センサ配置の規準と劣モジュラ性
• 3.4 適用例3: 能動学習
• 3.4.1 一括型能動学習と劣モジュラ性
• 3.5 その他の適用例
• 3.6 補足:センサ配置可能箇所の設定について
- 77. ガウス過程回帰による定式化
𝒙 𝟏, … , 𝒙 𝒏:センサを置き得る箇所
𝑆 ⊆ 𝑉:𝑆 ⊆ 𝑉に対応する箇所に設置したセンサ集合
𝑉 = {𝑙, … , 𝑛}:その各箇所を表す添え字から成る集合
𝒚 𝑺:実際にセンサを置いた箇所𝑆 ⊆ 𝑉における観測量
記号
𝑦(𝒙): (センサを置いた箇所とは限らない)任意の箇所xの観測量
センサを置いた箇所だけではなく空間内全体で観測誤差も見たい。この分布は
正規分布に従うと考える。
平均µ(𝒙)と分散σ2
(𝒙)が、𝒙の関数として、
非線形性を表せるようにモデル化してある
- 78. ガウス過程回帰による定式化
𝒙 𝟏, … , 𝒙 𝒏:センサを置き得る箇所
𝑆 ⊆ 𝑉:𝑆 ⊆ 𝑉に対応する箇所に設置したセンサ集合
𝑉 = {𝑙, … , 𝑛}:その各箇所を表す添え字から成る集合
𝒚 𝑺:実際にセンサを置いた箇所𝑆 ⊆ 𝑉における観測量
記号
𝑦(𝒙): (センサを置いた箇所とは限らない)任意の箇所xの観測量
- 84. 観測量𝑦(𝒙) と 𝒚 𝑺の同時分布
観測量𝑦(𝒙) と 𝒚 𝑺の同時分布
𝐾0: = 𝐾 (𝒙, 𝒙)、また𝒌の各要素は𝐾 (𝒙, 𝒙𝒊) (𝑖 ∈ 𝑆)を表す
観測量𝑦(𝒙) と 𝒚 𝑺の同時分布
条件つき分布𝑝(𝑦(𝑥)|𝒚 𝑺) = 𝑁(𝜇(𝒙|𝑆), σ2(𝒙|𝑆))は、分割公式
(次スライドで解説)を用いて次のようになる
- 93. 実際の評価方法:相互情報量
いくつかの代表的な箇所 𝒙 𝟏,…, 𝒙 𝒎 をあらかじめ選択してお
きこれらの箇所と、センサを置けなかった箇所𝑉 ∖ 𝑆について
のこの量を評価する
この量は、𝒚 𝒔と(𝒚 𝑽∖𝑺, 𝐲( 𝒙))の相互情報量とも呼ばれる
𝑦( 𝒙): = (𝑦( 𝒙 𝟏), … , 𝑦( 𝒙 𝒎))
- 99. コンテンツ
• 3.1 劣モジュラ最大化と貪欲法
• 3.1.1 劣モジュラ最大化と近似アルゴリズム
• 3.1.2 劣モジュラ最大化のための貪欲法
• 3.1.3 貪欲法の近似率
• 3.2 適用例1 : 文書要約への適用
• 3.2.1 文書要約の劣モジュラ最大化としての定式化
• 3.2.2 文書要約のその他の規準
• 3.3 適用例2:センサ配掴問題
• 3.3.1 ガウス過程回帰による分布の推定
• 3.3.2 センサ配置の規準と劣モジュラ性
• 3.4 適用例3: 能動学習
• 3.4.1 一括型能動学習と劣モジュラ性
• 3.5 その他の適用例
• 3.6 補足:センサ配置可能箇所の設定について
- 101. コンテンツ
• 3.1 劣モジュラ最大化と貪欲法
• 3.1.1 劣モジュラ最大化と近似アルゴリズム
• 3.1.2 劣モジュラ最大化のための貪欲法
• 3.1.3 貪欲法の近似率
• 3.2 適用例1 : 文書要約への適用
• 3.2.1 文書要約の劣モジュラ最大化としての定式化
• 3.2.2 文書要約のその他の規準
• 3.3 適用例2:センサ配掴問題
• 3.3.1 ガウス過程回帰による分布の推定
• 3.3.2 センサ配置の規準と劣モジュラ性
• 3.4 適用例3: 能動学習
• 3.4.1 一括型能動学習と劣モジュラ性
• 3.5 その他の適用例
• 3.6 補足:センサ配置可能箇所の設定について
- 110. 一括型能動学習の問題設定
𝒙 𝟏, … , 𝒙 𝒏 ∈ ℝ:ラベルづけされていないサンプル
簡単のため二値分 類器を対象として考える
𝑉 = {1, … , 𝑛}:𝒙の添え字の集合
𝑦𝑖 ∈ {−1, +1} :各サンプル𝒙𝑖の(未知の)ラベル
記号
- 117. フィッシャ ー情報行列を用いた能動学習の規
準
� :有限のパラメ ー タ
� (� |� ):パラメータ� に基づく分類器
フィッシャ ー情報行列
� (� ):ラベルづけを行うサンプルに関する分布
� (� ):すべてのサンプルに関する分布
ラベルづけを行おうとするサンプルがもつ情報が、できるだ
け全サ ンプルのそれに近くなるように選ぽうとする規準
- 122. 𝑆 ⊆ 𝑉 : ラベルづけを行うサンプル集合
𝐼 𝑑 : 𝑑行𝑑列の単位行列
𝛿 ≪ 1 : 特異行列を避けるための小さな実数値
これらを今回最小化したい𝑡𝑟(𝐼 𝑞
−1
𝐼 𝑝) に代入すると次のよう
になる
- 123. 𝑆 ⊆ 𝑉 : ラベルづけを行うサンプル集合
𝐼 𝑑 : 𝑑行𝑑列の単位行列
𝛿 ≪ 1 : 特異行列を避けるための小さな実数値
これらを今回最小化したい𝑡𝑟(𝐼 𝑞
−1
𝐼 𝑝) に代入すると次のよう
になる
𝛿に比例するので無視
できるほど小さい
- 124. 𝑆 ⊆ 𝑉 : ラベルづけを行うサンプル集合
𝐼 𝑑 : 𝑑行𝑑列の単位行列
𝛿 ≪ 1 : 特異行列を避けるための小さな実数値
これらを今回最小化したい𝑡𝑟(𝐼 𝑞
−1
𝐼 𝑝) に代入すると次のよう
になる
選択するサ ンプル集合𝑺に
依存する項は第3項のみ
- 125. 𝑆 ⊆ 𝑉 : ラベルづけを行うサンプル集合
𝐼 𝑑 : 𝑑行𝑑列の単位行列
𝛿 ≪ 1 : 特異行列を避けるための小さな実数値
これらを今回最小化したい𝑡𝑟(𝐼 𝑞
−1
𝐼 𝑝) に代入すると次のよう
になる
この第3項についてもう少
し整理して見てみる
- 127. 第3項
{(λ𝑙, 𝒗𝑙)}𝑙=1
𝑑
:𝐼 𝑞 𝑆, 𝒘 の固有値と固有ベクトルの組
任意の𝒙について次のような近
似を与える ことができる
固有値 𝑵 の調和平均を
算術平均で置き換える
𝛾𝑖 = (𝒙Τ 𝒗𝑖)2/ 𝒙 2
2
とおくと
( 𝑙=1
𝑑
λ𝑖
−1
γ𝑖)−1≈ 𝑙=1
𝑑
λ𝑖
−1
γ𝑖
- 137. コンテンツ
• 3.1 劣モジュラ最大化と貪欲法
• 3.1.1 劣モジュラ最大化と近似アルゴリズム
• 3.1.2 劣モジュラ最大化のための貪欲法
• 3.1.3 貪欲法の近似率
• 3.2 適用例1 : 文書要約への適用
• 3.2.1 文書要約の劣モジュラ最大化としての定式化
• 3.2.2 文書要約のその他の規準
• 3.3 適用例2:センサ配掴問題
• 3.3.1 ガウス過程回帰による分布の推定
• 3.3.2 センサ配置の規準と劣モジュラ性
• 3.4 適用例3: 能動学習
• 3.4.1 一括型能動学習と劣モジュラ性
• 3.5 その他の適用例
• 3.6 補足:センサ配置可能箇所の設定について