SlideShare a Scribd company logo
1 of 67
Download to read offline
ハミルトニアンモンテカルロ法
を用いた確率行列分解における
実対数閾値の実験的考察
林 直輝* (東京工業大学 数理・計算科学系)
渡辺澄夫 (東京工業大学 数理・計算科学系)
12018/3/14 NC研究会
目次
• 背景
• 理論
• 実験
• 考察
• 結論
2018/3/14 NC研究会 2
1.背景
2018/3/14 NC研究会 3
目次
• 背景
– 確率行列分解
– 研究目的
• 理論
• 実験
• 考察
• 結論
2018/3/14 NC研究会 4
SMFとは
• 確率行列分解(Stochastic Matrix Factorization,
SMF)は観測行列を2つの確率行列の積として統
計的に推測する機械学習手法
– 確率行列:各列の要素和が1で要素が[0,1]の元.
– 例:
0.1 0.1 0.4 0.3
0.5 0.1 0.4 0.3
0.4 0.8 0.2 0.4
– 確率行列の積は確率行列
– 非負値行列分解(NMF)により強い制約を加えたもの
2018/3/14 NC研究会 5
SMFの応用例
• データから構造を知るための分析技術として,
[Adams, 2016]で提案された
– ↑トピックモデルへの応用が記されている.
• 他にもバイナリ行列のNMFやMarkov連鎖など
の遷移確率行列に対する縮小ランク回帰などの
潜在的応用を持つ[Hayashi, Watanabe, 2017,
submitted to JMLR]
– 後に述べる実験はバイナリ行列のNMFを想定した.
– バイナリ行列のNMFは[Larsen, et. al., 2015]において有
用性が指摘されている.
2018/3/14 NC研究会 6
SMFは特異モデル
• SMFは階層構造を持つ統計モデル
• 尤度・事後分布は正規分布で
近似することができない
• 従来の統計的漸近理論は成立しない
2018/3/14 NC研究会 7
AIC BIC
伝統的な統計学:
「正規分布でいつでも近似できる」
伝統的な統計学:
「正規分布でいつでも近似できる」
SMFは特異モデル
• SMFは階層構造を持つ統計モデル
• 尤度・事後分布は正規分布で
近似することができない
• 従来の統計的漸近理論は成立しない
2018/3/14 NC研究会 8
AIC BIC
伝統的な統計学:
「正規分布でいつでも近似できる」
SMFは特異モデル
• SMFは階層構造を持つ統計モデル
• 尤度・事後分布は正規分布で
近似することができない
• 従来の統計的漸近理論は成立しない
2018/3/14 NC研究会 9
AIC BIC
伝統的な統計学:
「正規分布でいつでも近似できる」• SMFは階層構造を持つ統計モデル
• 尤度・事後分布は正規分布で
近似することができない
• 従来の統計的漸近理論は成立しない
2018/3/14 NC研究会 10
• 強い初期値依存性
• 多くの局所解や鞍点を持つ
– 大域的に最適な解は,ほぼ得られない.
In addition +
AIC BIC
SMFは特異モデル
SMFの学習理論
• SMFの学習理論は未解明
– 特異モデルであるがためにその汎化誤差や周辺尤度の挙
動が分かっていない
– 制約のない行列分解[Aoyagi & Watanabe, 2005]や非負
値行列分解[Hayashi & Watanabe, 2017]については研究
されているが,SMFでは研究されていなかった
• SMFの学習理論の構築→モデルの設計に役立つ
– 経験的方法に依らずモデルを設計できる
– 不適切なモデルによるリソースの無駄や不経済を防げる
– 必要な推定精度を実現するサンプルサイズを見積もれる
2018/3/14 NC研究会 11
SMFの学習理論
• SMFの学習理論は未解明
– 先行研究において我々はSMFのBayes汎化誤差・周辺尤
度の漸近挙動を司る定数「実対数閾値」の上界を導出
– しかしSMFのBayes推定を行う数値的手法は提案されてい
なかった
– Bayes推定:事後分布からのサンプリングが必要
2018/3/14 NC研究会 12
SMFの学習理論
• SMFの学習理論は未解明
– 先行研究において我々はSMFのBayes汎化誤差・周辺尤
度の漸近挙動を司る定数「実対数閾値」の上界を導出
– しかしSMFのBayes推定を行う数値的手法は提案されてい
なかった
– Bayes推定:事後分布からのサンプリングが必要
– 確率行列:
0.1 0.1 0.4 0.3
0.5 0.1 0.4 0.3
0.4 0.8 0.2 0.4
2018/3/14 NC研究会 13
パラメータは単体上に存在
→単体上の事後分布
が必要(難しい)
目次
• 背景
– 確率行列分解
– 研究目的
• 理論
• 実験
• 考察
• 結論
2018/3/14 NC研究会 14
研究目的
• SMFのBayes学習理論を構築する
– 先の研究において実対数閾値が満たす不等式を証明*
– 理論式の数値的挙動を確認するために計算手法が要
• SMFのBayes推定法を提案する
– 単体上の事後分布をハミルトニアンモンテカルロ法(HMC)
によって実現することを提案する
– HMCによる数値実験結果から,*について等号が成立する
場合・しない場合それぞれで理論値と実験値を比較
– 理論値との比較によりHMCを用いたSMFの性能を評価する
2018/3/14 NC研究会 15
2.理論
2018/3/14 NC研究会 16
目次
• 背景
• 理論
– Bayes推定と実対数閾値
– SMF理論の先行研究
• 実験
• 考察
• 結論
2018/3/14 NC研究会 17
Bayes推定と特異モデル
• 一般のBayes推定における定理[Watanabe, 2001]
– n個の独立確率変数
– ある学習モデルで学習を行った際の汎化誤差𝑮 𝒏
その平均値は次の挙動を持つ:
𝔼 𝑮 𝒏 =
𝝀
𝒏
−
𝒎 − 𝟏
𝒏 𝐥𝐨𝐠 𝒏
+ 𝒐
𝟏
𝒏 𝐥𝐨𝐠 𝒏
• λは学習係数あるいは実対数閾値と呼ばれる定数
– mは多重度と呼ばれる
• 実対数閾値を用いたモデル選択手法sBICが提案さ
れている[Drton & Plummer, 2017]
2018/3/14 NC研究会 18
Bayesは最尤より誤差が小さい
• 階層的なモデルでは, 係数 𝝀 はBayes推定の場合
の方が最尤・事後確率最大化推定よりも小さい
[Watanabe,2001 & 2009]
• Bayes推定は汎化誤差を減らすために効果的
• 本研究ではBayes推定の枠組みでSMFを考える
2018/2/1 東工大修論発表 19
実対数閾値の定義とゼータ函数
• 実対数閾値は``学習係数’’として特徴づけられる
• 数学的な定義は以下の1変数複素函数を解析接続
したものの最大極の符号反転である:
𝜻 𝒛 = න𝑲 𝜽 𝒛 𝝋 𝜽 𝒅𝜽,
ここで 𝑲 は真の分布から学習機械へのKL情報量で,
𝝋 は事前分布である.
• この複素函数𝜻 𝒛 を学習理論のゼータ函数という.
2018/2/1 東工大修論発表 20
目次
• 背景
• 理論
– Bayes推定と実対数閾値
– SMF理論の先行研究
• 実験
• 考察
• 結論
2018/3/14 NC研究会 21
SMFのゼータ函数
データ行列の要素は正規分布に従うものとする:
p(X|A,B)∝exp(-||X-AB||2/2):モデル
q(X)∝exp(-||X-A0B0||2/2):真の分布
とする.実際はBernoulli分布でもよい.
事前分布は正かつ有界なもの,たとえば
φ(A,B) ∝ exp(-s||A||2/2-s||B||2/2)
とする(s:ハイパーパラメータ).
ただし単体(の直積)上で定義される.
2018/3/14 NC研究会 22
SMFのゼータ函数
SMFの実対数閾値を調べるためには次のゼータ函
数を考えればよい:
ζ(z)=∫∫||AB-A0B0||2zdAdB
• 事前分布は0や∞にならず,極に影響を与えない
• 平均誤差函数はフロベニウスノルムによる二乗
誤差と同じ実対数閾値を持つことが証明可能
定義(SMFのゼータ函数と実対数閾値)
上のζをSMFのゼータ函数と呼び、その最大極(-λ)
の符号反転値λをSMFの実対数閾値と呼ぶ。
2018/3/14 NC研究会 23
SMFの実対数閾値の上界
定理 [Hayashi &Watanabe, 2017, arXiv preprint]
A,BをそれぞれM×H,H×Nの確率行列,A0,B0をそ
れぞれM×H0,H0×Nの正値確率行列とする.
行列の成分はコンパクト集合の元とする.
真の分解(最小の内部次元H0を与える)がA0,B0の
とき、SMFの実対数閾値λは次の不等式を満たす:
– 𝑯 = 𝑯 𝟎 = 𝟏, 𝟐のとき等号が成立する.
– 𝑀1 = 𝑀 − 1としている.
2018/3/14 NC研究会 24
3.実験
2018/3/14 NC研究会 25
目次
• 背景
• 理論
• 実験
– 実験方法と条件
– 実験結果
• 考察
• 結論
2018/3/14 NC研究会 26
Bayes推定の流れ
2018/3/14 NC研究会 27
𝟏 𝟎 𝟏 𝟎
𝟏 𝟏 𝟎 𝟎
𝟎 𝟎 𝟏 𝟏
𝟎 𝟏 𝟎 𝟏
学習データ(サンプル行列)
事後分布
予測分布
データの発生
q(X)
Xn
p(X|Xn) ψ(A,B|Xn)
X1
MCMC
事後平均
汎化誤差𝑮 𝒏
真の分布
確率モデル(確率質量函数)
p(X|A,B)
事前分布
φ(A,B)
Bayes推定の流れ
2018/3/14 NC研究会 28
𝟏 𝟎 𝟏 𝟎
𝟏 𝟏 𝟎 𝟎
𝟎 𝟎 𝟏 𝟏
𝟎 𝟏 𝟎 𝟏
学習データ(サンプル行列)
事後分布
予測分布
データの発生
q(X)
Xn
p(X|Xn) ψ(A,B|Xn)
X1
MCMC
事後平均
汎化誤差𝑮 𝒏
真の分布
確率モデル(確率質量函数)
p(X|A,B)
事前分布
φ(A,B)
実験条件
• データ・モデルの条件
– 以下の事前分布,確率モデル,真の分布を用いた
φ(A,B) ∝ exp(-s||A||2/2-s||B||2/2):事前分布
p(X|A,B)∝Ber(X,AB):モデル
q(X)∝Ber(X,A0B0):真の分布
– Ber(X,C):確率Cijで1,1-Cijで0をXijとして生成するBernoulli分布
– 真の分布からn=200個の学習データを生成した
– 事前分布のハイパーパラメータはs=0.01とした
• 正規分布の分散が100ということ
2018/3/14 NC研究会 29
Bayes推定の流れ
2018/3/14 NC研究会 30
𝟏 𝟎 𝟏 𝟎
𝟏 𝟏 𝟎 𝟎
𝟎 𝟎 𝟏 𝟏
𝟎 𝟏 𝟎 𝟏
学習データ(サンプル行列)
事後分布
予測分布
データの発生
q(X)
Xn
p(X|Xn) ψ(A,B|Xn)
X1
事後平均
汎化誤差𝑮 𝒏
真の分布
確率モデル(確率質量函数)
p(X|A,B)
事前分布
φ(A,B)
MCMC
MCMC
• SMFの事後分布は解析的に計算できない
→Markov連鎖モンテカルロ法(MCMC)
– パラメータは単体(simplex)上に存在する
→空間が複雑,計算しにくい
→ハミルトニアンモンテカルロ法
2018/3/14 NC研究会 31
HMCとStan
• ハミルトニアンモンテカルロ法(HMC)はMCMC
の一つである.
• Metropolis法が元になっているが,Markov連鎖の
更新式に大きな工夫が加えられている
– ○Markov連鎖を更新するときに,解析力学におけるハミル
トン方程式を解くことで,Markov連鎖の時刻を進める時に別
の点が採択される確率を小さくすることなく計算可能
→Metropolis法よりも効率的なサンプリングが可能
2018/3/14 NC研究会 32
HMCとStan
• ハミルトニアンモンテカルロ法(HMC)はMCMC
の一つである.
• Metropolis法が元になっているが,Markov連鎖の
更新式に大きな工夫が加えられている
– ○Markov連鎖を更新するときに,解析力学におけるハミル
トン方程式を解くことで,Markov連鎖の時刻を進める時に別
の点が採択される確率を小さくすることなく計算可能
→Metropolis法よりも効率的なサンプリングが可能
– △ハミルトニアン方程式をMarkov連鎖の更新の度に解かな
ければならないため,実装コストと計算コストが大きい
2018/3/14 NC研究会 33
HMCとStan
• ハミルトニアンモンテカルロ法(HMC)はMCMC
の一つである.
– △ハミルトニアン方程式をMarkov連鎖の更新の度に解かな
ければならないため,実装コストと計算コストが大きい
2018/3/14 NC研究会 34
HMCとStan
• ハミルトニアンモンテカルロ法(HMC)はMCMC
の一つである.
– △ハミルトニアン方程式をMarkov連鎖の更新の度に解かな
ければならないため,実装コストと計算コストが大きい
• Bayes統計モデリング言語Stanであれば,容易か
つ比較的高速にHMCを使うことができる
– simplex型により単体上のパラメータを扱いやすい
– モデルをStanで記述するとC++でHMCが計算できる
– Stanの実行そのものはR言語やMATLABなどで呼び出す
2018/3/14 NC研究会 35
Bayes推定の流れ
2018/3/14 NC研究会 36
𝟏 𝟎 𝟏 𝟎
𝟏 𝟏 𝟎 𝟎
𝟎 𝟎 𝟏 𝟏
𝟎 𝟏 𝟎 𝟏
学習データ(サンプル行列)
事後分布
予測分布
データの発生
q(X)
Xn
p(X|Xn) ψ(A,B|Xn)
X1
MCMC
事後平均
汎化誤差𝑮 𝒏
真の分布
確率モデル(確率質量函数)
p(X|A,B)
事前分布
φ(A,B)
Bayes推定の流れ
2018/3/14 NC研究会 37
𝟏 𝟎 𝟏 𝟎
𝟏 𝟏 𝟎 𝟎
𝟎 𝟎 𝟏 𝟏
𝟎 𝟏 𝟎 𝟏
学習データ(サンプル行列)
事後分布
予測分布
データの発生
q(X)
Xn
p(X|Xn) ψ(A,B|Xn)
X1
MCMC
事後平均
真の分布
確率モデル(確率質量函数)
p(X|A,B)
事前分布
φ(A,B)
汎化誤差𝑮 𝒏
複数のデータセットに対して
それぞれ汎化誤差を計算,
その平均から実対数閾値を計算
𝝀 ≈ 𝒏 𝔼 𝑮 𝒏
実験条件
• モデルのサイズ・制御変数の実験条件
以上の実験を,次の制御変数に対して行った
– 行列のサイズは𝑴 = 𝑵 = 𝟐, 𝟑, 𝟒, 𝟓
– 行列分解の内部次元は𝑯 = 𝑯 𝟎 = 𝟐, 𝟑, 𝟒, 𝟓
• 𝑯 = 𝑯 𝟎 = 𝟏のときは一方のパラメータ行列の要素がすべて1となり,
統計的に正則なモデルになるため割愛
• 𝑯 = 𝑯 𝟎 = 𝟐のときは実対数閾値の厳密値がわかっている
• 𝑯 = 𝑯 𝟎 = 𝟑, 𝟒, 𝟓のときは実対数閾値の上界と比較する
2018/3/14 NC研究会 38
目次
• 背景
• 理論
• 実験
– 実験方法と条件
– 実験結果
• 考察
• 結論
2018/3/14 NC研究会 39
実験結果
• 条件(1)主定理の等号が成立しているとき:
• H=H0=2のときの結果
2018/3/14 NC研究会 40
実験結果
• 条件(1)主定理の等号が成立しているとき:
• H=H0=2のときの結果
• 実験結果でも等号が成立している
→数値計算は正常に動作している
• やや小さく見積もられている?
2018/3/14 NC研究会 41
実験結果
• 条件(2)主定理の等号が成立しないとき:
2018/3/14 NC研究会 42
実験結果
• 条件(2)主定理の等号が成立しないとき:
2018/3/14 NC研究会 43
数値実験結果でも
不等号が成立している
目次
• 背景
• 理論
• 実験
• 考察
– 条件(1)について
– 条件(2)について
• 結論
2018/3/14 NC研究会 45
考察:条件(1)
• 主定理で等号が成立するとき:
確かに等号が成立した→プログラムミスはない
• 理論値より小さい計算結果が得られている
– このunder estimateの理由を考察する
2018/3/14 NC研究会 46
条件(1)のunder est.
• 理由1:数値近似が足りない
– 理論値の定義は積分による平均操作
– 実対数閾値が支配するのは汎化誤差の漸近挙動
– 実験ではnも平均も有限個
→サンプルサイズに対してより多くのテストデー
タやデータセット数を用意して追加実験
2018/3/14 NC研究会 47
条件(1)の追加実験
• 行列のサイズは𝑴 = 𝑵 = 𝟑, 𝑯 = 𝑯 𝟎 = 𝟐とした
• 以下の4条件(実質3)で実験した:
– 条件(イ):T=10000, D=100(もともとの条件)
– 条件(ロ):T=20000, D=100
– 条件(ハ):T=10000, D=200
– 条件(ニ):T=20000, D=200
• T:テストデータ数,D:データセット数
2018/3/14 NC研究会 48
条件(1)の追加実験結果
• 条件(イ)~(ハ)の実験結果
– 追加実験はいずれも理論値に近づいた
– 条件(ロ)に至っては理論値より大きくなる方に揺らいだ
– 元々の条件では,nに対しTやDが小さかったのが小さく
見積もられる理由の1つとして考えられる
2018/3/14 NC研究会 49
条件(1)のunder est.
• 理由2:高次項の影響
– 実対数閾値が支配するのは汎化誤差の漸近挙動
– 実験ではnは有限
– 理由1は「理論値に合わない」ことを説明できても,
「理論値より小さい値が得られる」ことを説明しきれない
2018/3/14 NC研究会 50
条件(1)のunder est.
• 理由2:高次項の影響
• 実験において用いた漸近的な関係:
𝔼 𝑮 𝒏 =
𝝀
𝒏
+ 𝒐
𝟏
𝒏
⇔ 𝝀 ≈ 𝒏 𝔼 𝑮 𝒏
• 実際の漸近挙動(1/nlognまで)
𝔼 𝑮 𝒏 =
𝝀
𝒏
−
𝒎 − 𝟏
𝒏 𝐥𝐨𝐠 𝒏
+ 𝒐
𝟏
𝒏 𝐥𝐨𝐠 𝒏
⇔ 𝒏 𝔼 𝑮 𝒏 ≈ 𝝀 −
𝒎 − 𝟏
𝐥𝐨𝐠𝒏
2018/3/14 NC研究会 51
条件(1)のunder est.
• 理由2:高次項の影響
• 実験において用いた漸近的な関係:
𝔼 𝑮 𝒏 =
𝝀
𝒏
+ 𝒐
𝟏
𝒏
⇔ 𝝀 ≈ 𝒏 𝔼 𝑮 𝒏
• 実際の漸近挙動(1/nlognまで)
𝔼 𝑮 𝒏 =
𝝀
𝒏
−
𝒎 − 𝟏
𝒏 𝐥𝐨𝐠 𝒏
+ 𝒐
𝟏
𝒏 𝐥𝐨𝐠 𝒏
⇔ 𝒏 𝔼 𝑮 𝒏 ≈ 𝝀 −
𝒎 − 𝟏
𝐥𝐨𝐠𝒏
2018/3/14 NC研究会 52
𝒎 ≥ 𝟐であれば高次項により
実験値(左辺)は小さくなる
条件(1)のunder est.
• 理由2:高次項の影響
• 実験において用いた漸近的な関係:
𝔼 𝑮 𝒏 =
𝝀
𝒏
+ 𝒐
𝟏
𝒏
⇔ 𝝀 ≈ 𝒏 𝔼 𝑮 𝒏
• 実際の漸近挙動(1/nlognまで)
𝔼 𝑮 𝒏 =
𝝀
𝒏
−
𝒎 − 𝟏
𝒏 𝐥𝐨𝐠 𝒏
+ 𝒐
𝟏
𝒏 𝐥𝐨𝐠 𝒏
⇔ 𝒏 𝔼 𝑮 𝒏 ≈ 𝝀 −
𝒎 − 𝟏
𝐥𝐨𝐠𝒏
2018/3/14 NC研究会 53
𝒎 ≥ 𝟐であれば高次項により
実験値(左辺)は小さくなる
例:m=2, n=200のとき,
1/log200=0.19……
ほど小さく見積もられる.
𝒎 ≥ 𝟐の可能性?
条件(1)のunder est.
• 理由3:HMC/Stanの正確さ
– SMFの事後分布を実現する手法は提案されていない
• 本研究はその基礎となるものである
– Stanがいつでも正確かはわからない
– SMFの場合どれほど正確だろうか?
2018/3/14 NC研究会 54
条件(1)のunder est.
• 理由3:HMC/Stanの正確さ
– SMFの事後分布を実現する手法は提案されていない
• 本研究はその基礎となるものである
– Stanがいつでも正確かはわからない
– SMFの場合どれほど正確だろうか?
→Stanが正確ではない/学習がうまくいっていない
とすると,かえって汎化誤差は大きくなるはず
– 理由1の追加実験のように,条件を変えて改善できる
– ソフトウェアの問題であれば実験条件の改善は無意味のはず
– むしろStanはSMFの事後分布を実現するのに有効
2018/3/14 NC研究会 55
条件(1)のunder est.
• 理由の総括
– サンプルサイズnに対してテストデータ数Tやデータセット数
Dが不足していた
– 多重度mに依存する高次項の影響(多重度が2以上)
– HMC/Stanの不正確さとは考えにくい
むしろStanはSMFの事後分布を実現するのに有効
※この考察は理論値あってのものである
2018/3/14 NC研究会 56
目次
• 背景
• 理論
• 実験
• 考察
– 条件(1)について
– 条件(2)について
• 結論
2018/3/14 NC研究会 57
考察:条件(2)
• 主定理で等号が成立するとは限らないとき:
確かに不等号が成立した
• 実験値から厳密値を見積もれないだろうか?
2018/3/14 NC研究会 58
考察:条件(2)
• 主定理で等号が成立するとは限らないとき:
確かに不等号が成立した
• 実験値から厳密値を見積もれないだろうか?
• SMFの基礎になるであろう確率行列そのものの
研究はあまりされていないため,制御変数の影
響を考察しにくい.
厳密値の予想を立てることは現状困難
2018/3/14 NC研究会 59
4.結論
2018/3/14 NC研究会 60
目次
• 背景
• 理論
• 実験
• 考察
• 結論
2018/3/14 NC研究会 61
結論/総括
• SMFの実対数閾値について,HMCによる数値実
験を行い,HMCの有効性や理論式の数値的な挙
動を検証した.
• 以下の結果を得た:
– 理論式で等号が成立するとき:
確かに等号が成立した
• 高次項が影響するつまり多重度が2以上である可能性がある
• StanによるHMCはSMFの事後分布の実現に有効である
– 理論式で等号が成立しないとき:
不等式は成立したが厳密値について数学的な予想を作る
ことは困難
2018/3/14 NC研究会 62
2018/3/14 NC研究会 63
HMCとStan
ソフトウェア C++ R MATLAB Stan
導入難度 高 低 低?(有料) やや低
実装難度 高 低 低 低
計算時間 極小 大 中 小
OSSか? ○ ○ × ○
保証 無 無 有 無
2018/3/14 NC研究会 64
• Stanは低い導入・実装難度で良いパフォーマンス
を発揮できる
• 本研究ではR上でStanを呼び出した(Rstan)
» 筆者がC++を書けないだけと言えばそう
実験条件
• HMCの実験条件
– サンプリング周期20、バーンイン20000により1000個の
サンプルを生成
– Stanの並列計算パラメータはchains=4とした
• 汎化誤差・実対数閾値計算の実験条件
– テストデータをT=10000個生成して平均の積分を近似
– 学習データセット抽出D=100回の平均を計算
2018/3/14 NC研究会 65
厳密値の見積もり
• 上界や判明している厳密値は真の分解の内部次元(
真の「rank」)に依存している
• 制約のない行列分解ではrank,非負値行列分解
(NMF)では非負値rankがこれに相当する
– 非負値rank:NMFの最小の内部次元.一般にrank以上
• 確率行列にとっての真の「rank」とは?
2018/3/14 NC研究会 66
厳密値の見積もり
• 確率行列にとっての真の「rank」とは?
– 仮に確率rankと呼ぶ.
– SMF自体の新しさ(Adams, 2016)もあり,確率行列につい
てわかっていることは必ずしも多くない
– 非負値ランクとランクの関係は明らかにされているものもあ
るが(Cohen, 1993),この確率rankについては不明
– 厳密値がわかっている場合も,NMFや制約のない場合の
実対数閾値とは異なる
• NMFと制約なしは同じ値のことがある
厳密値の予想を立てることは現状困難
2018/3/14 NC研究会 67
結論/展望
• より大きな行列に対する実験
– 学習理論の研究ではデータ抽出に対する平均操作が要
– より高速に計算できないか?
• 確率行列そのものについての数学的研究
– SMFモデルの制御変数そのものの性質の解明
2018/3/14 NC研究会 68

More Related Content

What's hot

[PRML] パターン認識と機械学習(第1章:序論)
[PRML] パターン認識と機械学習(第1章:序論)[PRML] パターン認識と機械学習(第1章:序論)
[PRML] パターン認識と機械学習(第1章:序論)Ryosuke Sasaki
 
PRML輪読#2
PRML輪読#2PRML輪読#2
PRML輪読#2matsuolab
 
クラシックな機械学習の入門 4. 学習データと予測性能
クラシックな機械学習の入門  4.   学習データと予測性能クラシックな機械学習の入門  4.   学習データと予測性能
クラシックな機械学習の入門 4. 学習データと予測性能Hiroshi Nakagawa
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1matsuolab
 
PRML輪読#8
PRML輪読#8PRML輪読#8
PRML輪読#8matsuolab
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3matsuolab
 
PRML輪読#10
PRML輪読#10PRML輪読#10
PRML輪読#10matsuolab
 
PRML輪読#6
PRML輪読#6PRML輪読#6
PRML輪読#6matsuolab
 
PRML輪読#4
PRML輪読#4PRML輪読#4
PRML輪読#4matsuolab
 
PRML輪読#9
PRML輪読#9PRML輪読#9
PRML輪読#9matsuolab
 
PRML輪読#12
PRML輪読#12PRML輪読#12
PRML輪読#12matsuolab
 
PRML輪読#11
PRML輪読#11PRML輪読#11
PRML輪読#11matsuolab
 
PRML輪読#5
PRML輪読#5PRML輪読#5
PRML輪読#5matsuolab
 
多変量解析の一般化
多変量解析の一般化多変量解析の一般化
多変量解析の一般化Akisato Kimura
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)Yasunori Ozaki
 
PRML輪読#14
PRML輪読#14PRML輪読#14
PRML輪読#14matsuolab
 
広島画像情報学セミナ 2011.9.16
広島画像情報学セミナ 2011.9.16広島画像情報学セミナ 2011.9.16
広島画像情報学セミナ 2011.9.16Akisato Kimura
 
機会学習ハッカソン:ランダムフォレスト
機会学習ハッカソン:ランダムフォレスト機会学習ハッカソン:ランダムフォレスト
機会学習ハッカソン:ランダムフォレストTeppei Baba
 
あなたの心にBridgeSampling
あなたの心にBridgeSamplingあなたの心にBridgeSampling
あなたの心にBridgeSamplingdaiki hojo
 
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)Yoshitake Takebayashi
 

What's hot (20)

[PRML] パターン認識と機械学習(第1章:序論)
[PRML] パターン認識と機械学習(第1章:序論)[PRML] パターン認識と機械学習(第1章:序論)
[PRML] パターン認識と機械学習(第1章:序論)
 
PRML輪読#2
PRML輪読#2PRML輪読#2
PRML輪読#2
 
クラシックな機械学習の入門 4. 学習データと予測性能
クラシックな機械学習の入門  4.   学習データと予測性能クラシックな機械学習の入門  4.   学習データと予測性能
クラシックな機械学習の入門 4. 学習データと予測性能
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1
 
PRML輪読#8
PRML輪読#8PRML輪読#8
PRML輪読#8
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3
 
PRML輪読#10
PRML輪読#10PRML輪読#10
PRML輪読#10
 
PRML輪読#6
PRML輪読#6PRML輪読#6
PRML輪読#6
 
PRML輪読#4
PRML輪読#4PRML輪読#4
PRML輪読#4
 
PRML輪読#9
PRML輪読#9PRML輪読#9
PRML輪読#9
 
PRML輪読#12
PRML輪読#12PRML輪読#12
PRML輪読#12
 
PRML輪読#11
PRML輪読#11PRML輪読#11
PRML輪読#11
 
PRML輪読#5
PRML輪読#5PRML輪読#5
PRML輪読#5
 
多変量解析の一般化
多変量解析の一般化多変量解析の一般化
多変量解析の一般化
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)
 
PRML輪読#14
PRML輪読#14PRML輪読#14
PRML輪読#14
 
広島画像情報学セミナ 2011.9.16
広島画像情報学セミナ 2011.9.16広島画像情報学セミナ 2011.9.16
広島画像情報学セミナ 2011.9.16
 
機会学習ハッカソン:ランダムフォレスト
機会学習ハッカソン:ランダムフォレスト機会学習ハッカソン:ランダムフォレスト
機会学習ハッカソン:ランダムフォレスト
 
あなたの心にBridgeSampling
あなたの心にBridgeSamplingあなたの心にBridgeSampling
あなたの心にBridgeSampling
 
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
 

Similar to 201803NC

東大計数特別講義20130528
東大計数特別講義20130528東大計数特別講義20130528
東大計数特別講義20130528Yoichi Motomura
 
能動学習による多関係データセットの構築
能動学習による多関係データセットの構築能動学習による多関係データセットの構築
能動学習による多関係データセットの構築Hiroshi Kajino
 
テンソル多重線形ランクの推定法について(Estimation of Multi-linear Tensor Rank)
テンソル多重線形ランクの推定法について(Estimation of Multi-linear Tensor Rank)テンソル多重線形ランクの推定法について(Estimation of Multi-linear Tensor Rank)
テンソル多重線形ランクの推定法について(Estimation of Multi-linear Tensor Rank)Tatsuya Yokota
 
データサイエンス概論第一=8 パターン認識と深層学習
データサイエンス概論第一=8 パターン認識と深層学習データサイエンス概論第一=8 パターン認識と深層学習
データサイエンス概論第一=8 パターン認識と深層学習Seiichi Uchida
 
パターン認識 04 混合正規分布
パターン認識 04 混合正規分布パターン認識 04 混合正規分布
パターン認識 04 混合正規分布sleipnir002
 
ベイズ統計によるデータ解析
ベイズ統計によるデータ解析ベイズ統計によるデータ解析
ベイズ統計によるデータ解析Kunihiro Hisatsune
 
逐次モンテカルロ法の基礎
逐次モンテカルロ法の基礎逐次モンテカルロ法の基礎
逐次モンテカルロ法の基礎ShoutoYonekura
 
Or学会用20160915.ver2
Or学会用20160915.ver2Or学会用20160915.ver2
Or学会用20160915.ver2Ryoma Nakagawa
 
量子アニーリングを用いたクラスタ分析 (QIT32)
量子アニーリングを用いたクラスタ分析 (QIT32)量子アニーリングを用いたクラスタ分析 (QIT32)
量子アニーリングを用いたクラスタ分析 (QIT32)Shu Tanaka
 
Introduction of Regression Discontinuity Design
Introduction of Regression Discontinuity DesignIntroduction of Regression Discontinuity Design
Introduction of Regression Discontinuity Design5922ikuma
 
パターン認識 08 09 k-近傍法 lvq
パターン認識 08 09 k-近傍法 lvqパターン認識 08 09 k-近傍法 lvq
パターン認識 08 09 k-近傍法 lvqsleipnir002
 
みどりぼん読書会 第4章
みどりぼん読書会 第4章みどりぼん読書会 第4章
みどりぼん読書会 第4章Masanori Takano
 
20150803.山口大学集中講義
20150803.山口大学集中講義20150803.山口大学集中講義
20150803.山口大学集中講義Hayaru SHOUNO
 
確率的深層学習における中間層の改良と高性能学習法の提案
確率的深層学習における中間層の改良と高性能学習法の提案確率的深層学習における中間層の改良と高性能学習法の提案
確率的深層学習における中間層の改良と高性能学習法の提案__106__
 
TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回Issei Kurahashi
 
PRML 1.5-1.5.5 決定理論
PRML 1.5-1.5.5 決定理論PRML 1.5-1.5.5 決定理論
PRML 1.5-1.5.5 決定理論Akihiro Nitta
 

Similar to 201803NC (20)

東大計数特別講義20130528
東大計数特別講義20130528東大計数特別講義20130528
東大計数特別講義20130528
 
能動学習による多関係データセットの構築
能動学習による多関係データセットの構築能動学習による多関係データセットの構築
能動学習による多関係データセットの構築
 
Sakashita
SakashitaSakashita
Sakashita
 
テンソル多重線形ランクの推定法について(Estimation of Multi-linear Tensor Rank)
テンソル多重線形ランクの推定法について(Estimation of Multi-linear Tensor Rank)テンソル多重線形ランクの推定法について(Estimation of Multi-linear Tensor Rank)
テンソル多重線形ランクの推定法について(Estimation of Multi-linear Tensor Rank)
 
データサイエンス概論第一=8 パターン認識と深層学習
データサイエンス概論第一=8 パターン認識と深層学習データサイエンス概論第一=8 パターン認識と深層学習
データサイエンス概論第一=8 パターン認識と深層学習
 
パターン認識 04 混合正規分布
パターン認識 04 混合正規分布パターン認識 04 混合正規分布
パターン認識 04 混合正規分布
 
ベイズ統計によるデータ解析
ベイズ統計によるデータ解析ベイズ統計によるデータ解析
ベイズ統計によるデータ解析
 
1 2.t検定
1 2.t検定1 2.t検定
1 2.t検定
 
Deep learning入門
Deep learning入門Deep learning入門
Deep learning入門
 
逐次モンテカルロ法の基礎
逐次モンテカルロ法の基礎逐次モンテカルロ法の基礎
逐次モンテカルロ法の基礎
 
Or学会用20160915.ver2
Or学会用20160915.ver2Or学会用20160915.ver2
Or学会用20160915.ver2
 
ma99992006id365
ma99992006id365ma99992006id365
ma99992006id365
 
量子アニーリングを用いたクラスタ分析 (QIT32)
量子アニーリングを用いたクラスタ分析 (QIT32)量子アニーリングを用いたクラスタ分析 (QIT32)
量子アニーリングを用いたクラスタ分析 (QIT32)
 
Introduction of Regression Discontinuity Design
Introduction of Regression Discontinuity DesignIntroduction of Regression Discontinuity Design
Introduction of Regression Discontinuity Design
 
パターン認識 08 09 k-近傍法 lvq
パターン認識 08 09 k-近傍法 lvqパターン認識 08 09 k-近傍法 lvq
パターン認識 08 09 k-近傍法 lvq
 
みどりぼん読書会 第4章
みどりぼん読書会 第4章みどりぼん読書会 第4章
みどりぼん読書会 第4章
 
20150803.山口大学集中講義
20150803.山口大学集中講義20150803.山口大学集中講義
20150803.山口大学集中講義
 
確率的深層学習における中間層の改良と高性能学習法の提案
確率的深層学習における中間層の改良と高性能学習法の提案確率的深層学習における中間層の改良と高性能学習法の提案
確率的深層学習における中間層の改良と高性能学習法の提案
 
TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回
 
PRML 1.5-1.5.5 決定理論
PRML 1.5-1.5.5 決定理論PRML 1.5-1.5.5 決定理論
PRML 1.5-1.5.5 決定理論
 

More from Naoki Hayashi

【博士論文発表会】パラメータ制約付き特異モデルの統計的学習理論
【博士論文発表会】パラメータ制約付き特異モデルの統計的学習理論【博士論文発表会】パラメータ制約付き特異モデルの統計的学習理論
【博士論文発表会】パラメータ制約付き特異モデルの統計的学習理論Naoki Hayashi
 
Bayesian Generalization Error and Real Log Canonical Threshold in Non-negativ...
Bayesian Generalization Error and Real Log Canonical Threshold in Non-negativ...Bayesian Generalization Error and Real Log Canonical Threshold in Non-negativ...
Bayesian Generalization Error and Real Log Canonical Threshold in Non-negativ...Naoki Hayashi
 
諸君,じゃんけんに負けたからといって落ち込むことはない.長津田にも飯はある.
諸君,じゃんけんに負けたからといって落ち込むことはない.長津田にも飯はある.諸君,じゃんけんに負けたからといって落ち込むことはない.長津田にも飯はある.
諸君,じゃんけんに負けたからといって落ち込むことはない.長津田にも飯はある.Naoki Hayashi
 
IEEESSCI2017-FOCI4-1039
IEEESSCI2017-FOCI4-1039IEEESSCI2017-FOCI4-1039
IEEESSCI2017-FOCI4-1039Naoki Hayashi
 
すずかけはいいぞ
すずかけはいいぞすずかけはいいぞ
すずかけはいいぞNaoki Hayashi
 
RPG世界の形状及び距離の幾何学的考察(#rogyconf61)
RPG世界の形状及び距離の幾何学的考察(#rogyconf61)RPG世界の形状及び距離の幾何学的考察(#rogyconf61)
RPG世界の形状及び距離の幾何学的考察(#rogyconf61)Naoki Hayashi
 
RPG世界の形状及び距離の幾何学的考察(rogyconf61)
RPG世界の形状及び距離の幾何学的考察(rogyconf61)RPG世界の形状及び距離の幾何学的考察(rogyconf61)
RPG世界の形状及び距離の幾何学的考察(rogyconf61)Naoki Hayashi
 
Rogyゼミ7thスライドpublic
Rogyゼミ7thスライドpublicRogyゼミ7thスライドpublic
Rogyゼミ7thスライドpublicNaoki Hayashi
 
Rogyゼミスライド6th
Rogyゼミスライド6thRogyゼミスライド6th
Rogyゼミスライド6thNaoki Hayashi
 
Rogy目覚まし(仮)+おまけ
Rogy目覚まし(仮)+おまけRogy目覚まし(仮)+おまけ
Rogy目覚まし(仮)+おまけNaoki Hayashi
 
ぼくのつくったこうだいさいてんじぶつ
ぼくのつくったこうだいさいてんじぶつぼくのつくったこうだいさいてんじぶつ
ぼくのつくったこうだいさいてんじぶつNaoki Hayashi
 
情報統計力学のすすめ
情報統計力学のすすめ情報統計力学のすすめ
情報統計力学のすすめNaoki Hayashi
 

More from Naoki Hayashi (15)

【博士論文発表会】パラメータ制約付き特異モデルの統計的学習理論
【博士論文発表会】パラメータ制約付き特異モデルの統計的学習理論【博士論文発表会】パラメータ制約付き特異モデルの統計的学習理論
【博士論文発表会】パラメータ制約付き特異モデルの統計的学習理論
 
Bayesian Generalization Error and Real Log Canonical Threshold in Non-negativ...
Bayesian Generalization Error and Real Log Canonical Threshold in Non-negativ...Bayesian Generalization Error and Real Log Canonical Threshold in Non-negativ...
Bayesian Generalization Error and Real Log Canonical Threshold in Non-negativ...
 
諸君,じゃんけんに負けたからといって落ち込むことはない.長津田にも飯はある.
諸君,じゃんけんに負けたからといって落ち込むことはない.長津田にも飯はある.諸君,じゃんけんに負けたからといって落ち込むことはない.長津田にも飯はある.
諸君,じゃんけんに負けたからといって落ち込むことはない.長津田にも飯はある.
 
IEEESSCI2017-FOCI4-1039
IEEESSCI2017-FOCI4-1039IEEESSCI2017-FOCI4-1039
IEEESSCI2017-FOCI4-1039
 
201709ibisml
201709ibisml201709ibisml
201709ibisml
 
すずかけはいいぞ
すずかけはいいぞすずかけはいいぞ
すずかけはいいぞ
 
RPG世界の形状及び距離の幾何学的考察(#rogyconf61)
RPG世界の形状及び距離の幾何学的考察(#rogyconf61)RPG世界の形状及び距離の幾何学的考察(#rogyconf61)
RPG世界の形状及び距離の幾何学的考察(#rogyconf61)
 
RPG世界の形状及び距離の幾何学的考察(rogyconf61)
RPG世界の形状及び距離の幾何学的考察(rogyconf61)RPG世界の形状及び距離の幾何学的考察(rogyconf61)
RPG世界の形状及び距離の幾何学的考察(rogyconf61)
 
Rogyゼミ7thスライドpublic
Rogyゼミ7thスライドpublicRogyゼミ7thスライドpublic
Rogyゼミ7thスライドpublic
 
Rogyゼミスライド6th
Rogyゼミスライド6thRogyゼミスライド6th
Rogyゼミスライド6th
 
Rogy目覚まし(仮)+おまけ
Rogy目覚まし(仮)+おまけRogy目覚まし(仮)+おまけ
Rogy目覚まし(仮)+おまけ
 
ぼくのつくったこうだいさいてんじぶつ
ぼくのつくったこうだいさいてんじぶつぼくのつくったこうだいさいてんじぶつ
ぼくのつくったこうだいさいてんじぶつ
 
情報統計力学のすすめ
情報統計力学のすすめ情報統計力学のすすめ
情報統計力学のすすめ
 
Rogyゼミ2014 10
Rogyゼミ2014 10Rogyゼミ2014 10
Rogyゼミ2014 10
 
Rogyzemi
RogyzemiRogyzemi
Rogyzemi
 

201803NC