Submit Search
Upload
Icml2015 論文紹介 sparse_subspace_clustering_with_missing_entries
•
11 likes
•
7,851 views
Takami Sato
Follow
PFNさん主催のICML2015読み会で話したSparse Subspace Clustering with Missing Entriesの資料
Read less
Read more
Science
Slideshow view
Report
Share
Slideshow view
Report
Share
1 of 35
Download now
Download to read offline
Recommended
Data Science Bowl 2017Winning Solutions Survey
Data Science Bowl 2017Winning Solutions Survey
Takami Sato
Deep Learningと他の分類器をRで比べてみよう in Japan.R 2014
Deep Learningと他の分類器をRで比べてみよう in Japan.R 2014
Takashi J OZAKI
Word2vecで大谷翔平の二刀流論争に終止符を打つ!
Word2vecで大谷翔平の二刀流論争に終止符を打つ!
Takami Sato
GPUが100倍速いという神話をぶち殺せたらいいな ver.2013
GPUが100倍速いという神話をぶち殺せたらいいな ver.2013
Ryo Sakamoto
AAをつくろう!
AAをつくろう!
Takami Sato
High performance python computing for data science
High performance python computing for data science
Takami Sato
30分で博士号がとれる画像処理講座
30分で博士号がとれる画像処理講座
Sakiyama Kei
「深層学習」第6章 畳込みニューラルネット
「深層学習」第6章 畳込みニューラルネット
Ken'ichi Matsui
Recommended
Data Science Bowl 2017Winning Solutions Survey
Data Science Bowl 2017Winning Solutions Survey
Takami Sato
Deep Learningと他の分類器をRで比べてみよう in Japan.R 2014
Deep Learningと他の分類器をRで比べてみよう in Japan.R 2014
Takashi J OZAKI
Word2vecで大谷翔平の二刀流論争に終止符を打つ!
Word2vecで大谷翔平の二刀流論争に終止符を打つ!
Takami Sato
GPUが100倍速いという神話をぶち殺せたらいいな ver.2013
GPUが100倍速いという神話をぶち殺せたらいいな ver.2013
Ryo Sakamoto
AAをつくろう!
AAをつくろう!
Takami Sato
High performance python computing for data science
High performance python computing for data science
Takami Sato
30分で博士号がとれる画像処理講座
30分で博士号がとれる画像処理講座
Sakiyama Kei
「深層学習」第6章 畳込みニューラルネット
「深層学習」第6章 畳込みニューラルネット
Ken'ichi Matsui
NIPS2016論文紹介 Riemannian SVRG fast stochastic optimization on riemannian manif...
NIPS2016論文紹介 Riemannian SVRG fast stochastic optimization on riemannian manif...
Takami Sato
明日使えないすごいビット演算
明日使えないすごいビット演算
京大 マイコンクラブ
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践
Seiya Tokui
Quoraコンペ参加記録
Quoraコンペ参加記録
Takami Sato
強化学習入門
強化学習入門
Shunta Saito
機械学習プロフェッショナルシリーズ 深層学習 chapter3 確率的勾配降下法
機械学習プロフェッショナルシリーズ 深層学習 chapter3 確率的勾配降下法
zakktakk
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
Takuma Yagi
Deep Learning技術の今
Deep Learning技術の今
Seiya Tokui
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン
Shinya Shimizu
Scikit learnで学ぶ機械学習入門
Scikit learnで学ぶ機械学習入門
Takami Sato
NIPS2015読み会: Ladder Networks
NIPS2015読み会: Ladder Networks
Eiichi Matsumoto
IIBMP2016 深層生成モデルによる表現学習
IIBMP2016 深層生成モデルによる表現学習
Preferred Networks
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
Sho Tatsuno
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
hoxo_m
Kaggle Santa 2019で学ぶMIP最適化入門
Kaggle Santa 2019で学ぶMIP最適化入門
Takami Sato
NIPS2017読み会 LightGBM: A Highly Efficient Gradient Boosting Decision Tree
NIPS2017読み会 LightGBM: A Highly Efficient Gradient Boosting Decision Tree
Takami Sato
Kaggle&競プロ紹介 in 中田研究室
Kaggle&競プロ紹介 in 中田研究室
Takami Sato
Overview of tree algorithms from decision tree to xgboost
Overview of tree algorithms from decision tree to xgboost
Takami Sato
最適化超入門
最適化超入門
Takami Sato
セクシー女優で学ぶ画像分類入門
セクシー女優で学ぶ画像分類入門
Takami Sato
More Related Content
Viewers also liked
NIPS2016論文紹介 Riemannian SVRG fast stochastic optimization on riemannian manif...
NIPS2016論文紹介 Riemannian SVRG fast stochastic optimization on riemannian manif...
Takami Sato
明日使えないすごいビット演算
明日使えないすごいビット演算
京大 マイコンクラブ
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践
Seiya Tokui
Quoraコンペ参加記録
Quoraコンペ参加記録
Takami Sato
強化学習入門
強化学習入門
Shunta Saito
機械学習プロフェッショナルシリーズ 深層学習 chapter3 確率的勾配降下法
機械学習プロフェッショナルシリーズ 深層学習 chapter3 確率的勾配降下法
zakktakk
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
Takuma Yagi
Deep Learning技術の今
Deep Learning技術の今
Seiya Tokui
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン
Shinya Shimizu
Scikit learnで学ぶ機械学習入門
Scikit learnで学ぶ機械学習入門
Takami Sato
NIPS2015読み会: Ladder Networks
NIPS2015読み会: Ladder Networks
Eiichi Matsumoto
IIBMP2016 深層生成モデルによる表現学習
IIBMP2016 深層生成モデルによる表現学習
Preferred Networks
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
Sho Tatsuno
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
hoxo_m
Viewers also liked
(14)
NIPS2016論文紹介 Riemannian SVRG fast stochastic optimization on riemannian manif...
NIPS2016論文紹介 Riemannian SVRG fast stochastic optimization on riemannian manif...
明日使えないすごいビット演算
明日使えないすごいビット演算
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践
Quoraコンペ参加記録
Quoraコンペ参加記録
強化学習入門
強化学習入門
機械学習プロフェッショナルシリーズ 深層学習 chapter3 確率的勾配降下法
機械学習プロフェッショナルシリーズ 深層学習 chapter3 確率的勾配降下法
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
Deep Learning技術の今
Deep Learning技術の今
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン
Scikit learnで学ぶ機械学習入門
Scikit learnで学ぶ機械学習入門
NIPS2015読み会: Ladder Networks
NIPS2015読み会: Ladder Networks
IIBMP2016 深層生成モデルによる表現学習
IIBMP2016 深層生成モデルによる表現学習
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
More from Takami Sato
Kaggle Santa 2019で学ぶMIP最適化入門
Kaggle Santa 2019で学ぶMIP最適化入門
Takami Sato
NIPS2017読み会 LightGBM: A Highly Efficient Gradient Boosting Decision Tree
NIPS2017読み会 LightGBM: A Highly Efficient Gradient Boosting Decision Tree
Takami Sato
Kaggle&競プロ紹介 in 中田研究室
Kaggle&競プロ紹介 in 中田研究室
Takami Sato
Overview of tree algorithms from decision tree to xgboost
Overview of tree algorithms from decision tree to xgboost
Takami Sato
最適化超入門
最適化超入門
Takami Sato
セクシー女優で学ぶ画像分類入門
セクシー女優で学ぶ画像分類入門
Takami Sato
More from Takami Sato
(6)
Kaggle Santa 2019で学ぶMIP最適化入門
Kaggle Santa 2019で学ぶMIP最適化入門
NIPS2017読み会 LightGBM: A Highly Efficient Gradient Boosting Decision Tree
NIPS2017読み会 LightGBM: A Highly Efficient Gradient Boosting Decision Tree
Kaggle&競プロ紹介 in 中田研究室
Kaggle&競プロ紹介 in 中田研究室
Overview of tree algorithms from decision tree to xgboost
Overview of tree algorithms from decision tree to xgboost
最適化超入門
最適化超入門
セクシー女優で学ぶ画像分類入門
セクシー女優で学ぶ画像分類入門
Icml2015 論文紹介 sparse_subspace_clustering_with_missing_entries
1.
【ICML2015 論文紹介】 Sparse Subspace
Clustering with Missing Entries Congyuan Yang, Daniel Robinson, René Vidal 佐藤 貴海 @tkm2261 株式会社ブレインパッド 2015年8月20日ICML2015読み会 1 ICML2015読み会@株式会社ドワンゴ様 セミナールーム
2.
自己紹介 2015年8月20日ICML2015読み会 2 名前: 佐藤
貴海 (さとう たかみ) @tkm2261 専門: 経営工学/数理最適化 (OR屋さん) 所属: 株式会社ブレインパッド 最近やってること: 物流の最適化 レコメンドアルゴリズムの検証
3.
Lilleはいいところでした せっかく行ってきたので、話すことに 2015年8月20日ICML2015読み会 3
4.
Sparse Subspace Clustering
(SSC)[Elhamifar+ 2009] 画像処理の分野等では 高次元空間に低次元空間が埋め込まれるていることが多々ある 2015年8月20日ICML2015読み会 4 http://vision.jhu.edu/ssc.htm http://motion.pratt.duke.edu/sketchmimicking/ 観測された点を、複数の線形部分空間に分割する問題 3つの部分空間で構成 2次元平面上に文字を描写
5.
Sparse Subspace Clustering
(SSC)[Elhamifar+ 2009] 線形部分空間内の点は、同空間の点の線形結合で表現できる 2015年8月20日ICML2015読み会 5 全データ(N個) 1 1 線形結合の係数 自分以外で線形結合 (self-expressive)
6.
Sparse Subspace Clustering
(SSC)[Elhamifar+ 2009] 2015年8月20日ICML2015読み会 6 このままだと、D次元の部分空間作られて意味がないので これを行列表現で書くと となってるが、行列のL1ノルムになるので、得られる解は異なりそう・・・
7.
Sparse Subspace Clustering
(SSC)[Elhamifar+ 2009] 疎な表現のCが得られたら、後はスペクトラルクラスタリングの要領 2015年8月20日ICML2015読み会 7 こんな風に、類似度行列を作り コレをグラフラプラシアン行列だと思えばOK (記述はないが、行和を対角に入れたほうが良いかも) あとは固有ベクトル求めてK-means法を実行 http://vision.jhu.edu/ssc.htm
8.
本論文の貢献 2015年8月20日ICML2015読み会 8 (私見)
9.
先行研究(欠損値なし) K-subspaces [Bradley+ 2000,
Tseng 2000] 2015年8月20日ICML2015読み会 9 欠損値がない場合の先行研究と筆者の見解 k-means法を拡張して、k個の超平面への距離でクラスタリング ⇒ 局所解に陥りやすい mixture of probabilistic PCAs [Tipping+ 1999] データをk個の超平面から生成されたと思って、GMM解く感じ ⇒ 局所解に陥りやすい
10.
先行研究(欠損値なし) 2015年8月20日ICML2015読み会 10 欠損値がない場合の先行研究と筆者の見解 Generalized Principal
Component Analysis [Vidal+ 2005] ⇒ ノイズに弱い Sparse Subspace Clustering (SSC) [Elhamifar+2009] 前述のアルゴリズム。今回はコレの拡張
11.
先行研究(欠損値あり) [Gruber+ 2004] 2015年8月20日ICML2015読み会 11 欠損値がある場合の先行研究は少ないが、いくつか存在 mixture
of probabilistic PCAsとEMアルゴリズムで欠損値に対応 ⇒ 局所解に陥りやすい [Vidal+ 2004] データ行列全体も低ランクであることを仮定して低ランク補完 ⇒ 部分空間が低ランクでも全体が低ランクとは限らない
12.
先行研究(欠損値あり) 2015年8月20日ICML2015読み会 12 欠損値がある場合の先行研究は少ないが、いくつか存在 [Eriksson+ 2012] 欠損値を近傍点で補完 ⇒
保持する近傍点が多く必要で非実用的 [Candes+ 2014] 特定のカーネル行列の欠損値を期待値で補完し Danzig Selectorで学習 ⇒ 期待値の計算方法が与えられていない
13.
比較手法 2015年8月20日ICML2015読み会 13 MC+SSC Matrix
Completion + SSC ZF+SSC Zero-Fill+SSC SSC-EWZF SSC by Entry-Wise Zero-Fill SSC-EC SSC by Expectation-based Completion SSC-CEC SSC by Column-wise Expectation-based Completion BCDS Bias-corrected Dantzig Selector ※BCDSは一部データのみ この6つの手法を検証(赤色が提案手法)
14.
Matrix Completion +
SSC (MC+SSC) 私がこのタスクを解くのに真っ先に思いついたのがコレ 2015年8月20日ICML2015読み会 14 最初に低ランク補完(核ノルム+フロベニウスノルム最小化)して、 その後に普通にSSCを解く 観測されてるところはX=A
15.
Zero-Fill+SSC (ZF+SSC) 非常に直感的 ただ単に欠損値をゼロで補完 2015年8月20日ICML2015読み会 15
16.
SSC by Entry-Wise
Zero-Fill (SSC-EWZF) 2015年8月20日ICML2015読み会 16 観測されていないところの誤差はゼロだと思って学習 実験的に以下の場合にはコレでうまくいくらしい ①部分空間が十分分割されている ②観測点が各部分空間内に十分分散している ③各部分空間の欠損値のパターンが独立である
17.
SSC by Expectation-based
Completion (SSC-EC) 2015年8月20日ICML2015読み会 17 Lemma 1. 欠損率がこの分布 に従う時に
18.
SSC by Expectation-based
Completion (SSC-EC) この補題1を使ってカーネル行列の推定量を書くと 2015年8月20日ICML2015読み会 18 欠損値をゼロで補完 ただし、第二項のせいで半正定値性を仮定できないので補正する 非常にわかりやすい補正だが、 せっかく不偏推定量まで求めたのに補正してしまうのは勿体無い (悪い補正じゃないし、代案があるわけではないが・・・)
19.
SSC by Expectation-based
Completion (SSC-EC) 2015年8月20日ICML2015読み会 19 最終的に解くのはこちら
20.
SSC by Column-wise
Expectation-basedCompletion (SSC-CEC) SSC-ECはゼロ補完があるので、ZF+SSCに近い SSC-EWZFのように、欠損の誤差を無視したモデルを考案 2015年8月20日ICML2015読み会 20 行列型ではなく、元の列ごとの最適化 各列で欠損の無いところだけで学習 データjで 観測されてるインデックスの集合
21.
SSC by Column-wise
Expectation-basedCompletion (SSC-CEC) 誤差項を展開すると、 2015年8月20日ICML2015読み会 21 Lemma 2. 列の一部ω だけでも 補題1同様に 不偏推定量 cが関わらな いので無視 ※要推定 ※要推定 この関係にも注意 =
22.
SSC by Column-wise
Expectation-basedCompletion (SSC-CEC) 2015年8月20日ICML2015読み会 22 この補題2を使ってカーネル行列の推定量を書くと こちらも第二項のせいで半正定値性を仮定できないので補正する
23.
SSC by Column-wise
Expectation-basedCompletion (SSC-CEC) 2015年8月20日ICML2015読み会 23 最終的に解くのはこちら これもADMM [Boyd+ 2010]で解ける 問題サイズは対して小さくなってないのに、 データの数だけ解く必要があるので基本大変 Γのj列ベクトル
24.
Bias-corrected Dantzig Selector
(BCDS) 2015年8月20日ICML2015読み会 24 [Candes+ 2014]で提案 誤差項が制約に落ちてきて、無限大ノルムになっている 筆者らの実験では、以下の傾向があるとのこと • SSC-CECよりも計算コストが高く • λの選択に敏感
25.
数値実験(検証手法) 2015年8月20日ICML2015読み会 25 MC+SSC 低ランク行列補完+SSC(スペクトラルクラスタリング) ZF+SSC
ゼロ補完+SSC SSC-EWZF 欠損要素の関連する誤差をゼロにしてSSC SSC-EC カーネル行列の不偏推定量を使ってSSC SSC-CEC 列毎のカーネル行列の不偏推定量を使ってSSC BCDS 誤差項を制約にして、∞ノルムをつかったSSC これまで紹介した6つの手法を検証
26.
合成データに対する数値実験 高ランクのデータ 2015年8月20日ICML2015読み会 26 低ランクのデータ データの次元数 100 部分空間毎のデータ数
50 部分空間のランク 5 部分空間数 2 データの次元数 25 部分空間毎のデータ数 50 部分空間のランク 5 部分空間数 5
27.
ペナルティ項αの影響 • 単純なゼロ置換の結果はαの影響を受けやすい • SSC-EWZFとSSC-CECは安定して良い性能 2015年8月20日ICML2015読み会
27 αの定義はコチラ 決め方は先行研究[Elhamifar+ 2013] δは欠損率
28.
欠損率δの影響 • 低ランクではMC+SSC, SSC-EWZF,
SSC-CECが欠損率にロバスト • そのうち高ランクでは低ランク補完を使ったMC+SSCが悪くなっている 2015年8月20日ICML2015読み会 28
29.
SSC-CECの部分空間の数、次元数、データ数の影響 • 欠損率が低い時は、低ランクの場合にSSC-CECが良く • 欠損率が高い時は、高ランクの場合にSSC-CECが良い 2015年8月20日ICML2015読み会
29
30.
ペナルティ項αの影響 その2 クラスタリングの精度だけではなく、Cの結果を直接評価したい 横軸: Cの各列での、自クラスタ以外の係数の和の列平均
(低いと良い) 縦軸: クラスタ毎の正規化ラプラシアン行列の第2最小固有値 (高いと良い) (クラスタのまとまりの指標) 2015年8月20日ICML2015読み会 30 • 基本的にSSC-EWZFとSSC-CECが良い • 高ランクの場合では行列補完系は基本悪い ※左上にあるほどよい結果
31.
動領域抽出データに対する数値実験 Hopkins 155の155データに対する検証 2015年8月20日ICML2015読み会 31 http://www.vision.jhu.edu/data/hopkins155/ データの次元数
フレーム数の2倍 部分空間のランク 1~3 部分空間数 2,3
32.
欠損率δとフレーム数の影響 2015年8月20日ICML2015読み会 32 • 欠損が少ない時はデータ全体が低ランクのためMC+SSCが良い •
欠損が多く、フレームが少ない(擬似高ランク)場合には、 SSC-EWZFとSSC-CECが良い結果となっている
33.
本論文の貢献 2015年8月20日ICML2015読み会 33 再掲
34.
私見 2015年8月20日ICML2015読み会 34 • 個人的には疎(スパース)で欠損値アリは琴線に触れた •
『部分空間内なら他の点で自己表現可能(self-expressive)』 、という着眼点で疎学習は好きな感じでした – 欠損をベルヌーイ分布を仮定して扱うのは定石だったりするのか? • 恐らく大規模問題には対応できなそう – 行列型で解くと、計算途中でCの疎性が使えないはず – 列毎に解いても、データ数だけ解くのは厳しい – 計算時間に論文中で一切言及が無いのは、その証左かと
35.
ご清聴ありがとうございました 2015年8月20日ICML2015読み会 35 初日のWelcome cocktail
最終日のBanquet
Download now