論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to Movies
1. DEEP LEARNING JP
[DL Papers]
FactorizedVariational Autoencoders
for Modeling Audience Reactions to Movies
Makoto Kawano, Keio Univ.
http://deeplearning.jp/
2. 書誌情報
• CVPR’17
• 引用件数:2(1/9時点)
• Disney research
– Zhiwei Deng (Simon Fraser University), Rajitha Navarantha, Peter
Carr, Stephan Mandt, Yisong Yue (Caltech), Iain Matthews, Greg
Mori (Simon Fraser University)
• Techcrunchでも紹介されていた(7/27)
• 映画を鑑賞している観客の表情を行列(テンソル)分解xVAEで
潜在表現を獲得する
2
9. 行列分解
• 観測データXをI x J行列とする→最小二乗誤差
• 欠損値がある場合
– Xの観測値(非欠損値)の添字集合をΩ {1,…,i,…,I}x{1,…,j,…,J}とする
– Ωが全体集合のとき,元の目的関数と一致
• 非負値行列分解(Non-negative Matrix Factorization, NMF)
– U, Vを非負値に制約したもの
– 解釈性が上がる(トピックモデルなど)
9
argmin
U2RI⇥R,V 2RJ⇥R
f(X; U, V )
f(X; U, V ) = kX − UV T
k2
f⌦(X; U, V ) =
X
(i,j)2⌦
(xij − uT
i vj)2
argmin
U2RI⇥R
+ ,V 2RJ⇥R
+
f(X; U, V )
R+ = {x|x ≥ 0}
10. 最適化アルゴリズム
• 1次交互勾配降下法
– 1.U,Vをランダムに初期化
– 2.収束するまで以下ループ
• 擬似2次交互勾配降下法
– 2次勾配を使って収束時間を短くする
• 確率的勾配降下法
– 要素をランダムサンプリング
– 部分行列をランダムサンプリング
10
U U − ⌘rU f(X; U, V )
V V − ⌘rV f(X; U, V )
深層学習ライブラリでも
実装できますね!
18. 機械学習での流行の兆し(があるらしい)
• ICML2014
– Putting MRFs on a tensor train. A. Novikov, et al.
• NIPS2015
– Tensorizing Neural Networks. A.Novikov, et al.
• COLT2016
– On the Expressive Power of Deep Learning: A Tensor Analysis.
N. Cohen, O.Sharir and A. Shashua.
• ICML2016
– Convolutional Rectifier Networks as Generalized Tensor Decompositions.
N. Cohen and A.Shashua.
• NIPS2016
– Supervised Learning with Tensor Networks.
E. Stoudenmire, D.J.Schwab
• ICLR2017
– Exponential Machines. A. Novikov, Mikhail Trofimov, Ivan Oseledets.
– Inductive Bias of Deep Convolutional Networks through Pooling Geometry.
N. Cohen and A. Shashua.
• NIPS2017
– On Tensor Train Rank Minimization: Statistical Efficiency and Scalable Algorithm.
Imaizumi et al.
18
Deep learningと関係