SlideShare une entreprise Scribd logo
1  sur  31
Deep Sets
2018/1/13
NIPS 読み会
ABEJA, Inc. 高橋智洋
自己紹介
• 高橋智洋
• 所属: ABEJA, Inc.
• Github: takat0m0
• 好きな framework は tensorflow
• 興味を持っていること
• 学生時代 -> 一般相対論,特に black hole physics
• 前のお仕事 -> 数理計画,特に混合整数計画問題
• 今のお仕事 -> 機械学習
学生時代
• Einstein 方程式 を満たす4次元の擬リーマン多様
体を探すお話.通常対称性を課す.
二次元の球対称性を課すと
Black hole 解が得られる.
空間的な一様等方性を課すと
宇宙の発展方程式を得られる.
(https://en.wikipedia.org/wiki/Black_hole) (https://www.astrosociety.org/education/astronomy-resource-guides
/cosmology-the-origin-evolution-ultimate-fate-of-the-universe/)
前のお仕事
• 混合整数計画問題をやっていた.
• 一般的な解法は branch and bound
• 興味を持っていたのは,対称性.
• 例えば,変数 z_0 と z_1 を入れ替えても問題が変わらないことが分かっ
た場合に,tree に調べる必要のない部分がある.
• orbital branching という綺麗な手法が提案されていたりする.
…
…
z_0 = 0 z_0 = 1
z_1 = 0 z_1 = 1 z_1 = 0 z_1 = 1
今のお仕事
• 機械学習の research に従事.
• 機械学習においても,対称性でなんかできないかなぁ
今日の論文
(以下,画像の引用はこの論文からしている.)
概要
• Deep learning において対称性がある系で対称性を保証するためには
network などがどのような制限を受けるかを議論.
• 2つのケースについて考えている.
• Invariant model (今日は触れない.隠し slide 参照)
• m個の input に対して scalar を返す関数が input の permutation
に対して変わらない.
• Equivariant model (今日の main の話)
• 次の slide 以降で.
Equivariant model
• m 個の input に対して m 個の output がある
• Input の permutation に伴って output も同じように
permutation するようなケースを考える.
例えば
• Set anomaly detection (仲間はずれ探し)
Inputs
Outputs ○ ○ ○ ×
この問題においては,equivariance が要求される.
R^M,一層の場合
x_1
x_2
x_3
y_1
y_2
y_3
(x_i, y_i ∈ R)
これを以下のように書くことにする.
このとき,以下が成立する.
f が permutation equivariance
<=>
(σは何らかの non-linear function)
証明の前に
• Permutation equivariance は と書ける.
• さらに,以下に注意すれば,
x_1
x_2
x_3
y_1
y_2
y_3
(x_i, y_i ∈ R)
これを以下のように書くことにする.
(σは何らかの non-linear function)
証明 前半
=>
• 任意の permutation は 互換の積で書けるので,互換だけ見れば十分
• 互換が OK なのは例えば以下の例を見れば明らか.
証明 後半1
=>
• まずは対角成分が一致することを確認.
• Permutation として (k, l) の互換を持ってくると,以下のように見れ
ば, が言える.
k
l
k l
k
l
k l
証明 後半2
=>
• 非対角成分の一致は二つの互換の積 を使えば良い
.
i
i’
j
j’
i i’ j j’
i
i’
j
j’
i i’ j j’
拡張 -次元-
x_1
x_2
x_3
y_1
y_2
y_3
(x_i, y_i ∈ R)
x_1
x_2
x_3
y_1
y_2
y_3
(x_i ∈ R^D, y_i ∈ R^D’)
D 次元 vector D’ 次元 vector
• 同様に考えれば,次元も拡張できる.
これを積み上げれば
• この構造を積み上げれば,permutation equivariant に M
個の D 次元 vector -> M 個の scalar
256次元 vector1
256次元 vector2
256次元 vector3
Scalar output1
Scalar output2
Scalar output3
画像を入力としたければ
• 「画像 -> D 次元 vector」 という deep neural network を
かませば良い.ただし,共有する必要あり.
DNN
DNN
DNN
共有の DNN
Scalar output1
Scalar output2
Scalar output3
確率値としたければ
• Softmax 層は permutation equivariant
probability1DNN
DNN
DNN
共有の DNN
probability2
probability3
Softmax
実験
• データ
• CelebA をベースに作成.このデータには各 figure に 40 種類の boolean 属性が付いてい
る.
• 16 枚 の1セットを 18,000 セット作成.
• 各セットを作成する際に,属性を 2 つ random に選び,1つ目の属性を満たすものを
15 枚,もう一つの属性を満たすものを 1 枚選んでいる.
• Train set に出てきている人は test set には出てこないようにしている.
• Network
• 先のやつと同じ.
• Softmax は,仲間外れの入力番目が 1 となるように学習.
実験結果
Test accuracy = 75% 程度
比較実験結果
• 比較のために以下を行なった.
• 同じデータ.
• permutation equivariant layer を対応する fully connected layer に
変更.
• 結果は以下の通り.
Test accuracy = 6.3% 程度
(random choice とほぼ同じ)
まとめ
• Permutation equivariance という条件がある場合に network がどのよ
うな制限を受けるかを見た.
• 今後としては,別の条件の時にはどう制限を受けるのかが気になる.
• 画像の回転に対して invariant な output を出力する network ?
• Graph の node の permutation に対して invariant な output を出力
する network ?
• Graph の対称性を detect できる Mackey’s algorithm まで絡んで
くると面白そう.
Invariant Model
• m 個の input に対して,scalar 量を返す関数を考える.
• このとき,input の permutation に対して不変になるよう
にしたい.
Invariant Model
• Wierstrass の近似定理と対称式の基本定理を用いると先
の f は以下のような形で近似的に書ける.
• このことは以下の network で表すことができる.
Wierstrass の近似定理
• 有界閉集合上の連続関数は,任意精度で多項式近似でき
る.
• この定理を使えば,invariant な関数は対称多項式で近似
できると考えられる.
対称式の基本定理
• 任意の対称多項式は基本対称式系 の積の和で表すこ
とができる.
• ここに基本対称式とは以下.
…
基本対称式の別表現
• 基本対称式は でも表すことができる.
• 以上まとめると
書き換えると
• さらに, を用意すると
• 以上より,
拡張1 -maxpooling-
• Maxpooling などは明らかに input の permutation に対して
同じ値を出力する.なので例えば以下の拡張は可能.

Contenu connexe

Tendances

Tendances (20)

[DL輪読会]Pay Attention to MLPs (gMLP)
[DL輪読会]Pay Attention to MLPs	(gMLP)[DL輪読会]Pay Attention to MLPs	(gMLP)
[DL輪読会]Pay Attention to MLPs (gMLP)
 
【DL輪読会】マルチエージェント強化学習における近年の 協調的方策学習アルゴリズムの発展
【DL輪読会】マルチエージェント強化学習における近年の 協調的方策学習アルゴリズムの発展【DL輪読会】マルチエージェント強化学習における近年の 協調的方策学習アルゴリズムの発展
【DL輪読会】マルチエージェント強化学習における近年の 協調的方策学習アルゴリズムの発展
 
NIPS2017読み会@PFN: Hierarchical Reinforcement Learning + α
NIPS2017読み会@PFN: Hierarchical Reinforcement Learning + αNIPS2017読み会@PFN: Hierarchical Reinforcement Learning + α
NIPS2017読み会@PFN: Hierarchical Reinforcement Learning + α
 
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
 
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
 
Triplet Loss 徹底解説
Triplet Loss 徹底解説Triplet Loss 徹底解説
Triplet Loss 徹底解説
 
[DL輪読会]Dream to Control: Learning Behaviors by Latent Imagination
[DL輪読会]Dream to Control: Learning Behaviors by Latent Imagination[DL輪読会]Dream to Control: Learning Behaviors by Latent Imagination
[DL輪読会]Dream to Control: Learning Behaviors by Latent Imagination
 
12. Diffusion Model の数学的基礎.pdf
12. Diffusion Model の数学的基礎.pdf12. Diffusion Model の数学的基礎.pdf
12. Diffusion Model の数学的基礎.pdf
 
[DL輪読会]One Model To Learn Them All
[DL輪読会]One Model To Learn Them All[DL輪読会]One Model To Learn Them All
[DL輪読会]One Model To Learn Them All
 
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
 
[DL輪読会]Meta Reinforcement Learning
[DL輪読会]Meta Reinforcement Learning[DL輪読会]Meta Reinforcement Learning
[DL輪読会]Meta Reinforcement Learning
 
【メタサーベイ】Video Transformer
 【メタサーベイ】Video Transformer 【メタサーベイ】Video Transformer
【メタサーベイ】Video Transformer
 
多様な強化学習の概念と課題認識
多様な強化学習の概念と課題認識多様な強化学習の概念と課題認識
多様な強化学習の概念と課題認識
 
GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)
 
SSII2021 [OS2-03] 自己教師あり学習における対照学習の基礎と応用
SSII2021 [OS2-03] 自己教師あり学習における対照学習の基礎と応用SSII2021 [OS2-03] 自己教師あり学習における対照学習の基礎と応用
SSII2021 [OS2-03] 自己教師あり学習における対照学習の基礎と応用
 
モデル高速化百選
モデル高速化百選モデル高速化百選
モデル高速化百選
 
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
 
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
 
Transformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法についてTransformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法について
 

Similaire à Deep sets

プログラミングコンテストでの乱択アルゴリズム
プログラミングコンテストでの乱択アルゴリズムプログラミングコンテストでの乱択アルゴリズム
プログラミングコンテストでの乱択アルゴリズム
Takuya Akiba
 
Datamining 5th knn
Datamining 5th knnDatamining 5th knn
Datamining 5th knn
sesejun
 
130323 slide all
130323 slide all130323 slide all
130323 slide all
ikea0064
 

Similaire à Deep sets (20)

教師なしオブジェクトマッチング(第2回ステアラボ人工知能セミナー)
教師なしオブジェクトマッチング(第2回ステアラボ人工知能セミナー)教師なしオブジェクトマッチング(第2回ステアラボ人工知能セミナー)
教師なしオブジェクトマッチング(第2回ステアラボ人工知能セミナー)
 
KDD2014 勉強会
KDD2014 勉強会KDD2014 勉強会
KDD2014 勉強会
 
6 Info Theory
6 Info Theory6 Info Theory
6 Info Theory
 
[DL輪読会]Encoder-Decoder with Atrous Separable Convolution for Semantic Image S...
[DL輪読会]Encoder-Decoder with Atrous Separable Convolution for Semantic Image S...[DL輪読会]Encoder-Decoder with Atrous Separable Convolution for Semantic Image S...
[DL輪読会]Encoder-Decoder with Atrous Separable Convolution for Semantic Image S...
 
DeepCas
DeepCasDeepCas
DeepCas
 
深層学習入門
深層学習入門深層学習入門
深層学習入門
 
楕円曲線入門 トーラスと楕円曲線のつながり
楕円曲線入門トーラスと楕円曲線のつながり楕円曲線入門トーラスと楕円曲線のつながり
楕円曲線入門 トーラスと楕円曲線のつながり
 
Generative adversarial nets
Generative adversarial netsGenerative adversarial nets
Generative adversarial nets
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について
 
Learning Convolutional Neural Networks for Graphs
Learning Convolutional Neural Networks for GraphsLearning Convolutional Neural Networks for Graphs
Learning Convolutional Neural Networks for Graphs
 
Learning Convolutional Neural Networks for Graphs
Learning Convolutional Neural Networks for GraphsLearning Convolutional Neural Networks for Graphs
Learning Convolutional Neural Networks for Graphs
 
プログラミングコンテストでの乱択アルゴリズム
プログラミングコンテストでの乱択アルゴリズムプログラミングコンテストでの乱択アルゴリズム
プログラミングコンテストでの乱択アルゴリズム
 
Datamining 5th knn
Datamining 5th knnDatamining 5th knn
Datamining 5th knn
 
「現実世界に活かす数学」 (麻布高等学校、教養総合、数学講義 5 回目)
「現実世界に活かす数学」 (麻布高等学校、教養総合、数学講義 5 回目)「現実世界に活かす数学」 (麻布高等学校、教養総合、数学講義 5 回目)
「現実世界に活かす数学」 (麻布高等学校、教養総合、数学講義 5 回目)
 
ae-10. 中間まとめ(ディープラーニング)
ae-10. 中間まとめ(ディープラーニング)ae-10. 中間まとめ(ディープラーニング)
ae-10. 中間まとめ(ディープラーニング)
 
130323 slide all
130323 slide all130323 slide all
130323 slide all
 
ディープニューラルネット入門
ディープニューラルネット入門ディープニューラルネット入門
ディープニューラルネット入門
 
Thinking in Cats
Thinking in CatsThinking in Cats
Thinking in Cats
 
演習II.第1章 ベイズ推論の考え方 Part 2.講義ノート
演習II.第1章 ベイズ推論の考え方 Part 2.講義ノート演習II.第1章 ベイズ推論の考え方 Part 2.講義ノート
演習II.第1章 ベイズ推論の考え方 Part 2.講義ノート
 
Hierarchical and Interpretable Skill Acquisition in Multi-task Reinforcement ...
Hierarchical and Interpretable Skill Acquisition in Multi-task Reinforcement ...Hierarchical and Interpretable Skill Acquisition in Multi-task Reinforcement ...
Hierarchical and Interpretable Skill Acquisition in Multi-task Reinforcement ...
 

Dernier

Dernier (10)

LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
 
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsUtilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native Integrations
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
 
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
 

Deep sets