SlideShare une entreprise Scribd logo
1  sur  27
Superpixel Sampling Networks
学習可能なSuperpixel生成モデル
1
Learning Superpixels with Segmentation Aware Affinity Loss
• Superpixelを使用してSegmentationを行うために作られた手法
• (SEALと呼ばれている)
• おもな特徴
• 親和性学習のためのSegmentationのエラーを考慮したLoss関数(提案)
• アフィニティ予測用のPixel Affinity Net(提案)
• SEALはEnd to Endで学習できない
• CVPR2018
• NVIDIA
• UC Merced
2
Superpixel Sampling Networks
• Superpixel Sampling Network (SSN)を提案
• SSNの主な特徴
• End to Endでトレーニング可能(他のモデルと統合可能)
• 柔軟な損失関数を使用してタスク固有のスーパーピクセルを学習
• 実行時間が高速
• SEALと同じ著者
• ECCV2018
• NVIDIA
• UC Merced
3
SuperpixelがDeep Learningで使用されない理由
• ①CNNの畳み込み処理は規則的な格子上で行われる
➡ 不規則なセルを持つSuperpixelは計算上非効率になる
• ②既存のSuperpixelアルゴリズムは微分不可能
➡ 既存のDNと組み合わせることができない
➡DNと微分可能なSLICの組み合わせたアルゴリズムSSNを提案
4
←この問題に取り組む
SNNのネットワークの概要
• Deep Network : 画像の特徴抽出
• Differentiable SLIC : 特徴マップ、LabColor、pixel座標
をもとに反復クラスタリング
➡スーパーピクセル作成
5
SLICについて
• 最も単純で広く使用されている Superpixel アルゴリズムの一つ
• 主な特徴
• 実装が簡単
• 実行時間が短い
• コンパクトで均一なスーパーピクセルを生成
• 5次元の位置(xy)と色空間(Lab)をもとに実行されるk-meansクラスタリング
6
SLICアルゴリズム概要
① 初期化→それぞれのSuperpixelの特徴と平均位置を決める
𝐼 : 入力、5次元( 𝑥, 𝑦, 𝐿, 𝑎, 𝑏)
② 各PixelがどのSuperpixelに特徴が似ているのかを探す
➡ Pixelとsuperpixelの特徴の距離が最小のsuperpixelにPixelを関連付け
(SSNではここを微分可能にした(Differentiable SLIC))
③ それぞれの関連付けされたPixelの特徴の平均をsuperpixelの特徴にする
(Superpixelの更新)
7
SLICの具体的なアルゴリズム
• 𝐼 : 入力、5次元(𝑥, 𝑦, 𝐿, 𝑎, 𝑏)
①初期クラスタ𝑆0 ∈ ℝ 𝑚×5をサンプリング
• 画像の勾配に基づく局所的な摂動を用いてピクセル全体にわたり一様に実行
②各ピクセル𝑝をSuperpixelに割り当てる
• 各ピクセルを5次元空間内で最も近いSuperpixelに関連付ける
• 𝐻 𝑝
𝑡 = argmin
𝑖∈{0,…,𝑚−1}
𝐷(𝐼 𝑝, 𝑆𝑖
𝑡−1
)
• 𝐷 : ユークリッド距離
③新しいSuperpixelの要素を得るためにクラスタ内のそれぞれの特徴を平均
• 𝑆𝑖
𝑡
=
1
𝑍𝑖
𝑡 𝑝|𝐻 𝑝
𝑡=𝑖 𝐼 𝑝
(特徴: 𝑥, 𝑦, 𝐿, 𝑎, 𝑏)
④②~③を収束するまで複数回繰り返す
𝑝 : Pixelのインデックス, 𝑖 : Superpixelのインデックス 8
SLICの微分可能でない部分
• Pixel-Superpixelの関係を計算するとき
②各ピクセル𝑝をSuperpixelに割り当てる
• 各ピクセルを5次元空間内で最も近いSuperpixelに関連付ける
• 𝐻 𝑝
𝑡 = argmin
𝑖∈{0,…,𝑚−1}
𝐷(𝐼 𝑝, 𝑆𝑖
𝑡−1
)
• 𝐷 : ユークリッド距離
• SSNではこの最近傍計算を微分可能に変換した
➡ Differentiable SLIC
9
Differentiable SLICアルゴリズム
• 入力 𝐼 (n×5, 1pixel5次元(𝑥, 𝑦, 𝐿, 𝑎, 𝑏))
① 𝐼 をCNNに入力 ➡ 出力 𝐹 𝑛 × 𝑘
(𝑛 : ピクセル数, 𝑘 : チャネル数)
② 初期Superpixel 𝑆0 = 𝐽(𝐹) (規則的なグリッド)
③ t 回繰り返しSuperpixelを更新
1. すべてのPixelとSuperpixelの関係を算出
𝑄 𝑝𝑖
𝑡
= 𝑒
− 𝐼 𝑝−𝑆𝑖
𝑡−1
2
2. Superpixelの情報を更新(Pixel特徴の加重和)
𝑆𝑖
𝑡
=
1
𝑝 𝑄 𝑝𝑖
𝑡
𝑝=1
𝑛
𝑄 𝑝𝑖
𝑡
𝐼 𝑝
➡ ③が 行列積で計算可能 → 微分可能 10
𝐼 𝑝 : Pixel p の特徴
𝑆𝑖
𝑡−1
: Superpixel i の特徴
𝐼 𝑝 の周囲 9 個のSuperpixelを計算
➡ 計算量削減
SSN(CNN)
• 最後の層以外
• フィルタサイズ : 3 × 3
出力チャネル : 64
• 最後の層
• フィルタサイズ : 3 × 3
• 出力サイズ : 𝑘 − 5 (𝑘 = 20)
• 2,4,6層目の特徴マップをConcat
• ↑ : Bilinear Upsampling (original sizeにUpsampling)
• Concat-Conv-ReLUの後に入力 𝐼 (𝑥, 𝑦, 𝐿, 𝑎, 𝑏) を Concat
11
Concat-Conv-ReLU
SSNの利点
• タスク固有の損失関数を設定する
➡ タスク固有のSuperpixelを学習できる
• 例
• Semantic Labels
• Optical Flow
• Depth
12
タスク別Loss関数の例
• Segmentation
• Cross Entropy Loss
• Optical Flow
• L1-norm
13
Compactness Loss
𝐿 𝑐𝑜𝑚𝑝𝑎𝑐𝑡 = 𝐼 𝑥𝑦 − 𝐼 𝑥𝑦
2
• 各Superpixelクラスタ内が低い分散を持つようにするため
• スーパーピクセルの画素と入力画像の画素値で誤差が小さくなるように学習
• 𝐼 𝑥𝑦 : 入力画像の
• 𝐼 𝑥𝑦
: 𝐼 𝑥𝑦
と対応するSuperpixel後のpixel値
14
Lossまとめ
𝐿 = 𝐿 𝑟𝑒𝑐𝑜𝑟𝑛 + 𝜆𝐿 𝑐𝑜𝑚𝑝𝑎𝑐𝑡
(𝜆 = 10−5)
• 各Superpixelクラスタ内が低い分散になり、
Segmentation結果がよくなるようなSuperpixelを学習する
15
Cross
Entropy
Compactness
Loss
実験(Dataset:BSDS500)
• 各アノテーションを別々のサンプルとして使用
(複数のAnnotatorのデータがある)
• Train : 1633
• Test : 1063
• Validation : 1633
• Hyper Parameter
• Batchsize : 8
• Learning rate : 0.0001
• Optimizer : Adam
• Differentiable SLICの反復回数 : 5回
16
評価方法
• 生成されたSuperpixelを使用して達成可能な精度の上限
• ASA(Achievable Segmentation Accuracy)
• 各Superpixelの領域とそれに最も重複しているGTの領域との重複画素数の割合
• ASAが高い ➡ よりGTに近い領域分割ができている
• Superpixelの境界がGTの境界とどの程度一致しているか
• 境界リコール(BR)
• 境界精度(BP)
17
結果の示し方
• SSN 𝑝𝑖𝑥 : SLICアルゴリズム
• SSN 𝑑𝑒𝑒𝑝 : SSN
• SSN𝑙𝑖𝑛𝑒𝑎𝑟 : SSNのCNNを単一の畳み込みレイヤに置き換えた(線形変換)
(ベースライン)
18
ASAとBRスコア(BSD Dataset)
• 指標
• ASA : 生成されたSuperpixelを使用して達成可能な精度の上限
• BR : Superpixelの境界がGTの境界とどの程度一致しているか(境界リコール)
• モデル
• SSN 𝑝𝑖𝑥 : SLICアルゴリズム
• SSN 𝑑𝑒𝑒𝑝 : SSN
• SSN𝑙𝑖𝑛𝑒𝑎𝑟 : SSNのCNNを単一の畳み込みレイヤに置き換えた(ベースライン)
19
Superpixel手法の比較
• Cityscapes
• BSDS500
20
Superpixel手法の比較
• PascalVOC2012
21
生成結果比較
•
22
a
23
a
24
実行時間比較
• 512 × 1024 cityscapes image → 1000 Superpixel
25
Superpixelをアルゴリズム別Segmentation結果比較
26
• SLICほとんど変わらない
➡ SLICとほとんど精度が変わらないことが確認できればいい
(SLICを学習可能なモデルにしただけだから)
Optical Flow
• MPI-Sintel Datasetを使用
• End Point Error(EPE)
➡ GTとセグメントの間のユークリッド距離
➡ EPEが低いほど良いFlowを表現
27

Contenu connexe

Tendances

変分推論と Normalizing Flow
変分推論と Normalizing Flow変分推論と Normalizing Flow
変分推論と Normalizing Flow
Akihiro Nitta
 
画像認識の初歩、SIFT,SURF特徴量
画像認識の初歩、SIFT,SURF特徴量画像認識の初歩、SIFT,SURF特徴量
画像認識の初歩、SIFT,SURF特徴量
takaya imai
 

Tendances (20)

[DL輪読会]When Does Label Smoothing Help?
[DL輪読会]When Does Label Smoothing Help?[DL輪読会]When Does Label Smoothing Help?
[DL輪読会]When Does Label Smoothing Help?
 
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
 
[DL輪読会]Focal Loss for Dense Object Detection
[DL輪読会]Focal Loss for Dense Object Detection[DL輪読会]Focal Loss for Dense Object Detection
[DL輪読会]Focal Loss for Dense Object Detection
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
 
CNNの構造最適化手法について
CNNの構造最適化手法についてCNNの構造最適化手法について
CNNの構造最適化手法について
 
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向
 
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
 
論文紹介: Fast R-CNN&Faster R-CNN
論文紹介: Fast R-CNN&Faster R-CNN論文紹介: Fast R-CNN&Faster R-CNN
論文紹介: Fast R-CNN&Faster R-CNN
 
Transformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法についてTransformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法について
 
ResNetの仕組み
ResNetの仕組みResNetの仕組み
ResNetの仕組み
 
モデルアーキテクチャ観点からのDeep Neural Network高速化
モデルアーキテクチャ観点からのDeep Neural Network高速化モデルアーキテクチャ観点からのDeep Neural Network高速化
モデルアーキテクチャ観点からのDeep Neural Network高速化
 
Transformer メタサーベイ
Transformer メタサーベイTransformer メタサーベイ
Transformer メタサーベイ
 
【DL輪読会】"Instant Neural Graphics Primitives with a Multiresolution Hash Encoding"
【DL輪読会】"Instant Neural Graphics Primitives with a Multiresolution Hash Encoding"【DL輪読会】"Instant Neural Graphics Primitives with a Multiresolution Hash Encoding"
【DL輪読会】"Instant Neural Graphics Primitives with a Multiresolution Hash Encoding"
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
 
変分推論と Normalizing Flow
変分推論と Normalizing Flow変分推論と Normalizing Flow
変分推論と Normalizing Flow
 
画像認識の初歩、SIFT,SURF特徴量
画像認識の初歩、SIFT,SURF特徴量画像認識の初歩、SIFT,SURF特徴量
画像認識の初歩、SIFT,SURF特徴量
 
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
 
自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)
 
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
 

Similaire à Superpixel Sampling Networks

Image net classification with deep convolutional neural network
Image net classification with deep convolutional neural networkImage net classification with deep convolutional neural network
Image net classification with deep convolutional neural network
ga sin
 

Similaire à Superpixel Sampling Networks (20)

[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
 
第5回 配信講義 計算科学技術特論B(2022)
第5回 配信講義 計算科学技術特論B(2022)第5回 配信講義 計算科学技術特論B(2022)
第5回 配信講義 計算科学技術特論B(2022)
 
attention_is_all_you_need_nips17_論文紹介
attention_is_all_you_need_nips17_論文紹介attention_is_all_you_need_nips17_論文紹介
attention_is_all_you_need_nips17_論文紹介
 
mxnetで頑張る深層学習
mxnetで頑張る深層学習mxnetで頑張る深層学習
mxnetで頑張る深層学習
 
Image net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural NetworksImage net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural Networks
 
汎用性と高速性を目指したペアリング暗号ライブラリ mcl
汎用性と高速性を目指したペアリング暗号ライブラリ mcl汎用性と高速性を目指したペアリング暗号ライブラリ mcl
汎用性と高速性を目指したペアリング暗号ライブラリ mcl
 
CUDA1日(?)体験会
CUDA1日(?)体験会CUDA1日(?)体験会
CUDA1日(?)体験会
 
研究を加速するChainerファミリー
研究を加速するChainerファミリー研究を加速するChainerファミリー
研究を加速するChainerファミリー
 
Cedec2012 ai-contest-design-patterns-principles
Cedec2012 ai-contest-design-patterns-principlesCedec2012 ai-contest-design-patterns-principles
Cedec2012 ai-contest-design-patterns-principles
 
第11回 配信講義 計算科学技術特論B(2022)
第11回 配信講義 計算科学技術特論B(2022)第11回 配信講義 計算科学技術特論B(2022)
第11回 配信講義 計算科学技術特論B(2022)
 
CUDA1日(?)体験会 (再アップロード)
CUDA1日(?)体験会 (再アップロード)CUDA1日(?)体験会 (再アップロード)
CUDA1日(?)体験会 (再アップロード)
 
lispmeetup#63 Common Lispでゼロから作るDeep Learning
lispmeetup#63 Common Lispでゼロから作るDeep Learninglispmeetup#63 Common Lispでゼロから作るDeep Learning
lispmeetup#63 Common Lispでゼロから作るDeep Learning
 
[DL輪読会]Making Sense of Vision and Touch: Self-Supervised Learning of Multimod...
[DL輪読会]Making Sense of Vision and Touch: Self-Supervised Learning of Multimod...[DL輪読会]Making Sense of Vision and Touch: Self-Supervised Learning of Multimod...
[DL輪読会]Making Sense of Vision and Touch: Self-Supervised Learning of Multimod...
 
Scrum alliance regional gathering tokyo 2013 pub
Scrum alliance regional gathering tokyo 2013 pubScrum alliance regional gathering tokyo 2013 pub
Scrum alliance regional gathering tokyo 2013 pub
 
畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向
 
SSD: Single Shot MultiBox Detector (ECCV2016)
SSD: Single Shot MultiBox Detector (ECCV2016)SSD: Single Shot MultiBox Detector (ECCV2016)
SSD: Single Shot MultiBox Detector (ECCV2016)
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について
 
Super resolution survey 20180809
Super resolution survey 20180809Super resolution survey 20180809
Super resolution survey 20180809
 
第3回システム系輪講会:IPDPS'17 の機械学習系論文
第3回システム系輪講会:IPDPS'17 の機械学習系論文第3回システム系輪講会:IPDPS'17 の機械学習系論文
第3回システム系輪講会:IPDPS'17 の機械学習系論文
 
Image net classification with deep convolutional neural network
Image net classification with deep convolutional neural networkImage net classification with deep convolutional neural network
Image net classification with deep convolutional neural network
 

Plus de yukihiro domae

Plus de yukihiro domae (9)

Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...
Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...
Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...
 
FeaStNet: Feature-Steered Graph Convolutions for 3D Shape Analysis
FeaStNet: Feature-Steered Graph Convolutions for 3D Shape AnalysisFeaStNet: Feature-Steered Graph Convolutions for 3D Shape Analysis
FeaStNet: Feature-Steered Graph Convolutions for 3D Shape Analysis
 
Graph U-Net
Graph U-NetGraph U-Net
Graph U-Net
 
Graph Refinement based Tree Extraction using Mean-Field Networks and Graph Ne...
Graph Refinement based Tree Extraction using Mean-Field Networks and Graph Ne...Graph Refinement based Tree Extraction using Mean-Field Networks and Graph Ne...
Graph Refinement based Tree Extraction using Mean-Field Networks and Graph Ne...
 
Learning Depthwise Separable Graph Convolution from Data Manifold
Learning Depthwise Separable Graph Convolution from Data ManifoldLearning Depthwise Separable Graph Convolution from Data Manifold
Learning Depthwise Separable Graph Convolution from Data Manifold
 
Texture-Aware Superpixel Segmentation
Texture-Aware Superpixel SegmentationTexture-Aware Superpixel Segmentation
Texture-Aware Superpixel Segmentation
 
Graph LSTM解説
Graph LSTM解説Graph LSTM解説
Graph LSTM解説
 
Graph convolution (スペクトルアプローチ)
Graph convolution (スペクトルアプローチ)Graph convolution (スペクトルアプローチ)
Graph convolution (スペクトルアプローチ)
 
Dynamic Routing Between Capsules
Dynamic Routing Between CapsulesDynamic Routing Between Capsules
Dynamic Routing Between Capsules
 

Superpixel Sampling Networks

Notes de l'éditeur

  1. V:反復回数 K:スーパーピクセル作成の特徴次元