SlideShare une entreprise Scribd logo
1  sur  16
DL勉強会用資料
GANを用いた画像の翻訳
pix2pix, cycle GAN
2017.05.23
Generative Adversarial Networks (GAN) [Goodfellow et al., 2014]
keyword: Adversarial (敵対的な)
Generator : 生成器
ランダムノイズから画像を生成 (本物っぽく画像を作りたい!)
2つのニューラルネットワークを戦わせて学習する Generator vs Discriminator
ランダムノイズ
{0.02, 0.06, 0.87, 0.21, ...} ・・・
・・・
・・・
G
Generative Adversarial Networks (GAN) [Goodfellow et al., 2014]
Discriminator : 判別器
入力画像が本物かどうかを判別 (偽物を見抜きたい!)
入力画像が本物かどうか
[0, 1]・・・
・・・
・・・
D
keyword: Adversarial (敵対的な)
2つのニューラルネットワークを戦わせて学習する Generator vs Discriminator
Generative Adversarial Networks (GAN) [Goodfellow et al., 2014]
本物画像が本物である確率 生成画像が本物である確率
ランダムノイズz
入力画像が本物?偽物?
D(x), D(G(z))
データセットの
本物画像 x
生成画像 G(z)
Deep Convolutional GAN (DCGAN) の生成結果
Image-to-Image Translation
with Conditional Adversarial Networks
pix2pix
Introduction
 言語の翻訳と同様に画像の翻訳を行う
 「画像を入力にして画像を出力にする」タスクは世の中に無数に存在する
 (色塗り、セマンティックセグメンテーション、エッジ化 など)
 一対一に対応した写像とは限らないため非常に難しい
 many-to-one
 mapping photographs to edges, segments, or semantic labels
 one-to-many
 mapping labels or sparse user inputs to realistic images
 画像の生成モデルとして優れた成果を挙げているGANを用いた画像の翻訳に挑戦
 様々な画像変換タスクで使える共通のフレームワークを構築する
 Condition GAN を用いたアーキテクチャを設計
 GeneratorにはU-Net, DiscriminatorにはPatch GANを用いる
基本原理
Conditional GAN (cGAN)
 入力にラベルの情報を与えることで、
ラベルに対応するカテゴリ内での出力を行える
 ランダムノイズだけでなく画像のペアを入力とする
 Generator
 「入力画像」を翻訳した画像を生成する
 Discriminator
 「入力画像」と「真の画像」の2つの画像を入力とする
 そのペアが “Real pair” か “Fake pair” か判定する
損失関数
 GANの損失関数
 cGANの損失関数
 L1ノルムをペナルティとする
Generator
 Image to Image の変換では エンコーダ - デコーダ が一般的に用いられる
 通常のエンコーダ - デコーダでは“どのピクセルの情報か”ということは失われてしまう
 画像の翻訳ではInputとOutputの構造はおおまかに一致するはず
 例えば画像色彩化(色塗り)の場合、入力および出力のエッジは変わらない
Generator
 Image to Image の変換では エンコーダ - デコーダ が一般的に用いられる
 通常のエンコーダ - デコーダでは“どのピクセルの情報か”ということは失われてしまう
 画像の翻訳ではInputとOutputの構造はおおまかに一致するはず
 例えば画像色彩化(色塗り)の場合、入力および出力のエッジは変わらない
 U-Net を利用する
 デコーダ n-i層はi層のエンコーダの出力も同時に受け取る( Skip connections )
 入力の低次元の情報を共有したネットワーク
Discriminator
 L1ノルムの損失は画像がぼけてしまう
 高周波の鮮明度は表現できていない
 画像をパッチに分解してパッチ毎を識別する -> PatchGAN
 局所的に Real pair か Fake pair か判定
 高周波情報をモデル化可能
 一方で従来は表現できていた低周波情報が表現できなくなる
 低周波情報のキャプチャはL1ノルムペナルティによって表現する
PatchGAN
 パッチ径よりも遠いピクセルの独立を仮定 → 画像をマルコフ確立場としてモデル化
 したがってPatchGANはテクスチャ,スタイルの損失として理解できる??
Discriminator
https://affinelayer.com/pix2pix/index.html
Experiments
 Semantic labeles ⇔ 写真(Cityscapes dataset)
 Arcitechural labels ⇔ 写真(Center for Machine Perception Facades dataset)
 地図 ⇔ 航空写真(Google Maps)
 白黒写真 ⇔ カラー写真(ImageNet)
 エッジ情報 ⇔ 写真(靴,カバン)
 スケッチ ⇔ 写真
 昼 ⇔ 夜
Results
 論文参照
https://phillipi.github.io/pix2pix/
Unpaired Image-to-Image Translation
using Cycle-Consistent Adversarial Networks
参考資料参照
cycle GAN

Contenu connexe

Tendances

論文紹介 Pixel Recurrent Neural Networks
論文紹介 Pixel Recurrent Neural Networks論文紹介 Pixel Recurrent Neural Networks
論文紹介 Pixel Recurrent Neural NetworksSeiya Tokui
 
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~SSII
 
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜SSII
 
StyleGAN解説 CVPR2019読み会@DeNA
StyleGAN解説 CVPR2019読み会@DeNAStyleGAN解説 CVPR2019読み会@DeNA
StyleGAN解説 CVPR2019読み会@DeNAKento Doi
 
画像キャプションの自動生成
画像キャプションの自動生成画像キャプションの自動生成
画像キャプションの自動生成Yoshitaka Ushiku
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!TransformerArithmer Inc.
 
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...Deep Learning JP
 
[DLHacks]StyleGANとBigGANのStyle mixing, morphing
[DLHacks]StyleGANとBigGANのStyle mixing, morphing[DLHacks]StyleGANとBigGANのStyle mixing, morphing
[DLHacks]StyleGANとBigGANのStyle mixing, morphingDeep Learning JP
 
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion ModelsDeep Learning JP
 
[DL Hacks]Visdomを使ったデータ可視化
[DL Hacks]Visdomを使ったデータ可視化[DL Hacks]Visdomを使ったデータ可視化
[DL Hacks]Visdomを使ったデータ可視化Deep Learning JP
 
【論文読み会】Alias-Free Generative Adversarial Networks(StyleGAN3)
【論文読み会】Alias-Free Generative Adversarial Networks(StyleGAN3)【論文読み会】Alias-Free Generative Adversarial Networks(StyleGAN3)
【論文読み会】Alias-Free Generative Adversarial Networks(StyleGAN3)ARISE analytics
 
semantic segmentation サーベイ
semantic segmentation サーベイsemantic segmentation サーベイ
semantic segmentation サーベイyohei okawa
 
Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西Keigo Nishida
 
【東工大・鈴木良郎】「画像生成用StyleGANの技術」を「3D形状の生成」に活用!! 新車のボディ形状を生成するAI
【東工大・鈴木良郎】「画像生成用StyleGANの技術」を「3D形状の生成」に活用!! 新車のボディ形状を生成するAI【東工大・鈴木良郎】「画像生成用StyleGANの技術」を「3D形状の生成」に活用!! 新車のボディ形状を生成するAI
【東工大・鈴木良郎】「画像生成用StyleGANの技術」を「3D形状の生成」に活用!! 新車のボディ形状を生成するAIssuser1bf283
 
強化学習における好奇心
強化学習における好奇心強化学習における好奇心
強化学習における好奇心Shota Imai
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習Deep Learning JP
 
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and EditingDeep Learning JP
 
Neural scene representation and rendering の解説(第3回3D勉強会@関東)
Neural scene representation and rendering の解説(第3回3D勉強会@関東)Neural scene representation and rendering の解説(第3回3D勉強会@関東)
Neural scene representation and rendering の解説(第3回3D勉強会@関東)Masaya Kaneko
 
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...Deep Learning JP
 
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational AutoencoderDeep Learning JP
 

Tendances (20)

論文紹介 Pixel Recurrent Neural Networks
論文紹介 Pixel Recurrent Neural Networks論文紹介 Pixel Recurrent Neural Networks
論文紹介 Pixel Recurrent Neural Networks
 
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~
 
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
 
StyleGAN解説 CVPR2019読み会@DeNA
StyleGAN解説 CVPR2019読み会@DeNAStyleGAN解説 CVPR2019読み会@DeNA
StyleGAN解説 CVPR2019読み会@DeNA
 
画像キャプションの自動生成
画像キャプションの自動生成画像キャプションの自動生成
画像キャプションの自動生成
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
 
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
 
[DLHacks]StyleGANとBigGANのStyle mixing, morphing
[DLHacks]StyleGANとBigGANのStyle mixing, morphing[DLHacks]StyleGANとBigGANのStyle mixing, morphing
[DLHacks]StyleGANとBigGANのStyle mixing, morphing
 
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
 
[DL Hacks]Visdomを使ったデータ可視化
[DL Hacks]Visdomを使ったデータ可視化[DL Hacks]Visdomを使ったデータ可視化
[DL Hacks]Visdomを使ったデータ可視化
 
【論文読み会】Alias-Free Generative Adversarial Networks(StyleGAN3)
【論文読み会】Alias-Free Generative Adversarial Networks(StyleGAN3)【論文読み会】Alias-Free Generative Adversarial Networks(StyleGAN3)
【論文読み会】Alias-Free Generative Adversarial Networks(StyleGAN3)
 
semantic segmentation サーベイ
semantic segmentation サーベイsemantic segmentation サーベイ
semantic segmentation サーベイ
 
Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西
 
【東工大・鈴木良郎】「画像生成用StyleGANの技術」を「3D形状の生成」に活用!! 新車のボディ形状を生成するAI
【東工大・鈴木良郎】「画像生成用StyleGANの技術」を「3D形状の生成」に活用!! 新車のボディ形状を生成するAI【東工大・鈴木良郎】「画像生成用StyleGANの技術」を「3D形状の生成」に活用!! 新車のボディ形状を生成するAI
【東工大・鈴木良郎】「画像生成用StyleGANの技術」を「3D形状の生成」に活用!! 新車のボディ形状を生成するAI
 
強化学習における好奇心
強化学習における好奇心強化学習における好奇心
強化学習における好奇心
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
 
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
 
Neural scene representation and rendering の解説(第3回3D勉強会@関東)
Neural scene representation and rendering の解説(第3回3D勉強会@関東)Neural scene representation and rendering の解説(第3回3D勉強会@関東)
Neural scene representation and rendering の解説(第3回3D勉強会@関東)
 
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
 
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
 

Similaire à 【機械学習勉強会】画像の翻訳 ”Image-to-Image translation”

Laplacian Pyramid of Generative Adversarial Networks (LAPGAN) - NIPS2015読み会 #...
Laplacian Pyramid of Generative Adversarial Networks (LAPGAN) - NIPS2015読み会 #...Laplacian Pyramid of Generative Adversarial Networks (LAPGAN) - NIPS2015読み会 #...
Laplacian Pyramid of Generative Adversarial Networks (LAPGAN) - NIPS2015読み会 #...Koichi Hamada
 
Deep Convolutional Generative Adversarial Networks - Nextremer勉強会資料
Deep Convolutional Generative Adversarial Networks - Nextremer勉強会資料Deep Convolutional Generative Adversarial Networks - Nextremer勉強会資料
Deep Convolutional Generative Adversarial Networks - Nextremer勉強会資料tm_2648
 
はじめての方向け GANチュートリアル
はじめての方向け GANチュートリアルはじめての方向け GANチュートリアル
はじめての方向け GANチュートリアルyohei okawa
 
4. CycleGANの画像変換と現代美術への応用
4. CycleGANの画像変換と現代美術への応用4. CycleGANの画像変換と現代美術への応用
4. CycleGANの画像変換と現代美術への応用幸太朗 岩澤
 
Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換
Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換
Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換Koichi Hamada
 
視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)
視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)
視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)STAIR Lab, Chiba Institute of Technology
 
CycleGANについて
CycleGANについてCycleGANについて
CycleGANについてyohei okawa
 
ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018)
ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018)ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018)
ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018)Masakazu Iwamura
 

Similaire à 【機械学習勉強会】画像の翻訳 ”Image-to-Image translation” (8)

Laplacian Pyramid of Generative Adversarial Networks (LAPGAN) - NIPS2015読み会 #...
Laplacian Pyramid of Generative Adversarial Networks (LAPGAN) - NIPS2015読み会 #...Laplacian Pyramid of Generative Adversarial Networks (LAPGAN) - NIPS2015読み会 #...
Laplacian Pyramid of Generative Adversarial Networks (LAPGAN) - NIPS2015読み会 #...
 
Deep Convolutional Generative Adversarial Networks - Nextremer勉強会資料
Deep Convolutional Generative Adversarial Networks - Nextremer勉強会資料Deep Convolutional Generative Adversarial Networks - Nextremer勉強会資料
Deep Convolutional Generative Adversarial Networks - Nextremer勉強会資料
 
はじめての方向け GANチュートリアル
はじめての方向け GANチュートリアルはじめての方向け GANチュートリアル
はじめての方向け GANチュートリアル
 
4. CycleGANの画像変換と現代美術への応用
4. CycleGANの画像変換と現代美術への応用4. CycleGANの画像変換と現代美術への応用
4. CycleGANの画像変換と現代美術への応用
 
Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換
Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換
Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換
 
視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)
視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)
視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)
 
CycleGANについて
CycleGANについてCycleGANについて
CycleGANについて
 
ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018)
ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018)ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018)
ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018)
 

【機械学習勉強会】画像の翻訳 ”Image-to-Image translation”

  • 2. Generative Adversarial Networks (GAN) [Goodfellow et al., 2014] keyword: Adversarial (敵対的な) Generator : 生成器 ランダムノイズから画像を生成 (本物っぽく画像を作りたい!) 2つのニューラルネットワークを戦わせて学習する Generator vs Discriminator ランダムノイズ {0.02, 0.06, 0.87, 0.21, ...} ・・・ ・・・ ・・・ G
  • 3. Generative Adversarial Networks (GAN) [Goodfellow et al., 2014] Discriminator : 判別器 入力画像が本物かどうかを判別 (偽物を見抜きたい!) 入力画像が本物かどうか [0, 1]・・・ ・・・ ・・・ D keyword: Adversarial (敵対的な) 2つのニューラルネットワークを戦わせて学習する Generator vs Discriminator
  • 4. Generative Adversarial Networks (GAN) [Goodfellow et al., 2014] 本物画像が本物である確率 生成画像が本物である確率 ランダムノイズz 入力画像が本物?偽物? D(x), D(G(z)) データセットの 本物画像 x 生成画像 G(z)
  • 5. Deep Convolutional GAN (DCGAN) の生成結果
  • 6. Image-to-Image Translation with Conditional Adversarial Networks pix2pix
  • 7. Introduction  言語の翻訳と同様に画像の翻訳を行う  「画像を入力にして画像を出力にする」タスクは世の中に無数に存在する  (色塗り、セマンティックセグメンテーション、エッジ化 など)  一対一に対応した写像とは限らないため非常に難しい  many-to-one  mapping photographs to edges, segments, or semantic labels  one-to-many  mapping labels or sparse user inputs to realistic images  画像の生成モデルとして優れた成果を挙げているGANを用いた画像の翻訳に挑戦  様々な画像変換タスクで使える共通のフレームワークを構築する  Condition GAN を用いたアーキテクチャを設計  GeneratorにはU-Net, DiscriminatorにはPatch GANを用いる
  • 8. 基本原理 Conditional GAN (cGAN)  入力にラベルの情報を与えることで、 ラベルに対応するカテゴリ内での出力を行える  ランダムノイズだけでなく画像のペアを入力とする  Generator  「入力画像」を翻訳した画像を生成する  Discriminator  「入力画像」と「真の画像」の2つの画像を入力とする  そのペアが “Real pair” か “Fake pair” か判定する
  • 10. Generator  Image to Image の変換では エンコーダ - デコーダ が一般的に用いられる  通常のエンコーダ - デコーダでは“どのピクセルの情報か”ということは失われてしまう  画像の翻訳ではInputとOutputの構造はおおまかに一致するはず  例えば画像色彩化(色塗り)の場合、入力および出力のエッジは変わらない
  • 11. Generator  Image to Image の変換では エンコーダ - デコーダ が一般的に用いられる  通常のエンコーダ - デコーダでは“どのピクセルの情報か”ということは失われてしまう  画像の翻訳ではInputとOutputの構造はおおまかに一致するはず  例えば画像色彩化(色塗り)の場合、入力および出力のエッジは変わらない  U-Net を利用する  デコーダ n-i層はi層のエンコーダの出力も同時に受け取る( Skip connections )  入力の低次元の情報を共有したネットワーク
  • 12. Discriminator  L1ノルムの損失は画像がぼけてしまう  高周波の鮮明度は表現できていない  画像をパッチに分解してパッチ毎を識別する -> PatchGAN  局所的に Real pair か Fake pair か判定  高周波情報をモデル化可能  一方で従来は表現できていた低周波情報が表現できなくなる  低周波情報のキャプチャはL1ノルムペナルティによって表現する PatchGAN  パッチ径よりも遠いピクセルの独立を仮定 → 画像をマルコフ確立場としてモデル化  したがってPatchGANはテクスチャ,スタイルの損失として理解できる??
  • 14. Experiments  Semantic labeles ⇔ 写真(Cityscapes dataset)  Arcitechural labels ⇔ 写真(Center for Machine Perception Facades dataset)  地図 ⇔ 航空写真(Google Maps)  白黒写真 ⇔ カラー写真(ImageNet)  エッジ情報 ⇔ 写真(靴,カバン)  スケッチ ⇔ 写真  昼 ⇔ 夜
  • 16. Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks 参考資料参照 cycle GAN