SlideShare une entreprise Scribd logo
1  sur  39
PaperReading: 2018/07/02
Unsupervised Discrete
Sentence Representation
Learning for Interpretable
Neural Dialog Generation
read by Kazutoshi Shinoda
論文概要
◉ Title: Unsupervised Discrete Sentence
Representation(略)
◉ In ACL 2018
◉ Zhao et al. @CMU
◉ scores: 5-5-5
◉ 実装・デー
タ:https://github.com/snakeztc/NeuralDialog
-LAED 2
一言で言うと
◉ 挙動を解釈できる対話システムを構築
◉ 離散潜在変数を使って文を表現することで対
話システムの出力を解釈可能にした
3
Dialog System
◉ Classic model (rule-based)
○ 利点:interpretable
○ 欠点:スケールしない
◉ Neural model
○ 利点:泥臭い作業がいらない、スケールする
○ 欠点:not interpretable
4
Abstract
“We present an unsupervised discrete sentence
representation learning method that can
integrate with any existing encoder-decoder
dialog models for interpretable response
generation.” (Zhao et al.)
5
問題設定
◉ context c, response x, latent action z
6
C
C
C
x
z
latent action z
対話システムをinterpretableにするために、latent action z
を導入
◉ zはk ∈ [1,K]の離散値をとり、何かしらの意味をもつ値
(特に規定はしない)
◉ zは以下の性質を持つものとする
1. zは、発話xの特徴を捉えている
2. zの意味は文脈cとは独立である
■ これにより、文脈に依存しない意味をzに持たせることが
できる
7
Framework
以下の4つの構成要素からなる
◉ Recognition network R: q(z|x)
◉ Generation network G: p(x|z)
◉ Encoder decoder network: F: p(x|z,c)
◉ Policy network π: p(z|c)
8
zの学習に使う
cとzから
xを生成する
Framework
以下の4つの構成要素からなる
◉ Recognition network R: q(z|x)
◉ Generation network G: p(x|z)
◉ Encoder decoder network: F: p(x|z,c)
◉ Policy network π: p(z|c)
9
zの学習に使う
cとzから
xを生成する
Learning Process
Recognition
10
Z Generation
X
sentence VAE with discrete latent space
sentence VAE with discrete latent space
◉ Recognition network R: q(z|x)
○ RNN
○ z = {z1…zm…zM}のM個の変数からなり、zmはKクラスのカテ
ゴリ変数
○ q(zm|x) = Softmax(Linear(h_last)) ← Gumbel-Softmax
◉ Generation network G: p(x|z)
○ RNN
○ initial state h0からxを再構成する
◉ latent samples zm → initial state of generator h0
○ h0 = Σem(zm)
11
Gumbel-softmax
◉ カテゴリ変数を確率分布からサンプリングする時に、
Backpropagateできるようにサンプリングするための
機構
◉ 詳しくは論文参照[1]
12
[1]Jang et al. Categorical reparameterization with gumbel-softmax. In ICLR 2017.
AE / VAE (Variational Auto Encoder)
◉ AE ◉ VAE
13
AE / VAE NLPへの応用
◉ AE
○ Sequential AE[2]
○ x→z→x
◉ VAE
○ Sentence VAE[3]
○ x→(μ, σ)→z→x
14
[2]Hill et al. Learning Distributed Representations of Sentences from Unlabelled Data. In NAACL-HLT 2016.
[3]Bowman et al. Generating Sentences from a Continuous Space. In CoNLL 2016
VAEの欠点
◉ “Posterior Collapse”問題
○ Decoder p(x|z)が十分にpowerfulであるとき、
Decoderはzに依存せずp(x)を、Encoder p(z|x)はx
に依存せずp(z)を出力してしまう=学習が難しい
⇨これまでの色々な対策
○ 意図的にDecoderに不利な条件を与える
■ 単語のdropout[2]
○ Vector Quantizationの利用(画像、音声)[4]
15
[2]Hill et al. Learning Distributed Representations of Sentences from Unlabelled Data. In NAACL-HLT 2016.
[4]van den Oord et al. Neural Discrete Representation Learning. In NIPS 2017.
VAEの欠点:本論文の主張
◉ “Posterior Collapse”問題
○ 原因はELBOにある
16
ELBOとは
◉ VAEの目的関数
◉ evidence lowerbound objectiveの略
○ ELBOの式:
17
誤差:ちゃんと復元できているか 正則化項:KL
相対エントロピーと相互情報量
KL: Kullback-Leibler
divergence(相対エントロピー)
◉ p=q ならば KL(p|q)=0
◉ KL >= 0
I[x, y]: mutual information(相互
情報量)
◉ zとxが互いに独立なら
ばI[z,x]=0
◉ I >= 0
18
VAEの欠点:本論文の主張
◉ ELBOをdatasetの平均に拡張
・・・ELBO↑ ⇨ I↓ ⇨ zとxは互いに独立(に近づく)
19
証明:論文のAppendix参照
VAEの欠点:本論文の主張
◉ 以下のようにELBOとmutual informationを最
適化することで解決できる
◉ infoVAE[5]と全く同じ目的関数
20
[5] Zhao et al. Learning Discourse-level Diversity for Neural Dialog Models using Conditional Variational Autoencoders. In
ACL 2017.
◉ q(z)はEx[q(z|x)]なので、各mini-batchについて
◉ これをBatch Prior Regularization(BPR)と呼ぶことに
する 21
をどう求めるか
Learning Sentence Representations from the Context
◉ distributional hypothesis(分布仮説)
○ 文/単語の意味は周辺の文/単語から推測できる
○ Skip Thought vectors[6]
◉ Discrete Information Variational Skip Thought (DI-
VST)
○ 2つのGeneratorで前(p)後(n)の文を予測
22
[6] Kiros et al. Skip-Thought vectors. In NIPS 2015.
Proposed Sentence Representations
◉ DI-VAE
◉ DI-VST
23
Framework
以下の4つの構成要素からなる
◉ Recognition network R: q(z|x)
◉ Generation network G: p(x|z)
◉ Encoder decoder network: F: p(x|z,c)
◉ Policy network π: p(z|c)
24
zの学習に使う
cとzから
xを生成する
Latent Action Encoder Decoder (LEAD)
Input: c
Output: x
◉ Encoder decoder network: F: p(x|z,c)
○ Encoder: c → h
○ Decoder: h, z → x
◉ Policy network π: p(z|c)
○ multi-layer perceptron: h → z’
25
Attribute Forcing LAED
◉ Decoderのinputにzを加えてもそれがoutputに反映され
るとは限らない
⇨Controllable text generation framework[7]の利用
○ Recognition q(z|x)をdiscriminatorとしてDecoderの出力にzが反
映されていなかったらペナルティ
○ 離散値に対応するためにdeterministic continuous relaxation[7]
26
[7] Hu et al. Toward controlled generation of text. In ICML 2017.
Procedure
◉ Train
○ given c, x
○ Recognition x → z
○ Generation z →x
○ Encoder c → h
○ Decoder h, z →x
○ Policy h → z’
◉ Test
○ given c
○ Encoder c → h
○ Decoder h, z’ → x
○ Policy h → z’
27
Experiments
◉ 検証に使うデータセット
○ Penn Treebank preprocessed by Micolov
○ Stanford Multi-Domain Dialog (SMD) dataset
■ task oriented
○ Daily Dialog (DD)
■ 13,118 human-human dialogs (open domain)
○ Switchboard (SW)
■ 2,400 human-human telephone dialogs (open
domain)
28
Experiments
文表現の提案モデル
◉ DI-VAE
◉ DI-VST
Baselines
◉ Unregularized models
○ DAE (removing KL term from DI-VAE)
○ DST (removing KL term from DI-VST)
◉ ELBO models
○ DVAE (discrete sentence VAE)
○ DVST (discrete variational ST) 29
Results
◉ Unsupervised Discrete
Sentence
Representationの評価
◉ PPL: 低いほど良い
◉ KL: 低いほど良い
◉ I: 高いほど良い
30
Results
31
バッチサイズNは小さすぎず
大きすぎずがちょうど良い
Results
32
latent actionのクラス数は少ない方がパフォーマンスがよかった
Results
33
Homogeneity:
A clustering result satisfies homogeneity if all of its clusters contain
only data points which are members of a single class.
(http://scikit-learn.org/stable/modules/generated/sklearn.metrics.homogeneity_score.html)
Experiments
対話システム
◉ DI-VAEを使ったLAED:AE-ED
◉ DI-VSTを使ったLAED:ST-ED
34
Results
35
AE-EDの方が生成された文からlatent actionを復元できている
Lattrを加えてlatent actionを無理やり考慮させるとよりlatent actionを復元できる
DD、SWのopen domainで難易度が高いデータセットでLattrが特に効果を発揮
Results
36
STベースの方がPolicy networkの
パフォーマンスは良い
Results
37
出力はAE-EDの方が良さげだが、
p(z|c)はST-EDの方が安定している
まとめ
◉ Interpretableな対話システムのために離散的
な文の表現を学習
◉ VAE, SkipThoughtをベースにしたsentence
representationを提案
◉ 離散潜在変数によって対話システムが
Interpretableになった
38
Any questions ?
Thanks!
39

Contenu connexe

Tendances

人工無脳バトル 1st STEP 回答と解説
人工無脳バトル 1st STEP 回答と解説人工無脳バトル 1st STEP 回答と解説
人工無脳バトル 1st STEP 回答と解説JustSystems Corporation
 
【輪読会】Braxlines: Fast and Interactive Toolkit for RL-driven Behavior Engineeri...
【輪読会】Braxlines: Fast and Interactive Toolkit for RL-driven Behavior Engineeri...【輪読会】Braxlines: Fast and Interactive Toolkit for RL-driven Behavior Engineeri...
【輪読会】Braxlines: Fast and Interactive Toolkit for RL-driven Behavior Engineeri...Deep Learning JP
 
[DL輪読会]It's not just size that maters small language models are also few sho...
[DL輪読会]It's not just size that maters  small language models are also few sho...[DL輪読会]It's not just size that maters  small language models are also few sho...
[DL輪読会]It's not just size that maters small language models are also few sho...Deep Learning JP
 
GPU上でのNLP向け深層学習の実装について
GPU上でのNLP向け深層学習の実装についてGPU上でのNLP向け深層学習の実装について
GPU上でのNLP向け深層学習の実装についてYuya Unno
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係についてDeep Learning JP
 
Generative adversarial nets
Generative adversarial netsGenerative adversarial nets
Generative adversarial netsKeisuke Hosaka
 
Infer.netによるldaの実装
Infer.netによるldaの実装Infer.netによるldaの実装
Infer.netによるldaの実装池田 直哉
 
最先端NLP勉強会2017_ACL17
最先端NLP勉強会2017_ACL17最先端NLP勉強会2017_ACL17
最先端NLP勉強会2017_ACL17Masayoshi Kondo
 
論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative Models論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative ModelsSeiya Tokui
 
2値化CNN on FPGAでGPUとガチンコバトル(公開版)
2値化CNN on FPGAでGPUとガチンコバトル(公開版)2値化CNN on FPGAでGPUとガチンコバトル(公開版)
2値化CNN on FPGAでGPUとガチンコバトル(公開版)Hiroki Nakahara
 
Vanishing Component Analysis
Vanishing Component AnalysisVanishing Component Analysis
Vanishing Component AnalysisKoji Matsuda
 
Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用Seiya Tokui
 
Proof summit 2017 for slideshare
Proof summit 2017 for slideshareProof summit 2017 for slideshare
Proof summit 2017 for slideshareKeisuke Yahata
 
トピックモデル
トピックモデルトピックモデル
トピックモデル貴之 八木
 

Tendances (17)

人工無脳バトル 1st STEP 回答と解説
人工無脳バトル 1st STEP 回答と解説人工無脳バトル 1st STEP 回答と解説
人工無脳バトル 1st STEP 回答と解説
 
【輪読会】Braxlines: Fast and Interactive Toolkit for RL-driven Behavior Engineeri...
【輪読会】Braxlines: Fast and Interactive Toolkit for RL-driven Behavior Engineeri...【輪読会】Braxlines: Fast and Interactive Toolkit for RL-driven Behavior Engineeri...
【輪読会】Braxlines: Fast and Interactive Toolkit for RL-driven Behavior Engineeri...
 
[DL輪読会]It's not just size that maters small language models are also few sho...
[DL輪読会]It's not just size that maters  small language models are also few sho...[DL輪読会]It's not just size that maters  small language models are also few sho...
[DL輪読会]It's not just size that maters small language models are also few sho...
 
GPU上でのNLP向け深層学習の実装について
GPU上でのNLP向け深層学習の実装についてGPU上でのNLP向け深層学習の実装について
GPU上でのNLP向け深層学習の実装について
 
Meeting12
Meeting12Meeting12
Meeting12
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について
 
Generative adversarial nets
Generative adversarial netsGenerative adversarial nets
Generative adversarial nets
 
Infer.netによるldaの実装
Infer.netによるldaの実装Infer.netによるldaの実装
Infer.netによるldaの実装
 
最先端NLP勉強会2017_ACL17
最先端NLP勉強会2017_ACL17最先端NLP勉強会2017_ACL17
最先端NLP勉強会2017_ACL17
 
論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative Models論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative Models
 
2値化CNN on FPGAでGPUとガチンコバトル(公開版)
2値化CNN on FPGAでGPUとガチンコバトル(公開版)2値化CNN on FPGAでGPUとガチンコバトル(公開版)
2値化CNN on FPGAでGPUとガチンコバトル(公開版)
 
Vanishing Component Analysis
Vanishing Component AnalysisVanishing Component Analysis
Vanishing Component Analysis
 
Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用
 
音声認識と深層学習
音声認識と深層学習音声認識と深層学習
音声認識と深層学習
 
Rainbow
RainbowRainbow
Rainbow
 
Proof summit 2017 for slideshare
Proof summit 2017 for slideshareProof summit 2017 for slideshare
Proof summit 2017 for slideshare
 
トピックモデル
トピックモデルトピックモデル
トピックモデル
 

Similaire à [PaperReading]Unsupervised Discrete Sentence Representation Learning for Interpretable Neural Dialog Generation

attention_is_all_you_need_nips17_論文紹介
attention_is_all_you_need_nips17_論文紹介attention_is_all_you_need_nips17_論文紹介
attention_is_all_you_need_nips17_論文紹介Masayoshi Kondo
 
[DL輪読会] Controllable Invariance through Adversarial Feature Learning” (NIPS2017)
[DL輪読会] Controllable Invariance through Adversarial Feature Learning” (NIPS2017)[DL輪読会] Controllable Invariance through Adversarial Feature Learning” (NIPS2017)
[DL輪読会] Controllable Invariance through Adversarial Feature Learning” (NIPS2017)Yusuke Iwasawa
 
Learning to Navigate in Complex Environments 輪読
Learning to Navigate in Complex Environments 輪読Learning to Navigate in Complex Environments 輪読
Learning to Navigate in Complex Environments 輪読Tatsuya Matsushima
 
Guiding neural machine translation with retrieved translation pieces
Guiding neural machine translation with retrieved translation piecesGuiding neural machine translation with retrieved translation pieces
Guiding neural machine translation with retrieved translation piecesSatoru Katsumata
 
【DL輪読会】Data-Efficient Reinforcement Learning with Self-Predictive Representat...
【DL輪読会】Data-Efficient Reinforcement Learning with Self-Predictive Representat...【DL輪読会】Data-Efficient Reinforcement Learning with Self-Predictive Representat...
【DL輪読会】Data-Efficient Reinforcement Learning with Self-Predictive Representat...Deep Learning JP
 
Neo4j高可用性クラスタ― vs 大規模分散クラスタ―の解説
Neo4j高可用性クラスタ― vs 大規模分散クラスタ―の解説Neo4j高可用性クラスタ― vs 大規模分散クラスタ―の解説
Neo4j高可用性クラスタ― vs 大規模分散クラスタ―の解説昌桓 李
 
Neo4j勉強会 ha cluster vs causal cluster
Neo4j勉強会 ha cluster vs causal clusterNeo4j勉強会 ha cluster vs causal cluster
Neo4j勉強会 ha cluster vs causal clusterChanghwan Lee
 
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)Koji Matsuda
 
Deep Learningの基礎と応用
Deep Learningの基礎と応用Deep Learningの基礎と応用
Deep Learningの基礎と応用Seiya Tokui
 
PyTorch, PixyzによるGenerative Query Networkの実装
PyTorch, PixyzによるGenerative Query Networkの実装PyTorch, PixyzによるGenerative Query Networkの実装
PyTorch, PixyzによるGenerative Query Networkの実装Shohei Taniguchi
 
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)Masahiro Suzuki
 
NLP若手の回 ACL2012参加報告
NLP若手の回 ACL2012参加報告NLP若手の回 ACL2012参加報告
NLP若手の回 ACL2012参加報告Hiroyuki TOKUNAGA
 
Intoroduction of Pandas with Python
Intoroduction of Pandas with PythonIntoroduction of Pandas with Python
Intoroduction of Pandas with PythonAtsushi Hayakawa
 
深層生成モデルと世界モデル, 深層生成モデルライブラリPixyzについて
深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて
深層生成モデルと世界モデル, 深層生成モデルライブラリPixyzについてMasahiro Suzuki
 
PCSJ/IMPS2021 講演資料:深層画像圧縮からAIの生成モデルへ (VAEの定量的な理論解明)
PCSJ/IMPS2021 講演資料:深層画像圧縮からAIの生成モデルへ (VAEの定量的な理論解明)PCSJ/IMPS2021 講演資料:深層画像圧縮からAIの生成モデルへ (VAEの定量的な理論解明)
PCSJ/IMPS2021 講演資料:深層画像圧縮からAIの生成モデルへ (VAEの定量的な理論解明)Akira Nakagawa
 
充足可能性問題のいろいろ
充足可能性問題のいろいろ充足可能性問題のいろいろ
充足可能性問題のいろいろHiroshi Yamashita
 
[DLHacks]Topic‑Aware Neu ral KeyphraseGenerationforSocial Media Language
[DLHacks]Topic‑Aware Neu ral KeyphraseGenerationforSocial Media Language[DLHacks]Topic‑Aware Neu ral KeyphraseGenerationforSocial Media Language
[DLHacks]Topic‑Aware Neu ral KeyphraseGenerationforSocial Media LanguageDeep Learning JP
 

Similaire à [PaperReading]Unsupervised Discrete Sentence Representation Learning for Interpretable Neural Dialog Generation (20)

attention_is_all_you_need_nips17_論文紹介
attention_is_all_you_need_nips17_論文紹介attention_is_all_you_need_nips17_論文紹介
attention_is_all_you_need_nips17_論文紹介
 
[DL輪読会] Controllable Invariance through Adversarial Feature Learning” (NIPS2017)
[DL輪読会] Controllable Invariance through Adversarial Feature Learning” (NIPS2017)[DL輪読会] Controllable Invariance through Adversarial Feature Learning” (NIPS2017)
[DL輪読会] Controllable Invariance through Adversarial Feature Learning” (NIPS2017)
 
Learning to Navigate in Complex Environments 輪読
Learning to Navigate in Complex Environments 輪読Learning to Navigate in Complex Environments 輪読
Learning to Navigate in Complex Environments 輪読
 
Guiding neural machine translation with retrieved translation pieces
Guiding neural machine translation with retrieved translation piecesGuiding neural machine translation with retrieved translation pieces
Guiding neural machine translation with retrieved translation pieces
 
【DL輪読会】Data-Efficient Reinforcement Learning with Self-Predictive Representat...
【DL輪読会】Data-Efficient Reinforcement Learning with Self-Predictive Representat...【DL輪読会】Data-Efficient Reinforcement Learning with Self-Predictive Representat...
【DL輪読会】Data-Efficient Reinforcement Learning with Self-Predictive Representat...
 
Neo4j高可用性クラスタ― vs 大規模分散クラスタ―の解説
Neo4j高可用性クラスタ― vs 大規模分散クラスタ―の解説Neo4j高可用性クラスタ― vs 大規模分散クラスタ―の解説
Neo4j高可用性クラスタ― vs 大規模分散クラスタ―の解説
 
Neo4j勉強会 ha cluster vs causal cluster
Neo4j勉強会 ha cluster vs causal clusterNeo4j勉強会 ha cluster vs causal cluster
Neo4j勉強会 ha cluster vs causal cluster
 
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)
 
Deep Learningの基礎と応用
Deep Learningの基礎と応用Deep Learningの基礎と応用
Deep Learningの基礎と応用
 
PyTorch, PixyzによるGenerative Query Networkの実装
PyTorch, PixyzによるGenerative Query Networkの実装PyTorch, PixyzによるGenerative Query Networkの実装
PyTorch, PixyzによるGenerative Query Networkの実装
 
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)
 
4thNLPDL
4thNLPDL4thNLPDL
4thNLPDL
 
第2回 NIPS+読み会・関西 発表資料 山本
第2回 NIPS+読み会・関西 発表資料 山本第2回 NIPS+読み会・関西 発表資料 山本
第2回 NIPS+読み会・関西 発表資料 山本
 
NLP若手の回 ACL2012参加報告
NLP若手の回 ACL2012参加報告NLP若手の回 ACL2012参加報告
NLP若手の回 ACL2012参加報告
 
Intoroduction of Pandas with Python
Intoroduction of Pandas with PythonIntoroduction of Pandas with Python
Intoroduction of Pandas with Python
 
深層生成モデルと世界モデル, 深層生成モデルライブラリPixyzについて
深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて
深層生成モデルと世界モデル, 深層生成モデルライブラリPixyzについて
 
Extract and edit
Extract and editExtract and edit
Extract and edit
 
PCSJ/IMPS2021 講演資料:深層画像圧縮からAIの生成モデルへ (VAEの定量的な理論解明)
PCSJ/IMPS2021 講演資料:深層画像圧縮からAIの生成モデルへ (VAEの定量的な理論解明)PCSJ/IMPS2021 講演資料:深層画像圧縮からAIの生成モデルへ (VAEの定量的な理論解明)
PCSJ/IMPS2021 講演資料:深層画像圧縮からAIの生成モデルへ (VAEの定量的な理論解明)
 
充足可能性問題のいろいろ
充足可能性問題のいろいろ充足可能性問題のいろいろ
充足可能性問題のいろいろ
 
[DLHacks]Topic‑Aware Neu ral KeyphraseGenerationforSocial Media Language
[DLHacks]Topic‑Aware Neu ral KeyphraseGenerationforSocial Media Language[DLHacks]Topic‑Aware Neu ral KeyphraseGenerationforSocial Media Language
[DLHacks]Topic‑Aware Neu ral KeyphraseGenerationforSocial Media Language
 

Dernier

論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video UnderstandingToru Tamaki
 
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Hiroshi Tomioka
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Gamesatsushi061452
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルCRI Japan, Inc.
 
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsUtilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsWSO2
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイスCRI Japan, Inc.
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptxsn679259
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...Toru Tamaki
 

Dernier (11)

論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
 
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
 
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsUtilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native Integrations
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
 
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
 

[PaperReading]Unsupervised Discrete Sentence Representation Learning for Interpretable Neural Dialog Generation