SlideShare une entreprise Scribd logo
1  sur  26
論文紹介ゼミ
Generating Better Search Engine Text Advertisements
with Deep Reinforcement Learning
北海道大学大学院情報科学研究科
調和系工学研究室
修士2年 吉田拓海
論文情報
• タイトル
– Generating Better Search Engine Text Advertisements with
Deep Reinforcement Learning
• 学会
– KDD2019(Applied Data Science Track Papers)
• https://www.kdd.org/kdd2019/accepted-papers/view/generating-better-
search-engine-text-advertisements-with-deep-reinforcement
– 著者
• John Hughes1*, Keng-Hao2 Chang and Ruofei Zhang2
– 1. UC Berkeley (*. Microsoftのインターン)
– 2. Microsoft
• まとめ
– 魅力的(高CTR)な検索エンジン広告を生成
• Self Critical Sequence Training(SCST)を適用
– 微分不可能なmetric(予想クリック率)を最適化
• 自動評価と人間による評価
– SCSTの適用によって予想クリック率の向上,魅力の向上を実証
– 文法的精度を大きく低下させない
1
背景
• 高いクリック率(広告が魅力的で関連性がある)場合
広告主と検索エンジンの両方に利益をもたらす
– ユーザがクリックしたときのみ支払い(広告主→検索エンジン)
• 検索エンジンの広告文生成
– 2つの目的
• 人間が作ったものに近い
• 高いクリック率
2
ランディングページと広告の例
対象とする広告
• 検索エンジン(Bing)
3
クエリ
広告タイトル
広告本文
クリック
ランディングページ
広告タイトル/本文を
ランディングページのタイトル/本文から生成
モデル
• 広告のタイトルと本文の予測をseq2seqとして扱う
– landing pageのタイトルと本文
– 広告のタイトルと本文
• 損失関数
– 既存のlanding page(𝑦∗)と広告(𝑥∗)を模倣するように学習
– CTR(クリック率)を高めるように学習
– 最終的な損失関数
4
モデル
• CTRを高める学習のための項
– 𝐶𝑇𝑅(𝑦)
• oracle modelによって予測された広告𝑦のCTR
• 先行研究(Microsoft)のCTR予測モデル[1]を使用
– large-scale logistic regression
5
[1] X. Ling, W. Deng, C. Gu, H. Zhou, C. Li, and F. Sun. Model ensemble for clickprediction in bing
search ads. InProceedings of the 26th International Conferenceon World Wide Web Companion,
pages 689–698. International World Wide WebConferences Steering Committee, 2017.
モデル
• Parallel Encoder/Decoder
– 標準的なRNNのEncoder-Decoderモデルをもとに構築
• 𝑘 sequencesを単一の潜在状態𝑠にencode
– Bi-directional LSTMの最終層の隠れ状態を結合することで𝑠を取得
• 𝑙 sequencesを出力(decode)
– 𝑠を初期状態とするLSTMでタイトル𝑦 𝑇
, 本文𝑦 𝐵
を予測
6
𝑘 = 𝑙 = 2
概略図
モデル
• Attention
– attention score[1,2]
– normalized scores[3]
• 過去ステップのscoreを用いて正規化
– context vector
7
参考
[1] M. Luong, H. Pham, and C. D. Manning. Effective approaches to attention-based neural machine
translation.CoRR, abs/1508.04025, 2015.
[2] R. Paulus, C. Xiong, and R. Socher. A deep reinforced model for abstractive summarization.arXiv
preprint arXiv:1705.04304, 2017.
[3] B. Sankaran, H. Mi, Y. Al-Onaizan, and A. Ittycheriah. Temporal attention model for neural
machine translation.CoRR, abs/1608.02927, 2016.
文献[2]から引用
encoder
decoder
モデル
• Output
– decoderのタイムステップ𝑖では以下のものが出力される
• LSTMのhidden state ℎ𝑖
𝐷
• attention distributions 𝛼𝑖,𝑗
𝑥 𝑇
, 𝛼𝑖,𝑗
𝑥 𝐵
• context vectors 𝑐𝑡
𝑥 𝑇
, 𝑐𝑡
𝑥 𝐵
– これらから潜在的単語出力分布𝑝 𝑣𝑜𝑐𝑎𝑏, 𝑝𝑐𝑜𝑝𝑦を予測する
8
[1] R. Paulus, C. Xiong, and R. Socher.
A deep reinforced model for abstractive
summarization.arXiv preprint
arXiv:1705.04304, 2017.
文献[1]から持ってきた図
(前ページの文献[2])
モデル
• Output
– 最終的な出力
9
𝑊𝑒𝑚𝑏:単語の埋め込み行列(LSTM入力前にも使用)
学習するパラメータ
• 4つのLSTM
• 𝑊𝑒𝑚𝑏, 𝑊𝑝
• 𝑏 𝑢
𝐷
, 𝑊𝑢
𝐷
• (attentionは?)
参考
[1] A. See, P. J. Liu, and C. D. Manning. Get to the point: Summarization withpointer-generator networks.CoRR, abs/1704.04368, 2017.
[2] https://www.slideshare.net/ponta63/gettothepointacl17
新しい単語を生成
原文の単語を使いまわす
モデル
• Output 図[1]
10
[1] A. See, P. J. Liu, and C. D. Manning. Get to the point: Summarization
withpointer-generator networks.CoRR, abs/1704.04368, 2017.
context vectorとDecoder(LSTM hidden state)
から単語分布を得る
モデル
• Output 図[1]
11
[1] A. See, P. J. Liu, and C. D. Manning. Get to the point: Summarization
withpointer-generator networks.CoRR, abs/1704.04368, 2017.
𝑝 𝑣𝑎𝑐𝑎𝑏
新しい単語を生成
𝑝𝑐𝑜𝑝𝑦
原文の単語を使いまわす(copy)
スイッチ変数:𝑢
モデル
• Self Critical Sequence Training
– CTRに関する誤差項𝐿 𝐶𝑇𝑅は𝜃で微分できない
– RAINFORCE trick[1]を使って勾配を計算
– Self Critical Sequence Trainingではベースライン 𝑦を導入
• これによって分散が下がる
• ベースライン 𝑦としてarg-maxの出力を使用
12
参考
[1] R. J. Williams. Simple statistical gradient-following algorithms for
connectionistreinforcement learning.Machine Learning, 8:229–256, 1992.
[2] https://www.slideshare.net/YoshitakaUshiku/selfcritical-sequence-training-for-image-
captioning-cv-cvpr-2017
モデル
• Self Critical Sequence Training
13
(A) 𝑦が 𝑦より高い報酬だった場合
𝑦がとられる確率が増加
(B) 𝑦が 𝑦より低い報酬だった場合
𝑦がとられる確率が減少
実験 データ
• Bing Ads Data
– ランディングページと広告のペア
• 600,000
– 各ドメインで5回以上出現する例を削除
• 少数の広告主が広告の大部分を占めている
• その多くが同じテンプレートを使っている
– 結果として323,387に
• train, validation, testに分割
– ランディングページを正規化
• 句読点を含まない,すべて小文字に
– 広告も同様に正規化
• ?, -は残す
14
実験
• Training
– 事前学習
• 𝐿 𝑋𝐸で学習
– そのあと𝐿 𝑡𝑜𝑡𝑎𝑙で学習(Self Critical Sequence Training)
– 学習中CTRを推定するためにCTR予測で学習させたoracle modelを
使用
• 学習中はブラックボックスとして扱われる
• 同じくmicrosoftの人が著者の先行研究のCTR予測モデル[1]を使用
– large-scale logistic regression
15
[1] X. Ling, W. Deng, C. Gu, H. Zhou, C. Li, and F. Sun. Model ensemble for clickprediction in bing
search ads. InProceedings of the 26th International Conferenceon World Wide Web Companion,
pages 689–698. International World Wide WebConferences Steering Committee, 2017.
実験
• Automatic Evaluation
– Click Rate
• oracle modelとまた別のCTR予測モデルの出力値
– ROUGE-L
• 2つのtextの最長共通部分単語列(LCS)を評価する指標
– LCS: Longest Common Subsequence
• LCSのF値
• 例[1]
– LCS = 9
– 適合率(Precision)=
9
12
– 再現率(Recall)=
9
11
– ROUGE-L=
2𝑅𝑒𝑐𝑎𝑙𝑙∙𝑃𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛
𝑅𝑒𝑐𝑎𝑙𝑙+𝑃𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛
16
長さ
𝑟: 11
ℎ1: 12
参考
[1]平尾 努, 磯崎 秀樹, 須藤 克仁, Duh Kevin, 塚田 元, 永田 昌明, “語順の相関に基づく機械翻訳の自動評価法” 自然言語処理,
Vol.21, No.3, pp.421-444, 2014, https://www.jstage.jst.go.jp/article/jnlp/21/3/21_421/_article/-char/ja/
実験 結果
• Automatic Evaluation
– 𝛾 = 0.05が最適
– 𝛾 = 0.02
• ROUGE-Lが急速に減少,oracleにoverfitし文法的質が悪い分が生成さ
れる,early stoppingですぐ終わる(学習)
– 𝛾 = 0.10
• クリック率が低い
17
oracle modelと同じデータセット(別の期間)で
学習させたニューラルネットによるCTR予測
実験 結果
• Automatic Evaluation
– Baseline(おそらく𝐿 𝑋𝐸のみで学習)とSCSTを比較
• クリック率を6.7%増し
• ROUGE scoreに有意な差はない
– DNN Predictionによるクリック率も4.8%増し
• oracle modelにoverfitしてない
– ROUGE scoreはどのモデルも有意差なし
– クリック率が増えてもROUGE scoreが大幅に変化しない
• クリック率が高い人手で書かれた広告の空間内で最適化されてる
18
実験 結果
• Automatic Evaluation
– SCSTで学習させたモデルは同じ単語,フレーズを繰り返す傾向
• 恐らくoracle modelで魅力的とされる単語を繰り返してる
– 繰り返さないように制約をかける(repeats masked)
• クリック率は低下する
• 先ほどと同様,SCSTによってクリック率は上昇
19
実験 結果
• Human Evaluation
– 2つの実験を実施
• 広告を評価及び比較するために訓練された人を募集した
– 実験1
• 被験者に単一の広告とランディングページが表示,以下の質問
– 広告に不要な単語,フレーズの繰り返しはありますか?
[Yes/No]
– 広告のタイトルとコピー(?)は人間が書いたように見えるか?
[Yes/No]
– 4段階評価[Good/Fair/Bad/Nonsenseor Broken]
» Good: Perfect grammar(完璧な文法)
» Fair: Slight grammar errors or repeats(軽い文法エラー/繰り返し)
» Bad: Major grammar errors or repeats(重大な文法エラー/繰り返し)
» Nonsense or Broken: Including foreign language or landing page
not loading (外国語が含まれる/LPが読み込まれない?)
• 各モデルを評価するために2000 data point
• どの例がどのモデルのモノかわからないようにシャッフル
• 質問の回答が一貫するようにいくつかの広告を繰り返した
20
実験 結果
• Human Evaluation
– 繰り返しの制約をつけたモデル(repeats masked)は
文法と人間作との類似度の評価が向上
– Baseline(masked)とSCST(masked)を比較
• SCSTの生成する広告は人間作に似ているとみなされる
• “Good”は減るがそれほど大きくない
– SCSTは文法的質を低下させない(?)
– 事前学習で得た言語モデルを傷つけない
– Nonsense/Brokenが多い
• ランディングページの期限切れ,外国語によるもの
– 人間作の広告も同様の割合
21
実験 結果
• Human Evaluation
– 実験2
• repeats maskedモデルを対象(繰り返しに制約をかけたモデル)
• 1000のランディングページの広告を並べて比較
• 2つの広告をランディングページに関連付けられたキーワード/クエリと
ともに表示
• 質問:クエリが与えられた場合,どの広告コピーが好みですか?
[Ad copy #1 / Ad copy#2 / Ads are identical]
• 広告はランダムな順序で表示
– 結果
• Baseline < SCST
22
生成例
• SCSTモデルの広告
– 無料,行動を表すフレーズ,数字などが含まれる
• 広告の魅力を高めることが知られている[1]
23
[1] S. Thomaidou. Automated Creation and Optimization of Online Advertising Campaigns. PhD thesis, Ph. D.
thesis, Department of Informatics, Athens University of Economics and Business, 2014.
生成例 24
まとめ
• 魅力的(高CTR)な検索エンジン広告を生成
– Self Critical Sequence Training(SCST)を適用
• 微分不可能なmetric(予想クリック率)を最適化
– 自動評価と人間による評価
• SCSTの適用によって予想クリック率の向上,魅力の向上を実証
• 文法的精度を大きく低下させない
25

Contenu connexe

Tendances

近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer近年のHierarchical Vision Transformer
近年のHierarchical Vision TransformerYusuke Uchida
 
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法Deep Learning JP
 
Transformer メタサーベイ
Transformer メタサーベイTransformer メタサーベイ
Transformer メタサーベイcvpaper. challenge
 
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話Yusuke Uchida
 
画像キャプションの自動生成
画像キャプションの自動生成画像キャプションの自動生成
画像キャプションの自動生成Yoshitaka Ushiku
 
GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)Masahiro Suzuki
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門Shuyo Nakatani
 
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリングmlm_kansai
 
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...Deep Learning JP
 
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)Masahiro Suzuki
 
Noisy Labels と戦う深層学習
Noisy Labels と戦う深層学習Noisy Labels と戦う深層学習
Noisy Labels と戦う深層学習Plot Hong
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向Motokawa Tetsuya
 
CMA-ESサンプラーによるハイパーパラメータ最適化 at Optuna Meetup #1
CMA-ESサンプラーによるハイパーパラメータ最適化 at Optuna Meetup #1CMA-ESサンプラーによるハイパーパラメータ最適化 at Optuna Meetup #1
CMA-ESサンプラーによるハイパーパラメータ最適化 at Optuna Meetup #1Masashi Shibata
 
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and EditingDeep Learning JP
 
XAI (説明可能なAI) の必要性
XAI (説明可能なAI) の必要性XAI (説明可能なAI) の必要性
XAI (説明可能なAI) の必要性西岡 賢一郎
 
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...Hideki Tsunashima
 
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?hoxo_m
 
SSII2021 [OS2-03] 自己教師あり学習における対照学習の基礎と応用
SSII2021 [OS2-03] 自己教師あり学習における対照学習の基礎と応用SSII2021 [OS2-03] 自己教師あり学習における対照学習の基礎と応用
SSII2021 [OS2-03] 自己教師あり学習における対照学習の基礎と応用SSII
 
CV分野におけるサーベイ方法
CV分野におけるサーベイ方法CV分野におけるサーベイ方法
CV分野におけるサーベイ方法Hirokatsu Kataoka
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方joisino
 

Tendances (20)

近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
 
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法
 
Transformer メタサーベイ
Transformer メタサーベイTransformer メタサーベイ
Transformer メタサーベイ
 
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
 
画像キャプションの自動生成
画像キャプションの自動生成画像キャプションの自動生成
画像キャプションの自動生成
 
GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門
 
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
 
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
 
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)
 
Noisy Labels と戦う深層学習
Noisy Labels と戦う深層学習Noisy Labels と戦う深層学習
Noisy Labels と戦う深層学習
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向
 
CMA-ESサンプラーによるハイパーパラメータ最適化 at Optuna Meetup #1
CMA-ESサンプラーによるハイパーパラメータ最適化 at Optuna Meetup #1CMA-ESサンプラーによるハイパーパラメータ最適化 at Optuna Meetup #1
CMA-ESサンプラーによるハイパーパラメータ最適化 at Optuna Meetup #1
 
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
 
XAI (説明可能なAI) の必要性
XAI (説明可能なAI) の必要性XAI (説明可能なAI) の必要性
XAI (説明可能なAI) の必要性
 
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
 
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?
 
SSII2021 [OS2-03] 自己教師あり学習における対照学習の基礎と応用
SSII2021 [OS2-03] 自己教師あり学習における対照学習の基礎と応用SSII2021 [OS2-03] 自己教師あり学習における対照学習の基礎と応用
SSII2021 [OS2-03] 自己教師あり学習における対照学習の基礎と応用
 
CV分野におけるサーベイ方法
CV分野におけるサーベイ方法CV分野におけるサーベイ方法
CV分野におけるサーベイ方法
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方
 

Similaire à Generating Better Search Engine Text Advertisements with Deep Reinforcement Learning

[DL輪読会] Towards an Automatic Turing Test: Learning to Evaluate Dialogue Respo...
[DL輪読会] Towards an Automatic Turing Test: Learning to Evaluate Dialogue Respo...[DL輪読会] Towards an Automatic Turing Test: Learning to Evaluate Dialogue Respo...
[DL輪読会] Towards an Automatic Turing Test: Learning to Evaluate Dialogue Respo...Deep Learning JP
 
Abstractive Text Summarization @Retrieva seminar
Abstractive Text Summarization @Retrieva seminarAbstractive Text Summarization @Retrieva seminar
Abstractive Text Summarization @Retrieva seminarKodaira Tomonori
 
最先端NLP勉強会2017_ACL17
最先端NLP勉強会2017_ACL17最先端NLP勉強会2017_ACL17
最先端NLP勉強会2017_ACL17Masayoshi Kondo
 
Pythonを含む多くのプログラミング言語を扱う処理フレームワークとパターン、鷲崎弘宜、PyConJP 2016 招待講演
Pythonを含む多くのプログラミング言語を扱う処理フレームワークとパターン、鷲崎弘宜、PyConJP 2016 招待講演Pythonを含む多くのプログラミング言語を扱う処理フレームワークとパターン、鷲崎弘宜、PyConJP 2016 招待講演
Pythonを含む多くのプログラミング言語を扱う処理フレームワークとパターン、鷲崎弘宜、PyConJP 2016 招待講演Hironori Washizaki
 
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for PredictionDeep Learning JP
 
【文献紹介】Abstractive Text Summarization Using Sequence-to-Sequence RNNs and Beyond
【文献紹介】Abstractive Text Summarization Using Sequence-to-Sequence RNNs and Beyond【文献紹介】Abstractive Text Summarization Using Sequence-to-Sequence RNNs and Beyond
【文献紹介】Abstractive Text Summarization Using Sequence-to-Sequence RNNs and BeyondTakashi YAMAMURA
 
Learning to summarize from human feedback
Learning to summarize from human feedbackLearning to summarize from human feedback
Learning to summarize from human feedbackharmonylab
 
Fast abstractive summarization with reinforce selected sentence rewriting
Fast abstractive summarization with reinforce selected sentence rewritingFast abstractive summarization with reinforce selected sentence rewriting
Fast abstractive summarization with reinforce selected sentence rewritingYasuhide Miura
 
XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」
XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」
XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」Shuji Morisaki
 
Qua s tom-メトリクスによるソフトウェアの品質把握と改善
Qua s tom-メトリクスによるソフトウェアの品質把握と改善Qua s tom-メトリクスによるソフトウェアの品質把握と改善
Qua s tom-メトリクスによるソフトウェアの品質把握と改善Hironori Washizaki
 
2010 電子情報通信学会論文誌-要求変更によるソースコードへのインパクトを分析するシステムの開発と評価
2010 電子情報通信学会論文誌-要求変更によるソースコードへのインパクトを分析するシステムの開発と評価2010 電子情報通信学会論文誌-要求変更によるソースコードへのインパクトを分析するシステムの開発と評価
2010 電子情報通信学会論文誌-要求変更によるソースコードへのインパクトを分析するシステムの開発と評価n-yuki
 
鷲崎 メトリクスとGQMチュートリアル-公開版-20130912
鷲崎 メトリクスとGQMチュートリアル-公開版-20130912鷲崎 メトリクスとGQMチュートリアル-公開版-20130912
鷲崎 メトリクスとGQMチュートリアル-公開版-20130912Hironori Washizaki
 
Sigir2013 勉強会資料
Sigir2013 勉強会資料Sigir2013 勉強会資料
Sigir2013 勉強会資料Mitsuo Yamamoto
 
[DL輪読会]Making Sense of Vision and Touch: Self-Supervised Learning of Multimod...
[DL輪読会]Making Sense of Vision and Touch: Self-Supervised Learning of Multimod...[DL輪読会]Making Sense of Vision and Touch: Self-Supervised Learning of Multimod...
[DL輪読会]Making Sense of Vision and Touch: Self-Supervised Learning of Multimod...Deep Learning JP
 
QAアーキテクチャの設計による 説明責任の高いテスト・品質保証
QAアーキテクチャの設計による説明責任の高いテスト・品質保証QAアーキテクチャの設計による説明責任の高いテスト・品質保証
QAアーキテクチャの設計による 説明責任の高いテスト・品質保証Yasuharu Nishi
 
Jinan Xu - 2015 - Integrating Case Frame into Japanese to Chinese Hierarchica...
Jinan Xu - 2015 - Integrating Case Frame into Japanese to Chinese Hierarchica...Jinan Xu - 2015 - Integrating Case Frame into Japanese to Chinese Hierarchica...
Jinan Xu - 2015 - Integrating Case Frame into Japanese to Chinese Hierarchica...Association for Computational Linguistics
 
GeneratingWikipedia_ICLR18_論文紹介
GeneratingWikipedia_ICLR18_論文紹介GeneratingWikipedia_ICLR18_論文紹介
GeneratingWikipedia_ICLR18_論文紹介Masayoshi Kondo
 
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)Toru Fujino
 
MapReduceによる大規模データを利用した機械学習
MapReduceによる大規模データを利用した機械学習MapReduceによる大規模データを利用した機械学習
MapReduceによる大規模データを利用した機械学習Preferred Networks
 

Similaire à Generating Better Search Engine Text Advertisements with Deep Reinforcement Learning (20)

[DL輪読会] Towards an Automatic Turing Test: Learning to Evaluate Dialogue Respo...
[DL輪読会] Towards an Automatic Turing Test: Learning to Evaluate Dialogue Respo...[DL輪読会] Towards an Automatic Turing Test: Learning to Evaluate Dialogue Respo...
[DL輪読会] Towards an Automatic Turing Test: Learning to Evaluate Dialogue Respo...
 
Abstractive Text Summarization @Retrieva seminar
Abstractive Text Summarization @Retrieva seminarAbstractive Text Summarization @Retrieva seminar
Abstractive Text Summarization @Retrieva seminar
 
最先端NLP勉強会2017_ACL17
最先端NLP勉強会2017_ACL17最先端NLP勉強会2017_ACL17
最先端NLP勉強会2017_ACL17
 
Pythonを含む多くのプログラミング言語を扱う処理フレームワークとパターン、鷲崎弘宜、PyConJP 2016 招待講演
Pythonを含む多くのプログラミング言語を扱う処理フレームワークとパターン、鷲崎弘宜、PyConJP 2016 招待講演Pythonを含む多くのプログラミング言語を扱う処理フレームワークとパターン、鷲崎弘宜、PyConJP 2016 招待講演
Pythonを含む多くのプログラミング言語を扱う処理フレームワークとパターン、鷲崎弘宜、PyConJP 2016 招待講演
 
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
 
【文献紹介】Abstractive Text Summarization Using Sequence-to-Sequence RNNs and Beyond
【文献紹介】Abstractive Text Summarization Using Sequence-to-Sequence RNNs and Beyond【文献紹介】Abstractive Text Summarization Using Sequence-to-Sequence RNNs and Beyond
【文献紹介】Abstractive Text Summarization Using Sequence-to-Sequence RNNs and Beyond
 
Learning to summarize from human feedback
Learning to summarize from human feedbackLearning to summarize from human feedback
Learning to summarize from human feedback
 
Fast abstractive summarization with reinforce selected sentence rewriting
Fast abstractive summarization with reinforce selected sentence rewritingFast abstractive summarization with reinforce selected sentence rewriting
Fast abstractive summarization with reinforce selected sentence rewriting
 
XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」
XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」
XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」
 
Qua s tom-メトリクスによるソフトウェアの品質把握と改善
Qua s tom-メトリクスによるソフトウェアの品質把握と改善Qua s tom-メトリクスによるソフトウェアの品質把握と改善
Qua s tom-メトリクスによるソフトウェアの品質把握と改善
 
2010 電子情報通信学会論文誌-要求変更によるソースコードへのインパクトを分析するシステムの開発と評価
2010 電子情報通信学会論文誌-要求変更によるソースコードへのインパクトを分析するシステムの開発と評価2010 電子情報通信学会論文誌-要求変更によるソースコードへのインパクトを分析するシステムの開発と評価
2010 電子情報通信学会論文誌-要求変更によるソースコードへのインパクトを分析するシステムの開発と評価
 
鷲崎 メトリクスとGQMチュートリアル-公開版-20130912
鷲崎 メトリクスとGQMチュートリアル-公開版-20130912鷲崎 メトリクスとGQMチュートリアル-公開版-20130912
鷲崎 メトリクスとGQMチュートリアル-公開版-20130912
 
Sigir2013 勉強会資料
Sigir2013 勉強会資料Sigir2013 勉強会資料
Sigir2013 勉強会資料
 
[DL輪読会]Making Sense of Vision and Touch: Self-Supervised Learning of Multimod...
[DL輪読会]Making Sense of Vision and Touch: Self-Supervised Learning of Multimod...[DL輪読会]Making Sense of Vision and Touch: Self-Supervised Learning of Multimod...
[DL輪読会]Making Sense of Vision and Touch: Self-Supervised Learning of Multimod...
 
QAアーキテクチャの設計による 説明責任の高いテスト・品質保証
QAアーキテクチャの設計による説明責任の高いテスト・品質保証QAアーキテクチャの設計による説明責任の高いテスト・品質保証
QAアーキテクチャの設計による 説明責任の高いテスト・品質保証
 
Jinan Xu - 2015 - Integrating Case Frame into Japanese to Chinese Hierarchica...
Jinan Xu - 2015 - Integrating Case Frame into Japanese to Chinese Hierarchica...Jinan Xu - 2015 - Integrating Case Frame into Japanese to Chinese Hierarchica...
Jinan Xu - 2015 - Integrating Case Frame into Japanese to Chinese Hierarchica...
 
GeneratingWikipedia_ICLR18_論文紹介
GeneratingWikipedia_ICLR18_論文紹介GeneratingWikipedia_ICLR18_論文紹介
GeneratingWikipedia_ICLR18_論文紹介
 
japan teacher
japan teacherjapan teacher
japan teacher
 
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
 
MapReduceによる大規模データを利用した機械学習
MapReduceによる大規模データを利用した機械学習MapReduceによる大規模データを利用した機械学習
MapReduceによる大規模データを利用した機械学習
 

Plus de harmonylab

【修士論文】代替出勤者の選定業務における依頼順決定方法に関する研究   千坂知也
【修士論文】代替出勤者の選定業務における依頼順決定方法に関する研究   千坂知也【修士論文】代替出勤者の選定業務における依頼順決定方法に関する研究   千坂知也
【修士論文】代替出勤者の選定業務における依頼順決定方法に関する研究   千坂知也harmonylab
 
【修士論文】経路探索のための媒介中心性に基づく道路ネットワーク階層化手法に関する研究
【修士論文】経路探索のための媒介中心性に基づく道路ネットワーク階層化手法に関する研究【修士論文】経路探索のための媒介中心性に基づく道路ネットワーク階層化手法に関する研究
【修士論文】経路探索のための媒介中心性に基づく道路ネットワーク階層化手法に関する研究harmonylab
 
A Study on Decision Support System for Snow Removal Dispatch using Road Surfa...
A Study on Decision Support System for Snow Removal Dispatch using Road Surfa...A Study on Decision Support System for Snow Removal Dispatch using Road Surfa...
A Study on Decision Support System for Snow Removal Dispatch using Road Surfa...harmonylab
 
【卒業論文】印象タグを用いた衣服画像生成システムに関する研究
【卒業論文】印象タグを用いた衣服画像生成システムに関する研究【卒業論文】印象タグを用いた衣服画像生成システムに関する研究
【卒業論文】印象タグを用いた衣服画像生成システムに関する研究harmonylab
 
【卒業論文】大規模言語モデルを用いたマニュアル文章修正手法に関する研究
【卒業論文】大規模言語モデルを用いたマニュアル文章修正手法に関する研究【卒業論文】大規模言語モデルを用いたマニュアル文章修正手法に関する研究
【卒業論文】大規模言語モデルを用いたマニュアル文章修正手法に関する研究harmonylab
 
DLゼミ:Primitive Generation and Semantic-related Alignment for Universal Zero-S...
DLゼミ:Primitive Generation and Semantic-related Alignment for Universal Zero-S...DLゼミ:Primitive Generation and Semantic-related Alignment for Universal Zero-S...
DLゼミ:Primitive Generation and Semantic-related Alignment for Universal Zero-S...harmonylab
 
DLゼミ: MobileOne: An Improved One millisecond Mobile Backbone
DLゼミ: MobileOne: An Improved One millisecond Mobile BackboneDLゼミ: MobileOne: An Improved One millisecond Mobile Backbone
DLゼミ: MobileOne: An Improved One millisecond Mobile Backboneharmonylab
 
DLゼミ: Llama 2: Open Foundation and Fine-Tuned Chat Models
DLゼミ: Llama 2: Open Foundation and Fine-Tuned Chat ModelsDLゼミ: Llama 2: Open Foundation and Fine-Tuned Chat Models
DLゼミ: Llama 2: Open Foundation and Fine-Tuned Chat Modelsharmonylab
 
DLゼミ: ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
DLゼミ: ViTPose: Simple Vision Transformer Baselines for Human Pose EstimationDLゼミ: ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
DLゼミ: ViTPose: Simple Vision Transformer Baselines for Human Pose Estimationharmonylab
 
Voyager: An Open-Ended Embodied Agent with Large Language Models
Voyager: An Open-Ended Embodied Agent with Large Language ModelsVoyager: An Open-Ended Embodied Agent with Large Language Models
Voyager: An Open-Ended Embodied Agent with Large Language Modelsharmonylab
 
DLゼミ: Ego-Body Pose Estimation via Ego-Head Pose Estimation
DLゼミ: Ego-Body Pose Estimation via Ego-Head Pose EstimationDLゼミ: Ego-Body Pose Estimation via Ego-Head Pose Estimation
DLゼミ: Ego-Body Pose Estimation via Ego-Head Pose Estimationharmonylab
 
ReAct: Synergizing Reasoning and Acting in Language Models
ReAct: Synergizing Reasoning and Acting in Language ModelsReAct: Synergizing Reasoning and Acting in Language Models
ReAct: Synergizing Reasoning and Acting in Language Modelsharmonylab
 
形態素解析を用いた帝国議会議事速記録の変遷に関する研究
形態素解析を用いた帝国議会議事速記録の変遷に関する研究形態素解析を用いた帝国議会議事速記録の変遷に関する研究
形態素解析を用いた帝国議会議事速記録の変遷に関する研究harmonylab
 
【卒業論文】深層生成モデルを用いたユーザ意図に基づく衣服画像の生成に関する研究
【卒業論文】深層生成モデルを用いたユーザ意図に基づく衣服画像の生成に関する研究【卒業論文】深層生成モデルを用いたユーザ意図に基づく衣服画像の生成に関する研究
【卒業論文】深層生成モデルを用いたユーザ意図に基づく衣服画像の生成に関する研究harmonylab
 
灯油タンク内の液面高計測を用いた 灯油残量推定システムに関する研究
灯油タンク内の液面高計測を用いた灯油残量推定システムに関する研究灯油タンク内の液面高計測を用いた灯油残量推定システムに関する研究
灯油タンク内の液面高計測を用いた 灯油残量推定システムに関する研究harmonylab
 
深層自己回帰モデルを用いた俳句の生成と評価に関する研究
深層自己回帰モデルを用いた俳句の生成と評価に関する研究深層自己回帰モデルを用いた俳句の生成と評価に関する研究
深層自己回帰モデルを用いた俳句の生成と評価に関する研究harmonylab
 
競輪におけるレーティングシステムを用いた予想記事生成に関する研究
競輪におけるレーティングシステムを用いた予想記事生成に関する研究競輪におけるレーティングシステムを用いた予想記事生成に関する研究
競輪におけるレーティングシステムを用いた予想記事生成に関する研究harmonylab
 
【卒業論文】B2Bオークションにおけるユーザ別 入札行動予測に関する研究
【卒業論文】B2Bオークションにおけるユーザ別 入札行動予測に関する研究【卒業論文】B2Bオークションにおけるユーザ別 入札行動予測に関する研究
【卒業論文】B2Bオークションにおけるユーザ別 入札行動予測に関する研究harmonylab
 
A Study on Estimation of Household Kerosene Consumption for Optimization of D...
A Study on Estimation of Household Kerosene Consumption for Optimization of D...A Study on Estimation of Household Kerosene Consumption for Optimization of D...
A Study on Estimation of Household Kerosene Consumption for Optimization of D...harmonylab
 
マルチエージェント深層強化学習による自動運転車両の追越行動の獲得に関する研究
マルチエージェント深層強化学習による自動運転車両の追越行動の獲得に関する研究マルチエージェント深層強化学習による自動運転車両の追越行動の獲得に関する研究
マルチエージェント深層強化学習による自動運転車両の追越行動の獲得に関する研究harmonylab
 

Plus de harmonylab (20)

【修士論文】代替出勤者の選定業務における依頼順決定方法に関する研究   千坂知也
【修士論文】代替出勤者の選定業務における依頼順決定方法に関する研究   千坂知也【修士論文】代替出勤者の選定業務における依頼順決定方法に関する研究   千坂知也
【修士論文】代替出勤者の選定業務における依頼順決定方法に関する研究   千坂知也
 
【修士論文】経路探索のための媒介中心性に基づく道路ネットワーク階層化手法に関する研究
【修士論文】経路探索のための媒介中心性に基づく道路ネットワーク階層化手法に関する研究【修士論文】経路探索のための媒介中心性に基づく道路ネットワーク階層化手法に関する研究
【修士論文】経路探索のための媒介中心性に基づく道路ネットワーク階層化手法に関する研究
 
A Study on Decision Support System for Snow Removal Dispatch using Road Surfa...
A Study on Decision Support System for Snow Removal Dispatch using Road Surfa...A Study on Decision Support System for Snow Removal Dispatch using Road Surfa...
A Study on Decision Support System for Snow Removal Dispatch using Road Surfa...
 
【卒業論文】印象タグを用いた衣服画像生成システムに関する研究
【卒業論文】印象タグを用いた衣服画像生成システムに関する研究【卒業論文】印象タグを用いた衣服画像生成システムに関する研究
【卒業論文】印象タグを用いた衣服画像生成システムに関する研究
 
【卒業論文】大規模言語モデルを用いたマニュアル文章修正手法に関する研究
【卒業論文】大規模言語モデルを用いたマニュアル文章修正手法に関する研究【卒業論文】大規模言語モデルを用いたマニュアル文章修正手法に関する研究
【卒業論文】大規模言語モデルを用いたマニュアル文章修正手法に関する研究
 
DLゼミ:Primitive Generation and Semantic-related Alignment for Universal Zero-S...
DLゼミ:Primitive Generation and Semantic-related Alignment for Universal Zero-S...DLゼミ:Primitive Generation and Semantic-related Alignment for Universal Zero-S...
DLゼミ:Primitive Generation and Semantic-related Alignment for Universal Zero-S...
 
DLゼミ: MobileOne: An Improved One millisecond Mobile Backbone
DLゼミ: MobileOne: An Improved One millisecond Mobile BackboneDLゼミ: MobileOne: An Improved One millisecond Mobile Backbone
DLゼミ: MobileOne: An Improved One millisecond Mobile Backbone
 
DLゼミ: Llama 2: Open Foundation and Fine-Tuned Chat Models
DLゼミ: Llama 2: Open Foundation and Fine-Tuned Chat ModelsDLゼミ: Llama 2: Open Foundation and Fine-Tuned Chat Models
DLゼミ: Llama 2: Open Foundation and Fine-Tuned Chat Models
 
DLゼミ: ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
DLゼミ: ViTPose: Simple Vision Transformer Baselines for Human Pose EstimationDLゼミ: ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
DLゼミ: ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
 
Voyager: An Open-Ended Embodied Agent with Large Language Models
Voyager: An Open-Ended Embodied Agent with Large Language ModelsVoyager: An Open-Ended Embodied Agent with Large Language Models
Voyager: An Open-Ended Embodied Agent with Large Language Models
 
DLゼミ: Ego-Body Pose Estimation via Ego-Head Pose Estimation
DLゼミ: Ego-Body Pose Estimation via Ego-Head Pose EstimationDLゼミ: Ego-Body Pose Estimation via Ego-Head Pose Estimation
DLゼミ: Ego-Body Pose Estimation via Ego-Head Pose Estimation
 
ReAct: Synergizing Reasoning and Acting in Language Models
ReAct: Synergizing Reasoning and Acting in Language ModelsReAct: Synergizing Reasoning and Acting in Language Models
ReAct: Synergizing Reasoning and Acting in Language Models
 
形態素解析を用いた帝国議会議事速記録の変遷に関する研究
形態素解析を用いた帝国議会議事速記録の変遷に関する研究形態素解析を用いた帝国議会議事速記録の変遷に関する研究
形態素解析を用いた帝国議会議事速記録の変遷に関する研究
 
【卒業論文】深層生成モデルを用いたユーザ意図に基づく衣服画像の生成に関する研究
【卒業論文】深層生成モデルを用いたユーザ意図に基づく衣服画像の生成に関する研究【卒業論文】深層生成モデルを用いたユーザ意図に基づく衣服画像の生成に関する研究
【卒業論文】深層生成モデルを用いたユーザ意図に基づく衣服画像の生成に関する研究
 
灯油タンク内の液面高計測を用いた 灯油残量推定システムに関する研究
灯油タンク内の液面高計測を用いた灯油残量推定システムに関する研究灯油タンク内の液面高計測を用いた灯油残量推定システムに関する研究
灯油タンク内の液面高計測を用いた 灯油残量推定システムに関する研究
 
深層自己回帰モデルを用いた俳句の生成と評価に関する研究
深層自己回帰モデルを用いた俳句の生成と評価に関する研究深層自己回帰モデルを用いた俳句の生成と評価に関する研究
深層自己回帰モデルを用いた俳句の生成と評価に関する研究
 
競輪におけるレーティングシステムを用いた予想記事生成に関する研究
競輪におけるレーティングシステムを用いた予想記事生成に関する研究競輪におけるレーティングシステムを用いた予想記事生成に関する研究
競輪におけるレーティングシステムを用いた予想記事生成に関する研究
 
【卒業論文】B2Bオークションにおけるユーザ別 入札行動予測に関する研究
【卒業論文】B2Bオークションにおけるユーザ別 入札行動予測に関する研究【卒業論文】B2Bオークションにおけるユーザ別 入札行動予測に関する研究
【卒業論文】B2Bオークションにおけるユーザ別 入札行動予測に関する研究
 
A Study on Estimation of Household Kerosene Consumption for Optimization of D...
A Study on Estimation of Household Kerosene Consumption for Optimization of D...A Study on Estimation of Household Kerosene Consumption for Optimization of D...
A Study on Estimation of Household Kerosene Consumption for Optimization of D...
 
マルチエージェント深層強化学習による自動運転車両の追越行動の獲得に関する研究
マルチエージェント深層強化学習による自動運転車両の追越行動の獲得に関する研究マルチエージェント深層強化学習による自動運転車両の追越行動の獲得に関する研究
マルチエージェント深層強化学習による自動運転車両の追越行動の獲得に関する研究
 

Dernier

AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfFumieNakayama
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...博三 太田
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?akihisamiyanaga1
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineerYuki Kikuchi
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfFumieNakayama
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)UEHARA, Tetsutaro
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NTT DATA Technology & Innovation
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)Hiroshi Tomioka
 

Dernier (8)

AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 

Generating Better Search Engine Text Advertisements with Deep Reinforcement Learning

  • 1. 論文紹介ゼミ Generating Better Search Engine Text Advertisements with Deep Reinforcement Learning 北海道大学大学院情報科学研究科 調和系工学研究室 修士2年 吉田拓海
  • 2. 論文情報 • タイトル – Generating Better Search Engine Text Advertisements with Deep Reinforcement Learning • 学会 – KDD2019(Applied Data Science Track Papers) • https://www.kdd.org/kdd2019/accepted-papers/view/generating-better- search-engine-text-advertisements-with-deep-reinforcement – 著者 • John Hughes1*, Keng-Hao2 Chang and Ruofei Zhang2 – 1. UC Berkeley (*. Microsoftのインターン) – 2. Microsoft • まとめ – 魅力的(高CTR)な検索エンジン広告を生成 • Self Critical Sequence Training(SCST)を適用 – 微分不可能なmetric(予想クリック率)を最適化 • 自動評価と人間による評価 – SCSTの適用によって予想クリック率の向上,魅力の向上を実証 – 文法的精度を大きく低下させない 1
  • 3. 背景 • 高いクリック率(広告が魅力的で関連性がある)場合 広告主と検索エンジンの両方に利益をもたらす – ユーザがクリックしたときのみ支払い(広告主→検索エンジン) • 検索エンジンの広告文生成 – 2つの目的 • 人間が作ったものに近い • 高いクリック率 2 ランディングページと広告の例
  • 5. モデル • 広告のタイトルと本文の予測をseq2seqとして扱う – landing pageのタイトルと本文 – 広告のタイトルと本文 • 損失関数 – 既存のlanding page(𝑦∗)と広告(𝑥∗)を模倣するように学習 – CTR(クリック率)を高めるように学習 – 最終的な損失関数 4
  • 6. モデル • CTRを高める学習のための項 – 𝐶𝑇𝑅(𝑦) • oracle modelによって予測された広告𝑦のCTR • 先行研究(Microsoft)のCTR予測モデル[1]を使用 – large-scale logistic regression 5 [1] X. Ling, W. Deng, C. Gu, H. Zhou, C. Li, and F. Sun. Model ensemble for clickprediction in bing search ads. InProceedings of the 26th International Conferenceon World Wide Web Companion, pages 689–698. International World Wide WebConferences Steering Committee, 2017.
  • 7. モデル • Parallel Encoder/Decoder – 標準的なRNNのEncoder-Decoderモデルをもとに構築 • 𝑘 sequencesを単一の潜在状態𝑠にencode – Bi-directional LSTMの最終層の隠れ状態を結合することで𝑠を取得 • 𝑙 sequencesを出力(decode) – 𝑠を初期状態とするLSTMでタイトル𝑦 𝑇 , 本文𝑦 𝐵 を予測 6 𝑘 = 𝑙 = 2 概略図
  • 8. モデル • Attention – attention score[1,2] – normalized scores[3] • 過去ステップのscoreを用いて正規化 – context vector 7 参考 [1] M. Luong, H. Pham, and C. D. Manning. Effective approaches to attention-based neural machine translation.CoRR, abs/1508.04025, 2015. [2] R. Paulus, C. Xiong, and R. Socher. A deep reinforced model for abstractive summarization.arXiv preprint arXiv:1705.04304, 2017. [3] B. Sankaran, H. Mi, Y. Al-Onaizan, and A. Ittycheriah. Temporal attention model for neural machine translation.CoRR, abs/1608.02927, 2016. 文献[2]から引用
  • 9. encoder decoder モデル • Output – decoderのタイムステップ𝑖では以下のものが出力される • LSTMのhidden state ℎ𝑖 𝐷 • attention distributions 𝛼𝑖,𝑗 𝑥 𝑇 , 𝛼𝑖,𝑗 𝑥 𝐵 • context vectors 𝑐𝑡 𝑥 𝑇 , 𝑐𝑡 𝑥 𝐵 – これらから潜在的単語出力分布𝑝 𝑣𝑜𝑐𝑎𝑏, 𝑝𝑐𝑜𝑝𝑦を予測する 8 [1] R. Paulus, C. Xiong, and R. Socher. A deep reinforced model for abstractive summarization.arXiv preprint arXiv:1705.04304, 2017. 文献[1]から持ってきた図 (前ページの文献[2])
  • 10. モデル • Output – 最終的な出力 9 𝑊𝑒𝑚𝑏:単語の埋め込み行列(LSTM入力前にも使用) 学習するパラメータ • 4つのLSTM • 𝑊𝑒𝑚𝑏, 𝑊𝑝 • 𝑏 𝑢 𝐷 , 𝑊𝑢 𝐷 • (attentionは?) 参考 [1] A. See, P. J. Liu, and C. D. Manning. Get to the point: Summarization withpointer-generator networks.CoRR, abs/1704.04368, 2017. [2] https://www.slideshare.net/ponta63/gettothepointacl17 新しい単語を生成 原文の単語を使いまわす
  • 11. モデル • Output 図[1] 10 [1] A. See, P. J. Liu, and C. D. Manning. Get to the point: Summarization withpointer-generator networks.CoRR, abs/1704.04368, 2017. context vectorとDecoder(LSTM hidden state) から単語分布を得る
  • 12. モデル • Output 図[1] 11 [1] A. See, P. J. Liu, and C. D. Manning. Get to the point: Summarization withpointer-generator networks.CoRR, abs/1704.04368, 2017. 𝑝 𝑣𝑎𝑐𝑎𝑏 新しい単語を生成 𝑝𝑐𝑜𝑝𝑦 原文の単語を使いまわす(copy) スイッチ変数:𝑢
  • 13. モデル • Self Critical Sequence Training – CTRに関する誤差項𝐿 𝐶𝑇𝑅は𝜃で微分できない – RAINFORCE trick[1]を使って勾配を計算 – Self Critical Sequence Trainingではベースライン 𝑦を導入 • これによって分散が下がる • ベースライン 𝑦としてarg-maxの出力を使用 12 参考 [1] R. J. Williams. Simple statistical gradient-following algorithms for connectionistreinforcement learning.Machine Learning, 8:229–256, 1992. [2] https://www.slideshare.net/YoshitakaUshiku/selfcritical-sequence-training-for-image- captioning-cv-cvpr-2017
  • 14. モデル • Self Critical Sequence Training 13 (A) 𝑦が 𝑦より高い報酬だった場合 𝑦がとられる確率が増加 (B) 𝑦が 𝑦より低い報酬だった場合 𝑦がとられる確率が減少
  • 15. 実験 データ • Bing Ads Data – ランディングページと広告のペア • 600,000 – 各ドメインで5回以上出現する例を削除 • 少数の広告主が広告の大部分を占めている • その多くが同じテンプレートを使っている – 結果として323,387に • train, validation, testに分割 – ランディングページを正規化 • 句読点を含まない,すべて小文字に – 広告も同様に正規化 • ?, -は残す 14
  • 16. 実験 • Training – 事前学習 • 𝐿 𝑋𝐸で学習 – そのあと𝐿 𝑡𝑜𝑡𝑎𝑙で学習(Self Critical Sequence Training) – 学習中CTRを推定するためにCTR予測で学習させたoracle modelを 使用 • 学習中はブラックボックスとして扱われる • 同じくmicrosoftの人が著者の先行研究のCTR予測モデル[1]を使用 – large-scale logistic regression 15 [1] X. Ling, W. Deng, C. Gu, H. Zhou, C. Li, and F. Sun. Model ensemble for clickprediction in bing search ads. InProceedings of the 26th International Conferenceon World Wide Web Companion, pages 689–698. International World Wide WebConferences Steering Committee, 2017.
  • 17. 実験 • Automatic Evaluation – Click Rate • oracle modelとまた別のCTR予測モデルの出力値 – ROUGE-L • 2つのtextの最長共通部分単語列(LCS)を評価する指標 – LCS: Longest Common Subsequence • LCSのF値 • 例[1] – LCS = 9 – 適合率(Precision)= 9 12 – 再現率(Recall)= 9 11 – ROUGE-L= 2𝑅𝑒𝑐𝑎𝑙𝑙∙𝑃𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛 𝑅𝑒𝑐𝑎𝑙𝑙+𝑃𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛 16 長さ 𝑟: 11 ℎ1: 12 参考 [1]平尾 努, 磯崎 秀樹, 須藤 克仁, Duh Kevin, 塚田 元, 永田 昌明, “語順の相関に基づく機械翻訳の自動評価法” 自然言語処理, Vol.21, No.3, pp.421-444, 2014, https://www.jstage.jst.go.jp/article/jnlp/21/3/21_421/_article/-char/ja/
  • 18. 実験 結果 • Automatic Evaluation – 𝛾 = 0.05が最適 – 𝛾 = 0.02 • ROUGE-Lが急速に減少,oracleにoverfitし文法的質が悪い分が生成さ れる,early stoppingですぐ終わる(学習) – 𝛾 = 0.10 • クリック率が低い 17 oracle modelと同じデータセット(別の期間)で 学習させたニューラルネットによるCTR予測
  • 19. 実験 結果 • Automatic Evaluation – Baseline(おそらく𝐿 𝑋𝐸のみで学習)とSCSTを比較 • クリック率を6.7%増し • ROUGE scoreに有意な差はない – DNN Predictionによるクリック率も4.8%増し • oracle modelにoverfitしてない – ROUGE scoreはどのモデルも有意差なし – クリック率が増えてもROUGE scoreが大幅に変化しない • クリック率が高い人手で書かれた広告の空間内で最適化されてる 18
  • 20. 実験 結果 • Automatic Evaluation – SCSTで学習させたモデルは同じ単語,フレーズを繰り返す傾向 • 恐らくoracle modelで魅力的とされる単語を繰り返してる – 繰り返さないように制約をかける(repeats masked) • クリック率は低下する • 先ほどと同様,SCSTによってクリック率は上昇 19
  • 21. 実験 結果 • Human Evaluation – 2つの実験を実施 • 広告を評価及び比較するために訓練された人を募集した – 実験1 • 被験者に単一の広告とランディングページが表示,以下の質問 – 広告に不要な単語,フレーズの繰り返しはありますか? [Yes/No] – 広告のタイトルとコピー(?)は人間が書いたように見えるか? [Yes/No] – 4段階評価[Good/Fair/Bad/Nonsenseor Broken] » Good: Perfect grammar(完璧な文法) » Fair: Slight grammar errors or repeats(軽い文法エラー/繰り返し) » Bad: Major grammar errors or repeats(重大な文法エラー/繰り返し) » Nonsense or Broken: Including foreign language or landing page not loading (外国語が含まれる/LPが読み込まれない?) • 各モデルを評価するために2000 data point • どの例がどのモデルのモノかわからないようにシャッフル • 質問の回答が一貫するようにいくつかの広告を繰り返した 20
  • 22. 実験 結果 • Human Evaluation – 繰り返しの制約をつけたモデル(repeats masked)は 文法と人間作との類似度の評価が向上 – Baseline(masked)とSCST(masked)を比較 • SCSTの生成する広告は人間作に似ているとみなされる • “Good”は減るがそれほど大きくない – SCSTは文法的質を低下させない(?) – 事前学習で得た言語モデルを傷つけない – Nonsense/Brokenが多い • ランディングページの期限切れ,外国語によるもの – 人間作の広告も同様の割合 21
  • 23. 実験 結果 • Human Evaluation – 実験2 • repeats maskedモデルを対象(繰り返しに制約をかけたモデル) • 1000のランディングページの広告を並べて比較 • 2つの広告をランディングページに関連付けられたキーワード/クエリと ともに表示 • 質問:クエリが与えられた場合,どの広告コピーが好みですか? [Ad copy #1 / Ad copy#2 / Ads are identical] • 広告はランダムな順序で表示 – 結果 • Baseline < SCST 22
  • 24. 生成例 • SCSTモデルの広告 – 無料,行動を表すフレーズ,数字などが含まれる • 広告の魅力を高めることが知られている[1] 23 [1] S. Thomaidou. Automated Creation and Optimization of Online Advertising Campaigns. PhD thesis, Ph. D. thesis, Department of Informatics, Athens University of Economics and Business, 2014.
  • 26. まとめ • 魅力的(高CTR)な検索エンジン広告を生成 – Self Critical Sequence Training(SCST)を適用 • 微分不可能なmetric(予想クリック率)を最適化 – 自動評価と人間による評価 • SCSTの適用によって予想クリック率の向上,魅力の向上を実証 • 文法的精度を大きく低下させない 25