SlideShare une entreprise Scribd logo
1  sur  18
1
DEEP LEARNING JP
[DL Papers]
http://deeplearning.jp/
“Breakpoint Transformers for Modeling and Tracking
Intermediate Beliefs” (EMNLP 2022)
Istuki Okimura, Matsuo Lab M1
アジェンダ
1 書誌情報
2 概要
3 問題意識
4 提案手法
5 実験設定
6 結果
2
1 書誌概要
タイトル: Breakpoint Transformers for Modeling and Tracking Intermediate Beliefs
出典: EMNLP2022
https://arxiv.org/abs/2211.07950
著者: Kyle Richardson, Ronen Tamari, Oren Sultanなど
(The Hebrew University of Jerusalem, AllenAI,…)
選んだ理由:移りゆく事象をモデルが把握する方法を学習させるという
モチベーションに興味があった
3
2 概要
• 自然言語処理において、モデルが内部でどのような信念状態を
持っているかの解釈は依然として困難であり、
特に物語理解のタスクにおいて、言語モデルがどのように世界の変化を
追跡しているのか不明な点がある。
• 本論文ではストーリーの中間地点における信念状態を学習、追跡する
新しい表現学習フレームワークであるブレイクポイントモデリングを提案。
• 既存の表現学習手法と比較して、信念状態の予測精度や処理効率、
予測の一貫性で優れることを示した。
• また、対応する質問応答モデルに組み込んだ場合でも性能が劣化しないため、
よりデバッグしやすいシステムへの発展可能性を示した。
4
3 問題意識
5
モデル内部の信念を理解し、解釈するのは困難な問題である
• 物語理解のようなタスクにおいて、
言語モデルの世界追跡能力には不明な点がある。
• 例えば、右図のようなストーリーを受けて、
”Where is the apple?” のような質問に答えるには
以下の能力を持つ必要がある。
 時間を通じて対象を追跡する能力
 他の知識と追跡する知識を区別する能力
• 一方で、モデルがある地点で特定の命題に関してどの
ような信念を持っているか
(例. その時点でりんごはどこにあると考えているのか)
を直接調べるのは困難である。
3 問題意識
6
モデルの任意の点における信念状態を学習、追跡できる手法を提案
• モデルがストーリーの任意の点
(ブレークポイント)において
命題への信念状態を学習するフレームワーク、
ブレークポイントモデリングを提案。
• 右図上のプログラミングのブレークポイント
のように、ストーリーの中間地点においての
あるべき信念状態を学習することで、
訓練時に特定の信念をモデルに教えること、
そして推論時に信念状態がデバッグできる
システムを目指す。
• 中間的な状態を学習することで、最後の質問に
対し一貫した回答が生成しやすくなるはず?
4 提案手法
7
提案手法の概要
1. ストーリーの中にブレークポイント
トークン[B]𝑗を挿入する
2. ブレークポイントで考えるべき命題の集合
𝑃𝑗 = 𝑝1, 𝑝2 … 𝑝𝑡 とそれぞれの命題に関する
真理値(true or false or unknowing)を用意する
3. 二つのエンコーダーを用いて、ブレークポイントと命題
のそれぞれの埋め込み表現𝑏と𝑐𝑝𝑟𝑜𝑝を作る
4. それぞれのブレークポイントとその命題に関する埋め
込みから、その命題に関する真理値を
予測するタスクを学習する
4 提案手法
8
ブレークポイントと命題の設定
ブレークポイント(“breakpoints”)
• ストーリーの中間地点にブレークポイントを示
す特殊なトークン[B]𝑗を挿入する
• ストーリーを入力するエンコーダー𝑒𝑛𝑐𝑠𝑡𝑜𝑟𝑦に
よって埋め込み表現𝑏𝑗に変換される
命題(“propositions”)
• 各ブレークポイント[B]𝑗においてテキスト命題
𝑃𝑗 = 𝑝1, 𝑝2 … 𝑝𝑡 のセットと関連づける
• 命題を入力するエンコーダー𝑒𝑛𝑐𝑝𝑟𝑜𝑝に
よって埋め込み表現𝑐𝑝𝑟𝑜𝑝に変換される
• それぞれの命題𝑝𝑘における状況をtrue, false,
unknownの3種類のラベルが与える
4 提案手法
9
学習方法
命題推論
𝑛個のストーリーからなるデータセット𝐷に関して、
各ストーリー𝑠 𝑖 に𝑚個のブレークポイント𝐵 𝑖 が存在するとする。
それぞれのブレークポイント𝑏𝑗に対して、 𝑡個の命題𝑝𝑘が存在し、
それぞれのラベル𝑦𝑗,𝑘
𝑖
が与えられた時、
そのラベルに対する論理式は𝑌
𝑗,𝑘
(𝑖)
𝑏𝑗, 𝑝𝑘 (=True or False)で表される。
𝑌
𝑗,𝑘
(𝑖)
𝑏𝑗, 𝑝𝑘 に対応するモデルの確率として、 Pr 𝑦𝑗,𝑘
𝑖
を用いると、損失は以下の式で表される。
ℒ𝑝𝑟𝑜𝑝 =
𝑖=1
𝑛
𝑗=1
𝑚
𝑘=1
𝑡
− log Pr 𝑦𝑗,𝑘
𝑖
5 実験設定
10
用いるデータセット1: CLUTRR [Shinha et al., 2019]
概要
人間が記述した家族関係を持つストーリー上のQA
作成方法
• クリーンサブセットに対し、各文の後に
ブレークポイントを追加する。
• その後、明示的なストーリーに由来する命題と
CLUTRRを拡張した証明タスク用に由来する命題を作
成し、基本的な命題のセットとする。
• 基本命題から否定命題や未知命題を含む追加命題を
一般的な制約を用いて追加する。
* イベント数の長さによってi.i.dとgeneralizationの
設定を作成し、実験する。
5 実験設定
11
用いるデータセット2: bAbI QA [Weston et al., 2016]
概要
ミクロ世界のエージェントに関する
ストーリー上のQA
* CLUTRRより全体的にイベントが長い
作成方法
• 各文の後にブレークポイントを追加する。
• Dyna-bAbIタスク生成器[amari et al., 2022]を
用いて基本的な命題のセットを作成する。
• 基本命題から否定命題や未知命題を含む
追加命題を一般的な制約を用いて追加する。
* 標準的な設定(i.i.d)と難易度の高い設定(hard QA)で
実験する。
出典:https://arxiv.org/pdf/1502.05698.pdf
5 実験設定
12
学習設定
モデル
T5ベースのBidirectional Encoder
マルチタスク学習
ストーリーの最後のQAに回答できるように、損失を加えたマルチタスクの設定でも学習する。
ℒ = 𝜆1ℒ𝑝𝑟𝑜𝑝 + 𝜆2ℒ𝑄𝐴 + 𝜆3ℒ𝑔𝑒𝑛
それぞれのタスクにおけるクロスエントロピー損失とする
ℒ𝑄𝐴: 質問から応答を生成するタスク
ℒ𝑔𝑒𝑛: 1 右端のブレークポイントの埋め込みからランダムに選んだイベントを生成するタスク
ℒ𝑔𝑒𝑛: 2ブレークポイントの埋め込みからランダムな抽象化したイベントを生成するタスク
微調整されたT5モデルやBARTモデルでの結果などと比較
5 実験設定
13
評価指標
命題推論
• 全体の命題における正解率
• 命題において矛盾する命題予測の一貫性を保てた
割合を示すグローバル一貫性指標𝜌
質問応答
モデルの生成出力に対するExact Match精度
6 結果
14
CLUTRRで提案手法は命題推論の性能やサンプル効率、一貫性に優れる
命題推論
微調整されたBILSTMモデル、T5モデルを上回る性能
質問応答
i.i.dの設定では微調整されたT5やBARTを上回る、
generalizationの設定では匹敵する性能を記録
サンプル効率
全体の60%の学習データのみで、
全データで学習したベースラインと同等の性能を達成
一貫性
i.i.d設定において制約違反𝜌がおよそ6%減少
(でも30%以上違反している。。)
6 結果
15
bAbIでも命題推論の性能やサンプル効率に優れる
命題推論
微調整されたBILSTMモデルは大きく上回り、
T5モデルに匹敵する性能
質問応答
i.i.dの設定では微調整されたT5やBARTにやや劣るも、
hardQAの設定では上回る性能を記録
サンプル効率
学習時間の効率が大幅に向上し、
学習時間を54%削減した
感想
16
モチベーションが面白いと思った
Chain of thoughts 的な段階的な推論を任意のドメインに展開できそうな面白さはあるが
そもそも人間がアノテーションして教える必要があるのかという気持ち
プログラミングとは違って、モデルの中間地点での信念状態を追跡できても、
それが必ずしも最終的なQAなどの出力と因果関係があるとは言い切れない
まとめ
17
• 自然言語処理において、モデルが内部でどのような信念状態を
持っているかの解釈は依然として困難であり、
特に物語理解のタスクにおいて、言語モデルがどのように世界の変化を
追跡しているのか不明な点がある。
• 本論文ではストーリーの中間地点における信念状態を学習、追跡する
新しい表現学習フレームワークであるブレイクポイントモデリングを提案。
• 既存の表現学習手法と比較して、信念状態の予測精度や処理効率、
予測の一貫性で優れることを示した。
• また、対応する質問応答モデルに組み込んだ場合でも性能が劣化しないため、
よりデバッグしやすいシステムへの発展可能性を示した。
DEEP LEARNING JP
[DL Papers]
“Breakpoint Transformers for Modeling and Tracking
Intermediate Beliefs” (EMNLP 2022)
Istuki Okimura, Matsuo Lab M1
http://deeplearning.jp/

Contenu connexe

Plus de Deep Learning JP

【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?Deep Learning JP
 
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究についてDeep Learning JP
 
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )Deep Learning JP
 
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...Deep Learning JP
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"Deep Learning JP
 
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "Deep Learning JP
 
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat ModelsDeep Learning JP
 
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"Deep Learning JP
 
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...Deep Learning JP
 
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...Deep Learning JP
 
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...Deep Learning JP
 
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...Deep Learning JP
 
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...Deep Learning JP
 
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...Deep Learning JP
 
【DL輪読会】マルチモーダル 基盤モデル
【DL輪読会】マルチモーダル 基盤モデル【DL輪読会】マルチモーダル 基盤モデル
【DL輪読会】マルチモーダル 基盤モデルDeep Learning JP
 
【DL輪読会】TrOCR: Transformer-based Optical Character Recognition with Pre-traine...
【DL輪読会】TrOCR: Transformer-based Optical Character Recognition with Pre-traine...【DL輪読会】TrOCR: Transformer-based Optical Character Recognition with Pre-traine...
【DL輪読会】TrOCR: Transformer-based Optical Character Recognition with Pre-traine...Deep Learning JP
 
【DL輪読会】HyperDiffusion: Generating Implicit Neural Fields withWeight-Space Dif...
【DL輪読会】HyperDiffusion: Generating Implicit Neural Fields withWeight-Space Dif...【DL輪読会】HyperDiffusion: Generating Implicit Neural Fields withWeight-Space Dif...
【DL輪読会】HyperDiffusion: Generating Implicit Neural Fields withWeight-Space Dif...Deep Learning JP
 
【DL輪読会】大量API・ツールの扱いに特化したLLM
【DL輪読会】大量API・ツールの扱いに特化したLLM【DL輪読会】大量API・ツールの扱いに特化したLLM
【DL輪読会】大量API・ツールの扱いに特化したLLMDeep Learning JP
 
【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision
【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision
【DL輪読会】DINOv2: Learning Robust Visual Features without SupervisionDeep Learning JP
 
【DL輪読会】Poisoning Language Models During Instruction Tuning Instruction Tuning...
【DL輪読会】Poisoning Language Models During Instruction Tuning Instruction Tuning...【DL輪読会】Poisoning Language Models During Instruction Tuning Instruction Tuning...
【DL輪読会】Poisoning Language Models During Instruction Tuning Instruction Tuning...Deep Learning JP
 

Plus de Deep Learning JP (20)

【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?
 
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
 
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
 
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
 
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
 
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
 
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
 
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
 
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
 
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
 
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
 
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
 
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
 
【DL輪読会】マルチモーダル 基盤モデル
【DL輪読会】マルチモーダル 基盤モデル【DL輪読会】マルチモーダル 基盤モデル
【DL輪読会】マルチモーダル 基盤モデル
 
【DL輪読会】TrOCR: Transformer-based Optical Character Recognition with Pre-traine...
【DL輪読会】TrOCR: Transformer-based Optical Character Recognition with Pre-traine...【DL輪読会】TrOCR: Transformer-based Optical Character Recognition with Pre-traine...
【DL輪読会】TrOCR: Transformer-based Optical Character Recognition with Pre-traine...
 
【DL輪読会】HyperDiffusion: Generating Implicit Neural Fields withWeight-Space Dif...
【DL輪読会】HyperDiffusion: Generating Implicit Neural Fields withWeight-Space Dif...【DL輪読会】HyperDiffusion: Generating Implicit Neural Fields withWeight-Space Dif...
【DL輪読会】HyperDiffusion: Generating Implicit Neural Fields withWeight-Space Dif...
 
【DL輪読会】大量API・ツールの扱いに特化したLLM
【DL輪読会】大量API・ツールの扱いに特化したLLM【DL輪読会】大量API・ツールの扱いに特化したLLM
【DL輪読会】大量API・ツールの扱いに特化したLLM
 
【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision
【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision
【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision
 
【DL輪読会】Poisoning Language Models During Instruction Tuning Instruction Tuning...
【DL輪読会】Poisoning Language Models During Instruction Tuning Instruction Tuning...【DL輪読会】Poisoning Language Models During Instruction Tuning Instruction Tuning...
【DL輪読会】Poisoning Language Models During Instruction Tuning Instruction Tuning...
 

Dernier

デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)UEHARA, Tetsutaro
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfFumieNakayama
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...博三 太田
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfFumieNakayama
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?akihisamiyanaga1
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案sugiuralab
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)Hiroshi Tomioka
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineerYuki Kikuchi
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NTT DATA Technology & Innovation
 

Dernier (9)

デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 

【DL輪読会】Breakpoint Transformers for Modeling and Tracking Intermediate Beliefs (EMNLP 2022)