CluBERT: A Cluster-Based Approach for Learning Sense Distributions in Multiple Languages
21 Jul 2020•0 j'aime
0 j'aime
Soyez le premier à aimer ceci
afficher plus
•317 vues
vues
Nombre de vues
0
Sur Slideshare
0
À partir des intégrations
0
Nombre d'intégrations
0
Télécharger pour lire hors ligne
Signaler
Données & analyses
CluBERT: A Cluster-Based Approach for Learning Sense Distributions in Multiple Languages
Word Sense Disambiguation, BERT, clustering
ということで読みました.
p. 7 は「solid は glass の上位語,glassware は glass の下位語」でした。。。
CluBERT: A Cluster-Based Approach for Learning Sense Distributions in Multiple Languages
1. 2. 3. 4. 5.
CluBERT:
A Cluster-Based Approach for
Learning Sense Distributions in Multiple Languages [1]
2020/07/21
1
[1] Pasini, T., Scozzafava, F., and Scarlini, B.: "CluBERT: A Cluster-Based Approach for
Learning Sense Distributions in Multiple Languages.“, ACL, pp. 4008-4018 (2020).
1. 2. 3. 4. 5.
2
論文情報
タイトル:
CluBERT: A Cluster-Based Approach for
Learning Sense Distributions in Multiple Languages
著者:
Pasini, T.1, Scozzafava, F.1, and Scarlini, B.1
1: Sapienza NLP Group, Department of Computer Science, Sapienza University of Rome
出典: ACL 2020
選定理由: clustering と BERT の組み合わせに興味があった
BabelNet [2] の著者 Navigli, R. も同組織所属
1. 2. 3. 4. 5.
14
BERT の学習
1. マスクした単語の予測 ≈ 𝑐𝑙𝑜𝑧𝑒 テスト
𝑐𝑙𝑜𝑧𝑒 テスト マスクした単語の予測
the man _____ to the store the man [Mask] to the store
BERT はマスクした単語と文章の連続性の2つを学習
2. 文章の連続性の予測
A) The man went to [MASK] store.
B) He bought a gallon [MASK] milk.
不要とも言われている
A と B の文は連続?
1. 2. 3. 4. 5.
15
提案手法の概要
生コーパスから単語がもつ意味の分布を獲得 & 多言語対応
𝐶:コーパス,𝑙: 見出し語,𝑀𝑙: 見出し語 𝑙 が持ち得る意味集合
1. Sentence Clustering
𝑔𝑙𝑎𝑠𝑠 を含む
文(∈ 𝐶)の集合
2. Clustering Disambiguation 3. Distribution Extraction
コーパス 𝐶 中の
意味の分布を獲得
𝑔𝑙𝑎𝑠𝑠 𝑁
1
𝑔𝑙𝑎𝑠𝑠 𝑁
2
0.4
0.68 𝑔𝑙𝑎𝑠𝑠 𝑁
1
0.6𝑔𝑙𝑎𝑠𝑠 𝑁
2
0.32
𝑔𝑙𝑎𝑠𝑠 𝑁
1
0.48
𝑔𝑙𝑎𝑠𝑠 𝑁
2
0.52
𝑀𝑔𝑙𝑎𝑠𝑠 = {𝑔𝑙𝑎𝑠𝑠 𝑁
1
, 𝑔𝑙𝑎𝑠𝑠 𝑁
2
}
Cluster 1
… 𝑔𝑙𝑎𝑠𝑠 requires lower temperatures.
.. walls are made out of 𝑔𝑙𝑎𝑠𝑠.
Cluster 2
He asked for a 𝑔𝑙𝑎𝑠𝑠 of water.
It is traditionally served in a 𝑔𝑙𝑎𝑠𝑠.
1. クラスタを頻出語で表現
2. クラスタ内の分布の導出
実際は,2つ以上の意味が存在
materialn
metaln
plasticn
winen
watern
drinkn
1. 2. 3. 4. 5.
16
Sentence Clustering
見出し語を含む文に対してベクトル表現を獲得し,クラスタリング
𝑀𝑔𝑙𝑎𝑠𝑠 = {𝑔𝑙𝑎𝑠𝑠 𝑁
1
, 𝑔𝑙𝑎𝑠𝑠 𝑁
2
, . . } BabelNet 上では,30個近い意味が存在
… 𝑔𝑙𝑎𝑠𝑠 requires lower temperatures.
He asked for a 𝑔𝑙𝑎𝑠𝑠 of water.
.. walls are made out of 𝑔𝑙𝑎𝑠𝑠.
It is traditionally served in a 𝑔𝑙𝑎𝑠𝑠.
1. コーパス 𝐶 から見出し語 𝑔𝑙𝑎𝑠𝑠 を含む文 𝑆 の抽出
2. BERT による文脈における単語の表現 𝒗 𝜎
𝑙 (𝜎 ∈ 𝑆) を獲得
3. 𝑘-means によるクラスタリング
𝒗 𝜎
𝑙
= BERT(𝜎, 𝑙)
1. 文の抽出 2. 特徴空間への写像 3. クラスタリング
1. 2. 3. 4. 5.
17
Cluster Disambiguation
1. クラスタを頻出語の Bag of Words (BoW) で表現
2. PPR で得られた値 𝒗 𝑡+1 を正規化し,分布を取得
Cluster 1
… 𝑔𝑙𝑎𝑠𝑠 requires lower temperatures.
.. walls are made out of 𝑔𝑙𝑎𝑠𝑠.
Cluster 2
He asked for a 𝑔𝑙𝑎𝑠𝑠 of water.
It is traditionally served in a 𝑔𝑙𝑎𝑠𝑠.
ベクトル空間
頻出語(top-𝑛)
material, metal, …
water, wine, …
𝒗 𝑡+1 = 1 − 𝛼 𝒗0 + 𝛼𝑨𝒗 𝑡
PPR: 下記の式を繰り返すことで関連度を導出するアルゴリズム
𝛼 = 0.85, 𝑨: 全 synset 間の有向グラフ,
𝒗0: BoW 内の単語がもつ synset の値を 1 とするベクトル
今回は正規化した頻度を値に使用?
1. 2. 3. 4. 5.
30
参考文献(1)
[2] Navigli, R., and Ponzetto, S. P.: “BabelNet: Building a very large
multilingual semantic network.”, ACL, pp. 216—225 (2010).
[3] Navigli, R., Jurgens, D., and Vannella, D.: “Semeval-2013 task 12:
Multilingual word sense disambiguation.”, SemEval, pp. 222—231
(2013).
[4] Devlin, J., Chang, M. W., Lee, K., and Toutanova, K.: “Bert: Pre-
training of deep bidirectional transformers for language
understanding.”, NAACL, Vol. 1, pp. 4171—4186 (2019).
[5] Miller, G.A.: “WordNet: A Lexical Database for English.”,
Communications of the ACM, Vol. 38, No. 11, pp. 39—41 (1995).
[6] Sutskever, I., Vinyals, O., and Le, Q. V.: “Sequence to sequence
learning with neural networks.”, NIPS, pp. 3104—3112 (2014).
1. 2. 3. 4. 5.
31
参考文献(2)
[7] Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L.,
Gomez, A. N., Kaiser, Ł., and Polosukhin, I.: “Attention is all you
need.”, NIPS, pp. 5998—6008 (2017).
[8] Raganato, A., Bovi, C. D., and Navigli, R.: “Neural sequence
learning models for word sense disambiguation.”, EMNLP, pp.
1156—1167 (2017).
[9] Agirre, E., López de Lacalle, O., and Soroa, A.: “Random walks for
knowledge-based word sense disambiguation.”, Computational
Linguistics, Vol. 40, No. 1, pp. 57—84 (2014).
[10] Pasini, T., and Navigli, R.: “Two knowledge-based methods for
high-performance sense distribution learning.”, AAAI, pp. 5374—
5381 (2018).
1. 2. 3. 4. 5.
32
参考文献(3)
[11] Hauer, B., Luan, Y., and Kondrak, G.: “You Shall Know the Most
Frequent Sense by the Company it Keeps.”, IEEE ICSC, pp. 208—215
(2019).
[12] Bennett, A., Baldwin, T., Lau, J. H., McCarthy, D., and Bond, F.:
“Lexsemtm: A semantic dataset based on all-words unsupervised
sense distribution learning.”, ACL, Vol. 1, pp. 1513—1524 (2016).
[13] Moro, A., and Navigli, R.: “Semeval-2015 task 13: Multilingual
all-words sense disambiguation and entity linking.”, SemEval, pp.
288—297 (2015).