SlideShare une entreprise Scribd logo
1  sur  70
Télécharger pour lire hors ligne
Bayesian tistical Modeling
ベイズ塾 北條大樹(ほうじょう だいき)
: @dastatis
: https://dastatis.github.io/index.html
今日のコード(一時的) https://rstudio.cloud/project/40523
Tokyo.R #70
2018.06.09
この資料について
• 本資料は、Tokyo.R #70で発表した内容です。
• 資料はほぼ一日でザーと作ったため、項目反応モデルの数式、
解釈について不正確の場所があるかもしれません。
• 詳細は、最終スライドの文献等をご確認ください。
• 楽しんでいただければ幸いです。
2
自己紹介
• 名前:
• 北條大樹(ほうじょうだいき)
• 所属:
• 魁!!広島ベイズ塾
• 東京大学 教育学研究科 教育心理学コース D1
(*昨年までは専修大学にいました)
• 日本学術振興会
• 専門:
• 心理統計学 (IRT・認知モデリング)
• ベイズ統計学
• 連絡先:
dhojo@p.u-tokyo.ac.jp
@dastatis
3
僕がベイジアンになるまで(参考までに) 4
僕がベイジアンになるまで(参考までに) 5
超良書
著者の松浦先生って
どんな方なんだろう….
最近の読んでいる書籍 6
&
これ以外にも、
・論文
・書籍
・皆様方が書かれたブログ記事 等々
実は一番読んでいるのは。。。 7
• Stan公式マニュアル
• 637ページの大著
• ただのマニュアルではない
• 理論の説明もある
• 公式の人もこんなことを…
実は一番読んでいるのは。。。 8
• Stan公式マニュアル
• 637ページの大著
• ただのマニュアルではない
• 理論の簡易な説明もある
• 公式の人もこんなことを…
でも、英語か。。。
どこかの神が日本語訳してくれてる。。。 9
一体、誰なんだ?
貢献している方々 10
11
おわかり
いただけただろうか?
貢献している方々 12
貢献している方々 13
この本の作者やん!!!!
貢献している方々 14
松浦健太郎先生って
一体何者なんだろう?
な, な, なんと…今日…聞ける!!! 激アツ!!! 15
影響力やばし
松浦先生の御前で何を話そう
そもそも、90名の参加者さんがいて
ほとんどが社会人で
学生ごときの私が
何を話せばよいのか?
16
私の勝手な社会人へのイメージ 17
このデータで
なんか面白いこと言って!
データ
本日の目標 18
突如投げられた無茶ぶりデータで
ベイズモデリング
では、参加者に突然質問を投げてみる 19
とろ まぐろ えび カッパ巻き
たまご いくら いか 鉄火巻き うに
あなご
どれが好きですか?
俺的ランキング 20
1
2
3
4
日本人5000人分の好み 21
http://www.kamishima.net/sushi/より作成
このデータは一体…? 22
SUSHI Preference Data Sets
• 5000人が100種類の を評定したデータ
http://www.kamishima.net/sushi/
では、このデータを上司から投げられたとする 23
寿司データで
ベイズモデリングして!
24
と
い
う
こ
と
で
https://www.pakutaso.com/20111238365post-1055.html
全
力
す
し
モ
デ
リ
ン
グ
は
じ
め
ま
し
た
。
25
https://www.pakutaso.com/20111238365post-1055.html
Let’s
Bayesian SUSHItistical Modeling
今回のデータを確認 26
ここからダウンロード
※ライセンスとして、
あくまで研究目的の使用はOK
詳しくはWebへ
解凍すると…
• README-ja.txtにデータの詳細が記載されている
• そして、readme以外のファイルをcsvに変換
27
sushi3i
• sushi3iは回答者の属性について
28
sushi3u
• sushi3uは寿司ネタについて
29
sushi10
• どの順位(1-10)にどのネタ(0-9)が入っているか?
30
すし行列(SUSHI Matrix)
˃sushi10 <- read_csv("sushi10.csv", col_names = TRUE) %>%
apply(1, order) %>%
t() %>%
data.frame() %>%
rename(えび=X1,穴子=X2,まぐろ=X3,いか=X4,うに=X5,
いくら=X6,玉子=X7,とろ=X8,鉄火巻=X9,かっぱ巻=X10)
˃sushi10 <- 11 - sushi10 #点数が高いと人気になるようにする
31まずは、sushi10から先ほどの図を出す
• ↑文字小さくてすみません
32つづき
他のデータ
•sushi100は、sushi10の100品ランキングバージョン
•sushi100rateは、ネタ100品を5段階で評定したデータ
33
では、もう少し すし を読み解く
• 100品の内、何が最も食べられている?
• 100品の内、何が最も高いのは?
• 高いと食べられていない??
34
x: 寿司ネタ y: 食べる頻度 のプロット 35
実際に何が食べられている? 36
1. まぐろ
2. えび
3. ネギトロ
4. 甘エビ
5. とろ
6. サーモン
7. イカ
8. 中トロ
9. ネギトロ巻き
10. あなご
高級なすしネタは何だろう? 37
とびぬけて高いネタがある
こたえ
• とろ、あわび、タラバガニが
お高めだった
38
頻度が高いものに高いネタはあるのか? 39
とろ
中トロ
ネギトロは
高くても
よく食べられている
ここまでのまとめ
•お寿司データを上司に渡された
•5000人の100品の食べる頻度を集計
• まぐろ、えび、ねぎとろの頻度が高かった
•100品の中で高級なものを集計
• とろやあわびが高い
•マグロ系は、高くても食べられていることが判明
• 他よりも好まれるから、高くても食べられているのか?
40
⇒マグロ系は他のネタよりも好まれているのか?検討しよう
評定データ(sushi100rate)
• 100品を(0:嫌い~4:好き)の5段階で評定
• 今回は、5000人分のデータを500人にして分析
41
評定の平均点
• 中トロ、ネギトロの評価が高い
• ぶりも評価が高い(おいしいよね)
• 以上より、
マグロ系は他よりも評価が高かったねって結論づけていい?
42
すし職人と俺の評定
•まぐろが好きですか?
• すし職人:4
• 俺:4
•すし職人は、マグロを知り尽くしたうえでの 4(好き)
•俺は、なんとなく 4(好き)
かもしれない
•同じ評定値 “4(好き)” として扱っても良い?
43
項目反応理論 ( Item Response Theory )
• 項目回答を回答者の特性(能力)と項目の特徴(特性)に分離して
解釈することが可能
• たとえば、項目回答が2値(はい・いいえ)の場合
44
※2値(はい・いいえ)の例
項目の何がわかるのか? ( 識別力 )
ID Q1 Q2 Q3
1 1 0 0
2 0 1 1
3 0 0 1
45
Q1
Q2
項目特性を推定し、
回答者の能力を推定
※2値(はい・いいえ)の例
項目の何がわかるのか? ( 困難度 )
ID Q1 Q2 Q3
1 1 0 0
2 0 1 1
3 0 0 1
46
Q1
項目特性を推定し、
回答者の能力を推定
※2値(はい・いいえ)の例
Q3
数式で表すと(だいぶ端折っています)
特性𝜃の回答者が項目𝑗に正答する確率を以下のように表現する
𝑃𝑗 𝑦𝑗 = 𝑘|𝜃, 𝑎𝑗, 𝑏𝑗 =
1
1 + exp −𝑎𝑗 𝜃 − 𝑏𝑗
= logit−1 𝑎𝑗 𝜃 − 𝑏𝑗
• 𝑎...項目識別力パラメータ(傾き)
• 𝑏...項目困難度パラメータ(切片)
• 𝜃 …回答者の特性(i人の回答者がいれば、iがつきます)
• つまり、説明変数が潜在変数(𝜽)であるロジスティック回帰モ
デルと考えることができる
47
多値の場合は?
ID Q1 Q2 Q3
1 1 4 3
2 4 4 3
3 1 2 2
48
項目特性を把握し、
回答者の能力を測定
※多値(4カテゴリ)の例
分析のイメージを沸かせる
• 多値の場合は、説明変数が潜在変数の多項ロジットモデルのよ
うなイメージ
• 今回の寿司の例に置き換える
• お寿司の好み(5段階評定の項目回答)で、
• 回答者𝒊が好み軸のどの辺に位置し、
• 寿司ネタ𝒋の好まれやすさを推定し(項目の困難度)
• 寿司ネタ𝒋が回答者全体に受け入れられやすいか(項目の識別力)を
*好きな人は好きだけど、嫌いな人は嫌いなネタ or みんな大体すき
• 解釈することができる。
•これにより、Sushi Response Modelが完成する。
49
このような項目特性曲線が書ける 50
※多値(4カテゴリ)の例
部分得点モデル(Partial Credit model)
• カテゴリkと答えるか、k-1と答えるかの2つの確率を用いて、
前者を表現する。
𝑝 𝑦𝑖𝑗 = 𝑘 𝜃𝑖, 𝛽𝑗 =
exp σ 𝑘=1
𝐾
(𝜃𝑖 − 𝑏𝑗𝑘)
1 + σ 𝑚=1
𝐾
exp σ 𝑘=1
𝑚
(𝜃𝑖 − 𝑏𝑗𝑚)
*傾き𝑎𝑗𝑘をいれると、一般化部分得点モデルというモデルにな
ります。
• 今回は時間が無いので、
説明をいろいろ端折ってとりあえず推定します。
51
中間省略して,
最終的に...
推定結果よさそう。
• 変分ベイズ(vb)とも結構一致する。
52
0.9975 1.0000 1.0025 1.0050 1.0075
Rhat statistic
こんな項目特性曲線がかけます。 53
図はイメージ
こんな項目特性曲線がかけます。 54
が、しかし!!!!
こんな項目特性曲線がかけます。 55
これは、カテゴリ間が
入れ替わっても良い仮定
のモデル
このモデルの問題点を考えてみよう。
•今回のデータyは評定尺度であり、順序性(0~4)があ
る
•これが入れ替わるのは良くない
•そこでデータの順序性を考慮したモデルに拡張する
•段階反応モデル(graded response model)
•⇒順序ロジットモデルの潜在変数版
56
段階反応モデル
• 項目反応がカテゴリk以上となる確率を考えるモデル
• 回答者𝑖が寿司𝑗を𝑘と回答する確率を
𝑝 𝑦𝑖𝑗 = 𝑘 𝜃𝑖, 𝛼𝑗, 𝛽𝑗𝑘 =
1
1 + exp −𝑎𝑗 𝜃𝑖 − 𝛽𝑗𝑘
−
1
1 + exp −𝑎𝑗 𝜃𝑖 − 𝛽𝑗𝑘+1
• カテゴリkで回答するということはk+1で回答するわけではな
いのでkまでの確率からk+1までの確率を引くことで、kの確率
を求めるモデル
• Stanで表すと…
𝑦𝑖𝑗 ~ ordered_logistic 𝑎𝑗𝑘 𝜃𝑖, 𝛽𝑗𝑘
𝛼𝑗𝑘~𝑛𝑜𝑟𝑚𝑎𝑙 0, 5 #識別力(お寿司が好まれやすいものか)
𝛽𝑗𝑘~𝑛𝑜𝑟𝑚𝑎𝑙(0, 5) #境界パラメータ(回答カテゴリ間の境界値)
𝜃𝑖~𝑛𝑜𝑟𝑚𝑎𝑙(0, 1) #特性(回答者がどれだけお寿司を好むか)
57
推定できるとこんな感じの図が書ける 58
推定結果
• とてもいい感じ。
59
60
theta[9] theta[10]
theta[5] theta[6] theta[7] theta[8]
theta[1] theta[2] theta[3] theta[4]
0 250 500 7501000 0 250 500 7501000
0 250 500 7501000 0 250 500 7501000 0 250500 7501000 0 250 500 7501000
0 250 500 7501000 0 250 500 7501000 0 250500 7501000 0 250 500 7501000
-1
0
1
-1
0
1
-2
-1
0
-2
0
2
4
-1
0
1
2
-4
-3
-2
-1
0
1
-2
-1
0
1
2
-2
-1
0
1
2
3
-2
-1
0
1
2
-1
0
1
chain
1
2
3
ちなみに、変分ベイズとの結果も
• とてもいい感じ。
61
事後分布を確認する 62
theta[9] theta[10]
theta[5] theta[6] theta[7] theta[8]
theta[1] theta[2] theta[3] theta[4]
0 1 -2 -1 0
-1 0 1 -4 -3 -2 -1 0 0.0 0.5 1.0 1.5 2.0 2.5-1.5-1.0-0.5 0.0 0.5 1.0
-2 -1 0 1 -1 0 1 -2 -1 0 -0.5 0.0 0.5 1.0
寿司の好み軸のどこに回答者がいるか? 63
theta[1]
theta[2]
theta[3]
theta[4]
theta[5]
theta[6]
theta[7]
theta[8]
theta[9]
theta[10]
-4 -2 0 2
6番目の人は、普通の人(平均)よりすしが好きではない??
では、目的を思い出す。
• マグロ系は他のネタよりも好まれているのか?
→マグロと他のネタの項目特性曲線を比べてみる。
64
まぐろ たまご
まぐろの方が少し左に寄っている
→寿司が好みでない人でも簡単に反応(すきと反応)しやすい
では、目的を思い出す。
• マグロ系は他のネタよりも好まれているのか?
→マグロと他のネタの項目特性曲線を比べてみる。
65
まぐろ いくら
いくらの傾きが急
→いくらはまぐろよりも好き嫌い(の識別)が分かれやすい。
本日の目標 66
突如投げられたSUSHIで
ベイズモデリング
まとめ
まぐろは万人に好まれる寿司かも
• これをベイズモデリングで明らかにできた。
• 他にも、回答者の属性を変数として入れることで、
• 男女差
• 地域差
• 年齢差
などの違いによる寿司の好みの差を検討することができる。
(*例えば、パラメータの添え字に属性を表すものをつける)
• これは、DIF(Differential Item Functioning,特異項目機能)などと
よばれ、素点のよる項目回答の解釈を大きく歪める恐れがある。
• 大事なこと、アンケート(質問紙)の項目回答の解釈は結構不安
定であることが多い。
• 素点による解釈ではなく、IRTなどによる定量的な評価を!
67
これもIRTで解決できるかも!?
極端回答傾向
➡ 1, 5(極端なカテゴリ)を回答しやすい
中間回答傾向
➡ 3 (中間のカテゴリ)を回答しやすい
黙従回答傾向
➡ 4, 5 (ポジティブなカテゴリ)を回答しやすい
・・・選びやすいところ
当
て
は
ま
ら
な
い
と
て
も
当
て
は
ま
る
や
や
当
て
は
ま
ら
な
い
ど
ち
ら
で
も
な
い
や
や
当
て
は
ま
る
68
1
4 5
3
5
さいごに
• 前スライドの反応スタイル(回答時のクセ)を統制する
ベイズモデルを作っているのが私の研究です。
• 興味があれば、懇親会等でお話しましょう!!
• ベイズモデリングを用いれば、
• 採用面接時の個人特性(性格)の正当な評価
• 人事評価バイアス統制(面接官の違いによるバイアス統制)
といった企業に眠る様々な問題を解決できるかもしれません
ベイズモデリングでより良い社会へ!!!
69
そして、寿司が食べたい!!! Enjoy!!!
参考文献
Data
• http://www.kamishima.net/sushi/
• T. Kamishima, "Nantonac Collaborative Filtering:
Recommendation Based on Order Responses", KDD2003,
pp.583-588 (2003)
Model
• Rによる項目反応理論
• https://www.amazon.co.jp/R%E3%81%AB%E3%82%88%E3%82
%8B%E9%A0%85%E7%9B%AE%E5%8F%8D%E5%BF%9C%E7%
90%86%E8%AB%96-%E5%8A%A0%E8%97%A4-
%E5%81%A5%E5%A4%AA%E9%83%8E/dp/4274050173
• Luo, Y., & Jiao, H. (2017). Using the Stan Program for
Bayesian Item Response Theory. Educational and
Psychological Measurement, 0013164417693666.
70

Contenu connexe

Tendances

Crfと素性テンプレート
Crfと素性テンプレートCrfと素性テンプレート
Crfと素性テンプレートKei Uchiumi
 
階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門shima o
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方joisino
 
ベイズモデリングで見る因子分析
ベイズモデリングで見る因子分析ベイズモデリングで見る因子分析
ベイズモデリングで見る因子分析Shushi Namba
 
バンディットアルゴリズム入門と実践
バンディットアルゴリズム入門と実践バンディットアルゴリズム入門と実践
バンディットアルゴリズム入門と実践智之 村上
 
社会心理学者のための時系列分析入門_小森
社会心理学者のための時系列分析入門_小森社会心理学者のための時系列分析入門_小森
社会心理学者のための時系列分析入門_小森Masashi Komori
 
2 7.一般化線形混合モデル
2 7.一般化線形混合モデル2 7.一般化線形混合モデル
2 7.一般化線形混合モデルlogics-of-blue
 
2 6.ゼロ切断・過剰モデル
2 6.ゼロ切断・過剰モデル2 6.ゼロ切断・過剰モデル
2 6.ゼロ切断・過剰モデルlogics-of-blue
 
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータStanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータMiki Katsuragi
 
(2018.3) 分子のグラフ表現と機械学習
(2018.3) 分子のグラフ表現と機械学習(2018.3) 分子のグラフ表現と機械学習
(2018.3) 分子のグラフ表現と機械学習Ichigaku Takigawa
 
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)Yoshitake Takebayashi
 
金融情報における時系列分析
金融情報における時系列分析金融情報における時系列分析
金融情報における時系列分析Fujio Toriumi
 
2 4.devianceと尤度比検定
2 4.devianceと尤度比検定2 4.devianceと尤度比検定
2 4.devianceと尤度比検定logics-of-blue
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!TransformerArithmer Inc.
 
3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布Junya Saito
 
MCMCによるベイズ因子分析法について
MCMCによるベイズ因子分析法についてMCMCによるベイズ因子分析法について
MCMCによるベイズ因子分析法について考司 小杉
 

Tendances (20)

Crfと素性テンプレート
Crfと素性テンプレートCrfと素性テンプレート
Crfと素性テンプレート
 
階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方
 
2 3.GLMの基礎
2 3.GLMの基礎2 3.GLMの基礎
2 3.GLMの基礎
 
ベイズモデリングで見る因子分析
ベイズモデリングで見る因子分析ベイズモデリングで見る因子分析
ベイズモデリングで見る因子分析
 
MICの解説
MICの解説MICの解説
MICの解説
 
バンディットアルゴリズム入門と実践
バンディットアルゴリズム入門と実践バンディットアルゴリズム入門と実践
バンディットアルゴリズム入門と実践
 
機械学習と主成分分析
機械学習と主成分分析機械学習と主成分分析
機械学習と主成分分析
 
Stan超初心者入門
Stan超初心者入門Stan超初心者入門
Stan超初心者入門
 
社会心理学者のための時系列分析入門_小森
社会心理学者のための時系列分析入門_小森社会心理学者のための時系列分析入門_小森
社会心理学者のための時系列分析入門_小森
 
2 7.一般化線形混合モデル
2 7.一般化線形混合モデル2 7.一般化線形混合モデル
2 7.一般化線形混合モデル
 
2 6.ゼロ切断・過剰モデル
2 6.ゼロ切断・過剰モデル2 6.ゼロ切断・過剰モデル
2 6.ゼロ切断・過剰モデル
 
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータStanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
 
(2018.3) 分子のグラフ表現と機械学習
(2018.3) 分子のグラフ表現と機械学習(2018.3) 分子のグラフ表現と機械学習
(2018.3) 分子のグラフ表現と機械学習
 
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
 
金融情報における時系列分析
金融情報における時系列分析金融情報における時系列分析
金融情報における時系列分析
 
2 4.devianceと尤度比検定
2 4.devianceと尤度比検定2 4.devianceと尤度比検定
2 4.devianceと尤度比検定
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
 
3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布
 
MCMCによるベイズ因子分析法について
MCMCによるベイズ因子分析法についてMCMCによるベイズ因子分析法について
MCMCによるベイズ因子分析法について
 

Similaire à Bayesian Sushistical Modeling

A Mathematical Introduction to Robotic Manipulation 輪講 第二回.pdf
A Mathematical Introduction to Robotic Manipulation 輪講 第二回.pdfA Mathematical Introduction to Robotic Manipulation 輪講 第二回.pdf
A Mathematical Introduction to Robotic Manipulation 輪講 第二回.pdfssuserbaad54
 
Letmetho20151219key
Letmetho20151219keyLetmetho20151219key
Letmetho20151219keyyouwatari
 
深層学習(岡本 孝之 著)Deep learning chap.5_1
深層学習(岡本 孝之 著)Deep learning chap.5_1深層学習(岡本 孝之 著)Deep learning chap.5_1
深層学習(岡本 孝之 著)Deep learning chap.5_1Masayoshi Kondo
 
テキストマイニングで発掘!? 売上とユーザーレビューの相関分析
テキストマイニングで発掘!? 売上とユーザーレビューの相関分析テキストマイニングで発掘!? 売上とユーザーレビューの相関分析
テキストマイニングで発掘!? 売上とユーザーレビューの相関分析Shintaro Takemura
 
Adversarial Multi-task Learning for Text Classification
Adversarial Multi-task Learning for Text ClassificationAdversarial Multi-task Learning for Text Classification
Adversarial Multi-task Learning for Text ClassificationMakoto Takenaka
 
TeamLabLT20120630
TeamLabLT20120630TeamLabLT20120630
TeamLabLT20120630tayama0324
 
Web本文抽出 using crf
Web本文抽出 using crfWeb本文抽出 using crf
Web本文抽出 using crfShuyo Nakatani
 
BERTに関して
BERTに関してBERTに関して
BERTに関してSaitama Uni
 
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for PredictionDeep Learning JP
 
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tatsuya Tojima
 
Abstractive Text Summarization @Retrieva seminar
Abstractive Text Summarization @Retrieva seminarAbstractive Text Summarization @Retrieva seminar
Abstractive Text Summarization @Retrieva seminarKodaira Tomonori
 
学習係数
学習係数学習係数
学習係数hoxo_m
 
深層学習(岡本孝之 著)Deep learning Chap.4_2
深層学習(岡本孝之 著)Deep learning Chap.4_2深層学習(岡本孝之 著)Deep learning Chap.4_2
深層学習(岡本孝之 著)Deep learning Chap.4_2Masayoshi Kondo
 

Similaire à Bayesian Sushistical Modeling (14)

A Mathematical Introduction to Robotic Manipulation 輪講 第二回.pdf
A Mathematical Introduction to Robotic Manipulation 輪講 第二回.pdfA Mathematical Introduction to Robotic Manipulation 輪講 第二回.pdf
A Mathematical Introduction to Robotic Manipulation 輪講 第二回.pdf
 
Letmetho20151219key
Letmetho20151219keyLetmetho20151219key
Letmetho20151219key
 
深層学習(岡本 孝之 著)Deep learning chap.5_1
深層学習(岡本 孝之 著)Deep learning chap.5_1深層学習(岡本 孝之 著)Deep learning chap.5_1
深層学習(岡本 孝之 著)Deep learning chap.5_1
 
テキストマイニングで発掘!? 売上とユーザーレビューの相関分析
テキストマイニングで発掘!? 売上とユーザーレビューの相関分析テキストマイニングで発掘!? 売上とユーザーレビューの相関分析
テキストマイニングで発掘!? 売上とユーザーレビューの相関分析
 
Adversarial Multi-task Learning for Text Classification
Adversarial Multi-task Learning for Text ClassificationAdversarial Multi-task Learning for Text Classification
Adversarial Multi-task Learning for Text Classification
 
TeamLabLT20120630
TeamLabLT20120630TeamLabLT20120630
TeamLabLT20120630
 
Web本文抽出 using crf
Web本文抽出 using crfWeb本文抽出 using crf
Web本文抽出 using crf
 
210122 msi dp
210122 msi dp210122 msi dp
210122 msi dp
 
BERTに関して
BERTに関してBERTに関して
BERTに関して
 
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
 
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
 
Abstractive Text Summarization @Retrieva seminar
Abstractive Text Summarization @Retrieva seminarAbstractive Text Summarization @Retrieva seminar
Abstractive Text Summarization @Retrieva seminar
 
学習係数
学習係数学習係数
学習係数
 
深層学習(岡本孝之 著)Deep learning Chap.4_2
深層学習(岡本孝之 著)Deep learning Chap.4_2深層学習(岡本孝之 著)Deep learning Chap.4_2
深層学習(岡本孝之 著)Deep learning Chap.4_2
 

Plus de daiki hojo

心理学におけるオープンサイエンス入門(OSF&PsyArXiv編)
心理学におけるオープンサイエンス入門(OSF&PsyArXiv編)心理学におけるオープンサイエンス入門(OSF&PsyArXiv編)
心理学におけるオープンサイエンス入門(OSF&PsyArXiv編)daiki hojo
 
あなたの心にBridgeSampling
あなたの心にBridgeSamplingあなたの心にBridgeSampling
あなたの心にBridgeSamplingdaiki hojo
 
GoogleCalenderをShinyを実装してみた(序) Tokyo.R #66 LT
GoogleCalenderをShinyを実装してみた(序) Tokyo.R #66 LT GoogleCalenderをShinyを実装してみた(序) Tokyo.R #66 LT
GoogleCalenderをShinyを実装してみた(序) Tokyo.R #66 LT daiki hojo
 
Stan勉強会資料(前編)
Stan勉強会資料(前編) Stan勉強会資料(前編)
Stan勉強会資料(前編) daiki hojo
 
MCMCしすぎて締め切り間近に焦っているあなたに贈る便利なgg可視化パッケージ
MCMCしすぎて締め切り間近に焦っているあなたに贈る便利なgg可視化パッケージMCMCしすぎて締め切り間近に焦っているあなたに贈る便利なgg可視化パッケージ
MCMCしすぎて締め切り間近に焦っているあなたに贈る便利なgg可視化パッケージdaiki hojo
 
Stanの事後処理 LTver
Stanの事後処理 LTverStanの事後処理 LTver
Stanの事後処理 LTverdaiki hojo
 
楽にggplotを描く・整える
楽にggplotを描く・整える楽にggplotを描く・整える
楽にggplotを描く・整えるdaiki hojo
 
Stanの便利な事後処理関数
Stanの便利な事後処理関数Stanの便利な事後処理関数
Stanの便利な事後処理関数daiki hojo
 

Plus de daiki hojo (8)

心理学におけるオープンサイエンス入門(OSF&PsyArXiv編)
心理学におけるオープンサイエンス入門(OSF&PsyArXiv編)心理学におけるオープンサイエンス入門(OSF&PsyArXiv編)
心理学におけるオープンサイエンス入門(OSF&PsyArXiv編)
 
あなたの心にBridgeSampling
あなたの心にBridgeSamplingあなたの心にBridgeSampling
あなたの心にBridgeSampling
 
GoogleCalenderをShinyを実装してみた(序) Tokyo.R #66 LT
GoogleCalenderをShinyを実装してみた(序) Tokyo.R #66 LT GoogleCalenderをShinyを実装してみた(序) Tokyo.R #66 LT
GoogleCalenderをShinyを実装してみた(序) Tokyo.R #66 LT
 
Stan勉強会資料(前編)
Stan勉強会資料(前編) Stan勉強会資料(前編)
Stan勉強会資料(前編)
 
MCMCしすぎて締め切り間近に焦っているあなたに贈る便利なgg可視化パッケージ
MCMCしすぎて締め切り間近に焦っているあなたに贈る便利なgg可視化パッケージMCMCしすぎて締め切り間近に焦っているあなたに贈る便利なgg可視化パッケージ
MCMCしすぎて締め切り間近に焦っているあなたに贈る便利なgg可視化パッケージ
 
Stanの事後処理 LTver
Stanの事後処理 LTverStanの事後処理 LTver
Stanの事後処理 LTver
 
楽にggplotを描く・整える
楽にggplotを描く・整える楽にggplotを描く・整える
楽にggplotを描く・整える
 
Stanの便利な事後処理関数
Stanの便利な事後処理関数Stanの便利な事後処理関数
Stanの便利な事後処理関数
 

Bayesian Sushistical Modeling