Soumettre la recherche
Mettre en ligne
基礎からのベイズ統計学 3章(3.1~3.3)
•
Télécharger en tant que PPTX, PDF
•
1 j'aime
•
2,531 vues
T
TeranishiKeisuke
Suivre
for 勉強会
Lire moins
Lire la suite
Formation
Signaler
Partager
Signaler
Partager
1 sur 21
Télécharger maintenant
Recommandé
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
Ken'ichi Matsui
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
Naoki Hayashi
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)
Kota Mori
統計的学習の基礎6章前半 #カステラ本
統計的学習の基礎6章前半 #カステラ本
Akifumi Eguchi
ベイズ統計入門
ベイズ統計入門
Miyoshi Yuya
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
Takao Yamanaka
PRML輪読#10
PRML輪読#10
matsuolab
EMアルゴリズム
EMアルゴリズム
Sotetsu KOYAMADA(小山田創哲)
Recommandé
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
Ken'ichi Matsui
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
Naoki Hayashi
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)
Kota Mori
統計的学習の基礎6章前半 #カステラ本
統計的学習の基礎6章前半 #カステラ本
Akifumi Eguchi
ベイズ統計入門
ベイズ統計入門
Miyoshi Yuya
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
Takao Yamanaka
PRML輪読#10
PRML輪読#10
matsuolab
EMアルゴリズム
EMアルゴリズム
Sotetsu KOYAMADA(小山田創哲)
強化学習その3
強化学習その3
nishio
GEE(一般化推定方程式)の理論
GEE(一般化推定方程式)の理論
Koichiro Gibo
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
Deep Learning JP
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
Ken'ichi Matsui
正準相関分析
正準相関分析
Akisato Kimura
深層生成モデルと世界モデル
深層生成モデルと世界モデル
Masahiro Suzuki
階層モデルの分散パラメータの事前分布について
階層モデルの分散パラメータの事前分布について
hoxo_m
変分ベイズ法の説明
変分ベイズ法の説明
Haruka Ozaki
PRML輪読#1
PRML輪読#1
matsuolab
Chapter11.2
Chapter11.2
Takuya Minagawa
クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式
Hiroshi Nakagawa
比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!
takehikoihayashi
負の二項分布について
負の二項分布について
Hiroshi Shimizu
Chapter2.3.6
Chapter2.3.6
Takuya Minagawa
ベイズファクターとモデル選択
ベイズファクターとモデル選択
kazutantan
15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学
Ken'ichi Matsui
MLaPP 5章 「ベイズ統計学」
MLaPP 5章 「ベイズ統計学」
moterech
Stan超初心者入門
Stan超初心者入門
Hiroshi Shimizu
MCMCと正規分布の推測
MCMCと正規分布の推測
Gen Fujita
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
Akira Masuda
0712-2
0712-2
RIKEN Center for Integrative Medical Science Center (IMS-RCAI)
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 8: Inferring Two Binomial P...
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 8: Inferring Two Binomial P...
Junki Marui
Contenu connexe
Tendances
強化学習その3
強化学習その3
nishio
GEE(一般化推定方程式)の理論
GEE(一般化推定方程式)の理論
Koichiro Gibo
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
Deep Learning JP
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
Ken'ichi Matsui
正準相関分析
正準相関分析
Akisato Kimura
深層生成モデルと世界モデル
深層生成モデルと世界モデル
Masahiro Suzuki
階層モデルの分散パラメータの事前分布について
階層モデルの分散パラメータの事前分布について
hoxo_m
変分ベイズ法の説明
変分ベイズ法の説明
Haruka Ozaki
PRML輪読#1
PRML輪読#1
matsuolab
Chapter11.2
Chapter11.2
Takuya Minagawa
クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式
Hiroshi Nakagawa
比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!
takehikoihayashi
負の二項分布について
負の二項分布について
Hiroshi Shimizu
Chapter2.3.6
Chapter2.3.6
Takuya Minagawa
ベイズファクターとモデル選択
ベイズファクターとモデル選択
kazutantan
15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学
Ken'ichi Matsui
MLaPP 5章 「ベイズ統計学」
MLaPP 5章 「ベイズ統計学」
moterech
Stan超初心者入門
Stan超初心者入門
Hiroshi Shimizu
MCMCと正規分布の推測
MCMCと正規分布の推測
Gen Fujita
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
Akira Masuda
Tendances
(20)
強化学習その3
強化学習その3
GEE(一般化推定方程式)の理論
GEE(一般化推定方程式)の理論
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
正準相関分析
正準相関分析
深層生成モデルと世界モデル
深層生成モデルと世界モデル
階層モデルの分散パラメータの事前分布について
階層モデルの分散パラメータの事前分布について
変分ベイズ法の説明
変分ベイズ法の説明
PRML輪読#1
PRML輪読#1
Chapter11.2
Chapter11.2
クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式
比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!
負の二項分布について
負の二項分布について
Chapter2.3.6
Chapter2.3.6
ベイズファクターとモデル選択
ベイズファクターとモデル選択
15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学
MLaPP 5章 「ベイズ統計学」
MLaPP 5章 「ベイズ統計学」
Stan超初心者入門
Stan超初心者入門
MCMCと正規分布の推測
MCMCと正規分布の推測
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
Similaire à 基礎からのベイズ統計学 3章(3.1~3.3)
0712-2
0712-2
RIKEN Center for Integrative Medical Science Center (IMS-RCAI)
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 8: Inferring Two Binomial P...
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 8: Inferring Two Binomial P...
Junki Marui
Prml2.1 2.2,2.4-2.5
Prml2.1 2.2,2.4-2.5
Takuto Kimura
PRML2.1 2.2
PRML2.1 2.2
Takuto Kimura
PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2
禎晃 山崎
wq-1. ポアソン分布、指数分布、アーラン分布
wq-1. ポアソン分布、指数分布、アーラン分布
kunihikokaneko1
Prml 2.3
Prml 2.3
Yuuki Saitoh
生物統計特論3資料 2006 ギブス MCMC isseing333
生物統計特論3資料 2006 ギブス MCMC isseing333
Issei Kurahashi
PRML セミナー
PRML セミナー
sakaguchi050403
確率・統計の基礎勉強会 (1)
確率・統計の基礎勉強会 (1)
Hiroaki Tanaka
単純ベイズ法による異常検知 #ml-professional
単純ベイズ法による異常検知 #ml-professional
Ai Makabi
ラビットチャレンジレポート 応用数学
ラビットチャレンジレポート 応用数学
ssuserf4860b
PRML復々習レーン#3 前回までのあらすじ
PRML復々習レーン#3 前回までのあらすじ
sleepy_yoshi
経験過程
経験過程
hoxo_m
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
Kenichi Hironaka
統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333
Issei Kurahashi
20140512_水曜セミナードラフトv1
20140512_水曜セミナードラフトv1
Tomoshige Nakamura
PRML chap.10 latter half
PRML chap.10 latter half
Narihira Takuya
WAICとWBICのご紹介
WAICとWBICのご紹介
Tomoki Matsumoto
0621
0621
RIKEN Center for Integrative Medical Science Center (IMS-RCAI)
Similaire à 基礎からのベイズ統計学 3章(3.1~3.3)
(20)
0712-2
0712-2
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 8: Inferring Two Binomial P...
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 8: Inferring Two Binomial P...
Prml2.1 2.2,2.4-2.5
Prml2.1 2.2,2.4-2.5
PRML2.1 2.2
PRML2.1 2.2
PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2
wq-1. ポアソン分布、指数分布、アーラン分布
wq-1. ポアソン分布、指数分布、アーラン分布
Prml 2.3
Prml 2.3
生物統計特論3資料 2006 ギブス MCMC isseing333
生物統計特論3資料 2006 ギブス MCMC isseing333
PRML セミナー
PRML セミナー
確率・統計の基礎勉強会 (1)
確率・統計の基礎勉強会 (1)
単純ベイズ法による異常検知 #ml-professional
単純ベイズ法による異常検知 #ml-professional
ラビットチャレンジレポート 応用数学
ラビットチャレンジレポート 応用数学
PRML復々習レーン#3 前回までのあらすじ
PRML復々習レーン#3 前回までのあらすじ
経験過程
経験過程
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333
20140512_水曜セミナードラフトv1
20140512_水曜セミナードラフトv1
PRML chap.10 latter half
PRML chap.10 latter half
WAICとWBICのご紹介
WAICとWBICのご紹介
0621
0621
Dernier
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
Takayuki Itoh
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ssusere0a682
TokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentation
YukiTerazawa
The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024
koheioishi1
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
Tokyo Institute of Technology
2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料
2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料
Tokyo Institute of Technology
次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~
次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~
Kochi Eng Camp
Dernier
(7)
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
TokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentation
The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料
2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料
次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~
次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~
基礎からのベイズ統計学 3章(3.1~3.3)
1.
基礎からのベイズ統計学 第3章ベイズ推定(3.1~3.3)
2.
第3章の目的 確率に関する「ベイズの定理」 第1章
分布に関する「ベイズの定理」 第3章 拡張
3.
先週のおさらい ・確率変数 事象を引数、実現値が返り値となる関数のこと x = X(事象) x
従属変数(=現実値) X 関数(=確率変数) 事象 独立変数 ・確率分布 確率変数の実現値と、現実値に付与された確率の対応表 確率変数の特徴を表す (例1) ベルヌイ分布 f(x|θ) = θx(1-θ)1-x x=0,1 (例2) 2項分布 f(x|θ) = nCxθx(1-θ)n-x x=0,1・・・・,n
4.
第2章で、確率分布に関する色々な式変形を勉強 共通点 母数θが縦棒の右にある ≒ 分布の特徴が所与(given)ということを意味する ここまでは、伝統的な統計学者と同じ立場。 フィッシャーも異論なし!!
5.
ところが、 乗法定理のAiをθをみなして、Biをxとみなして書き換えると、立場が決裂 乗法定理 p(Ai, Bi) =
p(Bj | Aj) p(Aj) f(θ, x) = f(x |θ) f(θ) p(Ai, Bi) = p(Aj | Bj) p(Bj) f(θ, x) = f(θ|x) f(x) 伝統的な統計学では、上記の変換式を原則許さない 伝統的な統計学・・・母数θは未知だけど固定された非確率変数 ベイズ統計学・・・f(θ)を母数の分布として導入。母数θは確率変数として扱う
6.
ところが、 乗法定理のAiをθをみなして、Biをxとみなして書き換えると、立場が決裂 乗法定理 p(Ai, Bi) =
p(Bj | Aj) p(Aj) f(θ, x) = f(x |θ) f(θ) p(Ai, Bi) = p(Aj | Bj) p(Bj) f(θ, x) = f(θ|x) f(x) 伝統的な統計学では、上記の変換式を原則許さない 伝統的な統計学・・・母数θは道だけど固定された日確率変数 ベイズ統計学・・・f(θ)を母数の分布として導入。母数θは確率変数として扱う ベイズ統計学では、右辺を等式 でつなぎ、両辺をf(x)で割る 𝑓(𝜃|𝑥) = 𝑓 𝑥 𝜃 𝑓(𝜃) 𝑓(𝑥)
7.
分布に関するベイズの定理 𝑓(𝜃|𝑥) = 𝑓 𝑥
𝜃 𝑓(𝜃) 𝑓(𝑥) 𝑓(𝜃|𝑥)・・・事後確率分布 𝑓(𝑥|𝜃)・・・尤度 𝑓(𝜃)・・・事前確率分布 𝑓(𝑥) = −∞ +∞ 𝑓 𝑥 𝜃 𝑓 𝜃 𝑑𝜃 𝑓(𝜃|𝑥) = 𝑓 𝑥 𝜃 𝑓(𝜃) −∞ +∞ 𝑓 𝑥 𝜃 𝑓 𝜃 𝑑𝜃 全確率の公式
8.
まとめ ベイズの定理 事前確率が客観確率である場合は、伝統的な統計学者も認 める。
分布に関するベイズの定理 θを確率変数とみるか、非確率変数とみるかによって、出発 点から伝統的な統計学とはたもとを分かつ。 数理的な仮定の問題なので、ベイズ統計学と伝統的統計 学のどちらが正しいかを判断することはできない。 出発点の仮定の違いによって長所・短所がある。それをき ちんと踏まえることが大事。
9.
確率分布に対する理解を深めましょう カーネル 正規化定数
10.
カーネル 確率分布や尤度において、母数と変数を含んだ部分。
確率分布や尤度の本質的な性質を決定する。 赤部分が2項分布の性質を決める。それを強調するために 2項分布の確率関数を下記のように示すこともある。 𝑓(𝜃|𝑥) = 𝑛 𝐶 𝑥 𝜃 𝑥 1 − 𝜃 𝑛−𝑥 (例)2項分布 カーネル 𝑓(𝜃|𝑥) ∝ 𝜃 𝑥 1 − 𝜃 𝑛−𝑥
11.
正規化定数 確率分布の母数&変数(?)を含まない部分。
確率分布を確率変数で積分したら1になるようにする。 (参考) 𝑓(𝑥|𝑝, 𝑞) = 𝐵 𝑝, 𝑞 −1 𝑥 𝑝−1 1 − 𝑥 𝑞−1 (例)ベータ分布の確率密度関数 カーネル 𝐵 𝑝, 𝑞 = 0 −1 𝑥 𝑝−1 1 − 𝑥 𝑞−1 𝑑𝑥 正規化定数 𝐵 𝑝, 𝑞 の定義 すべての確率分布は、確率変数で積分すると1になるという性質がある ので↓↓↓ 0 1 𝑓(𝑥|𝑝, 𝑞) = 0 1 𝐵 𝑝, 𝑞 −1 𝑥 𝑝−1 1 − 𝑥 𝑞−1 𝑑𝑥 = 𝐵 𝑝, 𝑞 −1 0 1 𝑥 𝑝−1 1 − 𝑥 𝑞−1 𝑑𝑥 = 1
12.
ベイズの定理では、 データが所与のときの母数の確率分布(事後分布)を導 出する。 確率分布なので、確率変数θで積分すると1になるはず。
尤度と事前分布の積が事後分布のカーネルとなり、この 部分に、母数に関する情報が集約されている。 ベイズの定理による変形は、上式により積分が1である ことが保証されている。なので、正規化定数を無視して、 カーネルだけに注目してもその分布がなんであるかが わかる(そうすることがベイズ流!)。 0 1 𝑓 𝜃 𝑥 𝑑𝜃 = −∞ ∞ 𝑓 𝑥 𝜃 𝑓(𝜃) 𝑓(𝑥) 𝑑𝜃 = 𝑓 𝑥 −1 −∞ ∞ 𝑓 𝑥 𝜃 𝑓 𝜃 𝑑𝜃 = 1 カーネル正規化定数
13.
自然共役事前分布 以下の例で、伝統的な統計学とベイズ統計学の違いを 考察しよう 正選手問題 ある高校のテニス部で、次の大会の正選手を1名だけ決めることになりま した。候補はA,Bの2選手です。ここ数日の正式記録によるとA対Bの戦績 は3勝4敗です。BがAより優勢です。しかし監督は正選手の決定に悩み ました。それ以前の1週間では8勝2敗ぐらいでAが優勢だと思ったからで す。しかしこれは正式記録としては全く残っておらず、あくまでも茫然とし た監督の個人的印象にしかすぎません。監督はAとBのどちらを正選手 に選ぶべきでしょう。
14.
自然共役事前分布 以下の例で、伝統的な統計学とベイズ統計学の違いを 考察しよう 伝統的な統計学
客観的なデータにだけ基づいて勝率を推定⇒Bの勝率 4/7 ベイズ統計学の私的分析 監督の主観も判断材料に利用する。普段はAの方がうまい けど、たまたま直前の1試合だけをポカしただけかもしれない。 正選手問題 ある高校のテニス部で、次の大会の正選手を1名だけ決めることになりま した。候補はA,Bの2選手です。ここ数日の正式記録によるとA対Bの戦績 は3勝4敗です。BがAより優勢です。しかし監督は正選手の決定に悩み ました。それ以前の1週間では8勝2敗ぐらいでAが優勢だと思ったからで す。しかしこれは正式記録としては全く残っておらず、あくまでも茫然とし た監督の個人的印象にしかすぎません。監督はAとBのどちらを正選手 に選ぶべきでしょう。
15.
ベイズが抱える問題と解決策 ベイズ統計学には、事後分布が常に計算可能とは限ら ないという問題がある。 分析者が主観的に決めてよいはずの事前分布を本当 に自由に決めてしまうと、ほとんどの場合に事前分布が 求まらない。 事後分布が求まるように事前分布を決め ればよい! この事前分布を「自然共役事前分布」と いう 事後分布が計算可能になるように事前 分信念を有するというのは恣意的! 計算の利便を優先した本末転倒である。 ライファ・シュレイファーのベイズ統計分 析は私的分析に分類すべき。
16.
自然共役事前分布と尤度の組み合わせ 尤度 事前分布
事後分布 ベルヌイ分布 ベータ分布 ベータ分布 2項分布 ベータ分布 ベータ分布 ポアソン分布 ガンマ分布 ガンマ分布 正規分布の平均 正規分布 正規分布 正規分布の分散 逆ガンマ分布 逆ガンマ分布 尤度がベルヌイ分布や2項分布である場合に、ベータ分布を共役事前分布とし て利用すると・・・ ∝ 𝜃 𝑥 1 − 𝜃 𝑛−𝑥 × 𝜃 𝑝−1 1 − 𝜃 𝑞−1 𝑓(𝜃|𝑥) ∝ 𝑓 𝑥 𝜃 𝑓 𝜃 ∝ 𝜃 𝑥+𝑝−1 1 − 𝜃 𝑛−𝑥+𝑞−1 ∝ 𝜃 𝑝−1 1 − 𝜃 𝑞−1
17.
事後分布の評価 事前知識 無作為に選んだ10人に、現在国会審議中のある法案に賛成か否かどう か質問したところ8人が賛成しました。標本比率は0.8(=8/10)です。しか し、別の10人、さらに別の10人、さらに更に調査することを考えます。標 本比率は調査のたびに違った値になり、それは分布を構成します。この ような分布を標本比率の標本分布という。 標本分布・・・データから計算される数的指標の分布 母比率E[X] の母集団からn人の標本を抽出した場合、 標本分布の平均はE[X] 分散はV[E]=E[x](1-[E])/n 母比率の代わりに標本比率を使って計算すると、V[E]=0.016、r=9 標本比率の標本分布はp=7.2、q=1.8のベータ分布で近似可能
18.
ベータ分布に関する知見 ベータ分布の確率密度関数は、θ=(p,q)として ベータ分布の平均と分散は
母数は平均と分散で表現すると便利 𝑓(𝑥|𝑝, 𝑞) = 𝐵 𝑝, 𝑞 −1 𝑥 𝑝−1 1 − 𝑥 𝑞−1 E 𝑋 = 𝑝 𝑝 + 𝑞 𝑝 = 𝑟𝐸 𝑋 𝑞 = 𝑟 1 − 𝐸 𝑋 𝑟 = 𝐸 𝑋 1 − 𝐸 𝑋 𝑉 𝑋 − 1 V 𝑋 = 𝑝𝑞 𝑝 + 𝑞 2 𝑝 + 𝑞 + 1
19.
事後分布の評価
20.
無情報的事前分布 以下の問題は、「正選手問題」と同型 治療問題 治療法Aを7人の病気αの患者に施し、経過を正式に記録したところ、3人 が治癒し、4人は治癒しませんでした。しかし当該医師は、これまで治療 法Aによって10人中8人は治癒したと信じています。しかし、これは正式 記録としては全く残っておらず、あくまでも茫然とした医師の個人的印象 にしかすぎません。治療法Aの治癒率を評価してください。
21.
私的分析再考 私的分析では、自己責任なのだから、事前分布を本当 に自由に選んでしまってよいのか? 入社試験問題 ある企業の入社試験では、毎年、同じ難しさの問題を7題出します。X大 学のxさんは3問正解、4問不正解でした。正解率をθxとします。Y大学の yさんは4問正解、3問不正解でした。正解率をθyとします。X大学とY大 学からは毎年たくさんの受験者がいます。調べてみると、X大学の受験生 の正解率は平均0.8、分散0.04のベータ分布で近似され、Y大学の受験 者の正解率は平均0.4、分散0.04のベータ分布で近似されることがわか りました。θxとθyを推定し、母数の値の大きな受験者を1人だけ入社させ るとしたら、xさんとyさんのどちらでしょう。
Télécharger maintenant