SlideShare a Scribd company logo
1 of 29
DBDA Chapter 8
Inferring Two Binomial
Proportions via Gibbs
Sampling
ギブスサンプリングによる
2系列の二項確率推定
東京大学
工学系研究科 技術経営戦略学専攻
丸井 淳己
1
(冒頭の詩:試訳)
今までのだめだったプロポーズに私は傷つき続けている
ゴミのように捨てられた皮のような私の気持ち
君が君の道を行き、私が私の道を行ったとしよう、
私たちは行った先のどこかで、お互いを受け入れるんじゃないかな
2
はじめに
• このチャプターでは2系列の独立した二項確率
に関する推論をする
o 今までは1系列だけ扱ってた
• 階層モデル(Ch.9)への布石となる
o 多くのパラメータが出てくるので。
o 複数パラメータの扱いをここから始めよう
• ギブスサンプリングを初めて扱う
o 今まではBUGSという単語でのみ言及されてた
o 一般的なMetropolisアルゴリズムと違って、一回のジャン
プはひとつのパラメータ上で行われて、rejectされること
もない。出来れば非常に良い手法だが、いつも出来るわけ
ではない。
3
2系列の確率って?
• ここでは(今までと同じく)コインを扱うけど、
潜在的な違いをサンプルから調べたいことは
現実世界でも多々ある
• 例えば100人の患者がいたとする。半分に有効そ
うな薬を与え、もう半分がプラセボとする
• 1週間後、薬を与えた群で12人が快方に向かい、
プラセボ群では5人だった。
• では薬は有効性を認められたのだろうか?
• 12/50と5/50が観測されたが、潜在的な差はど
のくらい認められるだろう?
4
補:もし頻度主義にたてば…
• フィッシャーの正確確率検定や、χ2検定が使われる
• p値が95%信頼区間内なので有意差は認められない
o つまり薬が効いたとはいえない
Rの例
fisher.test(matrix(c(12,38,5,45),nrow=2))
Fisher's Exact Test for Count Data
data: matrix(c(12, 38, 5, 45), nrow = 2)
p-value = 0.1084
alternative hypothesis: true odds ratio is not equal to 1
95 percent confidence interval:
0.8300494 11.1360458
sample estimates:
odds ratio
2.813081
5
仮定など
• グループjに表が出る仮説的な割合: θj
• Nj回の試行のうち表がzj回出たとし、i番目の試行
をyjiとする(表なら1,裏なら0)
• この章では2つのグループは独立であるとする
(片方の試行結果がもう片方に影響しない;患者同
士でお話などをしない)
• もしこの仮定が成り立たない場合はこれから紹
介する方法をそのまま適用することは出来ない。
(やり方はあることにはあるが、今回は扱わな
い)
6
二系列の事前確率・尤度・事後確率(1)
• ベイジアンではデータなしでの確率をいくつだ
と信じるかを決めなければならない
o →事前確率:全てのθ1,θ2に対してp(θ1,θ2)を決める
o もちろん∫dθ1dθ2p(θ1,θ2) = 1
• この章の一部ではθ1の主観確率がθ2に対して独
立であることを仮定するが、そうする必要性は
特に無い
o p(θ1,θ2)がp(θ1)*p(θ2)である必要はない
o 同じような方法で作ってるとすればカナダで作ったコイン
とインドで作ったコインが同じように偏っていると考えて
もおかしくはない
7
二系列の事前確率・尤度・事後確率(2)
• 次はデータについて。
• グループに属する試行(コインjを弾いた結果)は
互いに独立とする
• 主観確率の独立性(前スライド)を仮定するかど
うかによらず、違うグループ同士のデータが独
立であると仮定する
o p(y1|θ1,θ2) = p(y1|θ1), p(y2|θ1,θ2) = p(y2|θ2)
• zjは表の数なので、zj = Σyji 1≤ i ≤N1
• データD = {z1,N1,z2,N2}
• ベルヌーイ分布なので…
8
二系列の事前確率・尤度・事後確率(3)endence of sampled flips, the probability of D is just the product of the Be
bution functions for the individual flips:
p(D|θ1,θ2) =
y1i∈D1
p(y1i|θ1,θ2)
yj∈D2
p(yj|θ1,θ2)
=
y1i∈D1
θy1i
1
(1 − θ1)(1−y1i)
y2j∈D2
θ
y2j
2
(1 − θ2)(1−y2j)
= θz1
1 (1 − θ1)(N1−z1)
θz2
2 (1 − θ2)(N2−z2)
he posterior distribution of our beliefs about the underlying proportions is deri
ual way by applying Bayes’ rule, but now the functions involve two parameter
p(θ1,θ2|D) = p(D|θ1,θ2)p(θ1,θ2) /p(D)
= p(D|θ1,θ2)p(θ1,θ2) dθ1dθ2 p(D|θ1,θ2)p(θ1,θ2)
mber, as always in the expression of Bayes’ rule, the θi’s in left side of the eq
ution functions for the individual flips:
p(D|θ1,θ2) =
y1i∈D1
p(y1i|θ1,θ2)
yj∈D2
p(yj|θ1,θ2)
=
y1i∈D1
θy1i
1 (1 − θ1)(1−y1i)
y2j∈D2
θ
y2j
2 (1 − θ2)(1−y2j)
= θz1
1
(1 − θ1)(N1−z1)
θz2
2
(1 − θ2)(N2−z2)
e posterior distribution of our beliefs about the underlying proportions is deri
ual way by applying Bayes’ rule, but now the functions involve two parameters
p(θ1,θ2|D) = p(D|θ1,θ2)p(θ1,θ2) /p(D)
= p(D|θ1,θ2)p(θ1,θ2) dθ1dθ2 p(D|θ1,θ2)p(θ1,θ2)
mber, as always in the expression of Bayes’ rule, the θi’s in left side of the eq
the numerator of the right side are referring to specific values of θi, but the θi’s
al in the denominator range over all possible values of θi.
ベイズの法則より
左辺や右辺分子のθにはある具体的な値が入っているが、右辺分母は
あらゆるθ1,θ2についての積分となっている
(8.1)
(8.2)
2
9
事後確率の解析的な分析(1)
• さっきのベイズの法則から導かれた式(8.2)を解
析的に使いたい。事前分布がどのような関数な
らば扱いやすく分析ができるだろうか?
o 五章:ベータ分布は一次元のベルヌーイ尤度関数に対して
共役(事後確率と事前確率が同じ関数形)になっていた。
o これを使ってみてはどうだろうか
• ということで五章の5.7式と同じロジックを使う
o ベータ分布:beta(θ|a,b) = θ(a-1)(1-θ)(b-1)/B(a,b)
o B(a,b):ベータ関数;分子を正規化しているだけ
o θ1の事前分布をbeta(θ1|a1,b1) , θ2をbeta(θ2|a2,b2)と
してさっきのベイズ式(8.2)にいれると…
10
事後確率の解析的な分析(2)
1 − θ)(b−1)
/ B(a,b), where B(a,b) is the beta normalizing function, which by
is B(a,b) =
1
0
dθθ(a−1)(1 − θ)(b−1). We assume a beta(θ1|a1,b1) prior on θ1, a
endent beta(θ2|a2,b2) prior on θ2. Then
p(θ1,θ2|D) = p(D|θ1,θ2)p(θ1,θ2)/ p(D)
=
θ(z1+a1−1)
1 (1 − θ1)(N1−z1+b1−1)
θ(z2+a2−1)
2 (1 − θ2)(N2−z2+b2−1)
p(D)B(a1,b1)B(a2,b2)
ow that the left side of Equation 8.3 must be a probability density function, and w
e numerator of the right side has the form of a product of beta distributions, na
(8.3)
分母は分子の正規化関数なのだから、分子をθ1, θ2について積分すると
theta1
theta2
p(t1,t2|D)
q1
q2
0.0 0.2 0.4 0.6 0.8 1.0
0.00.20.40.6
q1
q2
0.0 0.2 0.4 0.6 0.8 1.0
0.00.20.40.6
shows the 95% high
est density region as
darker contour line.
code that generated th
graph is in Section 8.8
(Ber nTwoGr i d. R).
(θ1|z1+a1,N1−z1+b1) times beta(θ2|z2+a2,N2−z2+b2). Therefore the denominator o
ation 8.3 must be the corresponding normalizer for the product of beta distributions:
p(D)B(a1,b1)B(a2,b2) = B(z1+a1,N1−z1+b1) B(z2+a2,N2−z2+b2) (8.4
rearranging terms, a convenient consequence of Equation 8.4 is that
p(D) =
B(z1+a1,N1−z1+b1) B(z2+a2,N2−z2+b2)
B(a1,b1)B(a2,b2)
(8.5
s is exactly analogous to the result we found previously for one parameter, in Equ
5.10 (p. 73).
(8.4)
theta1
q1
q2
0.0 0.2 0.4 0.6 0.8 1.0
0.00.20.40
q1
q2
0.0 0.2 0.4 0.6 0.8 1.0
0.00.20.40
darker contour line.
code that generated
graph is in Section 8
(Ber nTwoGr i d. R).
1, N1−z1+b1) times beta(θ2|z2+a2, N2−z2+b2). Therefore the denominato
must be the corresponding normalizer for the product of beta distributions
(D)B(a1,b1)B(a2,b2) = B(z1+a1, N1−z1+b1) B(z2+a2, N2−z2+b2) (8
ng terms, a convenient consequence of Equation 8.4 is that
p(D) =
B(z1+a1, N1−z1+b1) B(z2+a2, N2−z2+b2)
B(a1,b1)B(a2,b2)
(8
tly analogous to the result we found previously for one parameter, in Eq
73).
整理すると
(8.5)
11
事後確率の解析的な分析(3)
• 事前分布が独立なベータ分布の積であるとき、
事後分布もまた独立なベータ分布の積となる。
その際にそれぞれのベータは5章で導いた更新
ルールに従っている(観測結果が入る)
o 事前確率: beta(θ1|a1,b1) x beta(θ2|a2,b2)
o データD = {z1,N1,z2,N2}
o 事後確率: beta(θ1|z1+a1, N1-z1+b1) x beta(θ2|z2+a2,
N2-z2+b2)
• 理解するためには視覚化するとわかりやすい
o 3次元でプロット。平面にθ1,θ2を、縦に確率値をとる。
o 2次元と等高線でプロット
o 次のスライドでは2つの方法で図示する
12
事後確率の解析的な分析(4).2. THE POSTERIOR VIA EXACT FORMAL ANALYSIS 131
theta1
theta2
p(t1,t2)
Prior
q1
q2
0.0 0.2 0.4 0.6 0.8 1.0
0.00.20.40.60.81.0
theta1
theta2
p(D|t1,t2)
Likelihood
q1
q2
0.0 0.2 0.4 0.6 0.8 1.0
0.00.20.40.60.81.0
z1=5,N1=7,z2=2,N2=7
Posterior
1.0
p(D)=5.74e−05
95% HD region
1.0
Figure 8.1: Bayesian
updating of independent
beta(θ|3,3) priors. Left
panels show perspective
surface plots; right panels
show contour plots of the
same distribution. The
posterior contour plot
(lower right) includes
the value of p(D), and
theta1
theta2
p(t1,t2)
q1
q2
0.0 0.2 0.4 0.6 0.8 1.0
0.00.20.40.60.
theta1
theta2
p(D|t1,t2)
Likelihood
q1
q2
0.0 0.2 0.4 0.6 0.8 1.0
0.00.20.40.60.81.0
z1=5,N1=7,z2=2,N2=7
theta1
theta2
p(t1,t2|D)
Posterior
q1
q2
0.0 0.2 0.4 0.6 0.8 1.0
0.00.20.40.60.81.0
p(D)=5.74e−05
95% HD region
q1
q2
0.0 0.2 0.4 0.6 0.8 1.0
0.00.20.40.60.81.0
beta(θ1|z1 +a1, N1−z1+b1) times beta(θ2|z2+a2, N2−z2+b2). The
Equation 8.3 must be the corresponding normalizer for the produ
theta1
theta2
p(t1,t2)
q1
q2
0.0 0.2 0.4 0.6 0.8 1.0
0.00.20.40.60.
theta1
theta2
p(D|t1,t2)
Likelihood
q1
q2
0.0 0.2 0.4 0.6 0.8 1.0
0.00.20.40.60.81.0
z1=5,N1=7,z2=2,N2=7
theta1
theta2
p(t1,t2|D)
Posterior
q1
q2
0.0 0.2 0.4 0.6 0.8 1.0
0.00.20.40.60.81.0
p(D)=5.74e−05
95% HD region
q1
q2
0.0 0.2 0.4 0.6 0.8 1.0
0.00.20.40.60.81.0
Figure 8.1: Bayesian
updating of independent
beta(θ|3,3) priors. Left
panels show perspective
surface plots; right panels
show contour plots of the
same distribution. The
posterior contour plot
(lower right) includes
the value of p(D), and
shows the 95% high-
est density region as a
darker contour line. R
code that generated this
graph is in Section 8.8.1
(Ber nTwoGr i d. R).
beta(θ1|z1 +a1, N1 −z1+b1) times beta(θ2|z2+a2, N2−z2+b2). Therefore the denominator of
事前確率:beta(θ|3,3)
0.5が平均になって広がっている
尤度:どのθiならデータがもっとも
適合するか。ピークはデータでの表の
割合。
事後確率:黒い枠内が95%の領域
13
事後確率のグリッド近似(1)
• もしパラメータ空間が十分に尐なければこの手
法で分析可能。ベイズルールから導かれた8.2式
は
(8.6)
• 最初のp(・)は確率密度関数だが、二行目は小さ
いエリアでの確率値を表している
• 足しあわせれば1となる(2行目のΣΣ・の値)
14
事後確率のグリッド近似(2)
• 利点1
o どんな事前分布も仮定できる
o 複雑なのでもOK
• 利点2
o Highest Density Regionの近似もどのような事前分布に対
しても求められる
15
事後確率をMCMCで分析
• もし解析的にも扱えず、パラメータも多くてグ
リッドでも扱えない場合は、7章で紹介したと
おり、事後確率から代表点を沢山作って事後確
率(と関連する統計量)を推定する
• まずMetropolisアルゴリズム2次元版を見てみよ
う
16
Metropolis Algorithm
• Metropolis Algorithmの手順
o ランダム・ウォークによってジャンプ先を決める
• ある確率分布(提案分布;proposal distribution)に従っ
たランダムウォーク。
• 二次元なので、二次元の標準正規分布を使うことにす
る。文字通りの(3次元で思い浮かべる)ベル・カーブ。
o 分布の平均はジャンプ前の点とする
o ジャンプ先を受け入れるかどうかを下の確率で決める
. The proposed jump is randomly generated from a proposal distribution, from
sume it is easy to generate values. For our present purposes, the proposal distri
bivariate normal. You can visualize a bivariate normal distribution by imagi
imensional normal (as in Figure 3.3, p. 31), sticking a pin down vertically th
ak, and spinning it around the pin, to form a bell-shaped distribution. The us
ate normal proposal distribution implies that the proposed jumps will usually b
urrent position, but more distant jumps could be proposed with lesser probabilit
he proposed jump is definitely accepted if the posterior is more dense at the pro
on than at the current position, and the proposed jump is probabilistically acce
osterior is less dense at the proposed position than at the current position. The
bility of accepting the proposed jump, i.e., the probability of moving, is
pmove = min
P(θproposed)
P(θcurrent)
,1
e P(θ) is the (unnormalized) posterior probability at θ. (Equation 8.7 repeats
7.1 from p. 103.) This probability of moving is turned into an actual discrete
ve or stay by generating a random number from the uniform density on [0,1]:
ated number lies between 0 and pmove, then the move is made, otherwise the c
o P(θ)は事後確率;正規化されていなくて良い
o 今よりもいい確率なら必ず受容され、低い場合はその割合
の確率で受容される。却下された場合はまた上に戻る
17
Metropolis Algorithmの結果
8.4. THE POSTERIOR VIA MARKOV CHAIN MONTE CARLO 13
0.0 0.2 0.4 0.6 0.8 1.0
0.00.20.40.60.81.0
q1
q2
M=0.615,0.398; Npro=1000,
Nacc
Npro
=0.39
p(D) = 5.63e−05
Figure 8.3: Metropolis algorithm
applied to the prior and likelihoo
shown in Figure 8.1, p. 131. Com
pare this scatter plot with the lowe
right contour plot of Figure 8.1
Npro is the number of propose
jumps (after burn in), and Nac
is the number of accepted propos
als. R code is in Section 8.8.
(Ber nTwoMet r opol i s. R).
8.4.1 Metropolis algorithm
先ほどと同じ例(事前確率:beta)
大体Posteriorが近似されている
気がする。
あっちこっちに飛ぶのは提案分布
が二次元正規分布のせい。
例によってburn-in期間(ランダム
ウォークした最初の期間)を除いて
いる
Exerciseで提案分布を広くしたり
狭くしたりしましょう(各自)
18
MetropolisからGibbsへ
• Metropolisアルゴリズムは一般的かつ広く適応
可能。
• 問題点
o 提案分布を事後確率分布によって適切にチューニングしな
いとうまくいかない
• 15ページ目のような複雑な事後分布の場合、グループ
間を行き来できないでとどまってしまうかもしれない
o 提案分布が広すぎたり狭すぎたりすると、多くのジャンプ
が却下されたり一部にとどまり続けてしまう可能性も高く
なる
• そこで、チューニングが要らない、他の方法は
ないだろうか
o →Gibbs Sampling
19
Gibbs Sampling
• Gibbs Samplingで何が出来るか
o p(θ1, θ2, θ3|D)という同時事後確率のサンプルを生成でき
る
• それが出来る条件
o p(θ1|θ2, θ3,D) ,p(θ2|θ1, θ3,D) ,p(θ3|θ1, θ2,D)が分かる
場合
o かつそれらのサンプルが生成可能な場合
• つまり
o 適応できる場合が限定されている
o しかし出来る場合にはMetropolisアルゴリズムよりも効率
的かつ信頼出来る結果が得られる
20
Gibbs Samplingの手順
• Metropolis Algorithmの一種だがステップのと
り方が違う&却下されない
• 一回のジャンプは必ず一つのパラメータ(θi)上で
行われ、それ以外(θi)は(前の値に)固定されて
いる。普通θ1→θ2→θ3→…のように軸を順に変
えてジャンプする
• ジャンプ先はp(θi|{θj}i≠j,D)に従う
o MetropolisアルゴリズムではQ(xt+1|xt)=提案分布を用い
ていた。前の例だとxtを中心とした二次元の正規分布。
• サンプルが却下されることがない
o なぜなら提案分布が事後確率を反映しているため
o 細かい証明はGelman, Carlin, Stern, Rubin(2004 p293)
21
Gibbs Samplingの適用
• 先ほどの例を取ってみる。Gibbs Samplingをす
るにはまず条件付き事後確率を求める
tribution is again a product of beta distributions, as was derived in Equation 8
s joint posterior is easily dealt with directly, and so there is no real need to app
ing, but we will go ahead and do Gibbs sampling of this posterior distributi
of illustration and comparison with other methods.
mplish Gibbs sampling, we must determine the conditional posterior distrib
parameter. By definition of conditional probability,
p(θ1|θ2, D) = p(θ1,θ2|D)/ p(θ2|D)
= p(θ1,θ2|D) dθ1 p(θ1,θ2|D)
ent application, the joint posterior is a product of beta distributions as in Equ
erefore
1|θ2, D) = p(θ1,θ2|D) dθ1 p(θ1,θ2|D)
=
beta(θ1|z1+a1, N1−z1+b1) beta(θ2|z2+a2, N2−z2+b2)
dθ1 beta(θ1|z1+a1, N1−z1+b1) beta(θ2|z2+a2, N2−z2+b2)
beta(θ1|z1+a1, N1−z1+b1) beta(θ2|z2+a2, N2−z2+b2)
ベータ分布としているので
osterior distribution is again a product of beta distributions, as was derived in Equation 8
p. 130). This joint posterior is easily dealt with directly, and so there is no real need to app
ibbs sampling, but we will go ahead and do Gibbs sampling of this posterior distributio
or purposes of illustration and comparison with other methods.
To accomplish Gibbs sampling, we must determine the conditional posterior distrib
on for each parameter. By definition of conditional probability,
p(θ1|θ2, D) = p(θ1,θ2|D)/ p(θ2|D)
= p(θ1,θ2|D) dθ1 p(θ1,θ2|D)
or our current application, the joint posterior is a product of beta distributions as in Equ
on 8.3. Therefore
p(θ1|θ2, D) = p(θ1,θ2|D) dθ1 p(θ1,θ2|D)
=
beta(θ1|z1+a1, N1−z1+b1) beta(θ2|z2+a2, N2−z2+b2)
dθ1 beta(θ1|z1+a1, N1−z1+b1) beta(θ2|z2+a2, N2−z2+b2)
=
beta(θ1|z1+a1, N1−z1+b1) beta(θ2|z2+a2, N2−z2+b2)
beta(θ2|z2+a2, N2−z2+b2)
= beta(θ1|z1+a1, N1−z1+b1) (8.(8.8)
22
Gibbs Samplingの適用
• 8.8式はある意味明らか
o 事後確率は独立したベータ分布の積なので、
p(θ1|θ2,D)=p(θ1|D)である
• 条件付き事後確率がもとまったら、次はそこか
らサンプリングできるかを考えなければならな
い
o この場合はベータ分布なので直接サンプリングできる。
o 直接サンプリングできない場合は別の方法でサンプリング
する
• これで計算してみると…
23
Gibbs Samplingの適用
• θが循環してジャンプしてい
る事がわかる
• Metropolis法では実際には
1000サイクル回しても却下さ
れる事を考えればそれ以下の
点しか生成されないが、
Gibbs Samplingなら1000点作
れる
• 結局のところ、他のパラメー
タを固定して一つだけ変えて
いく作業は、事後確率をある
軸で切ってやって、その平面
上での確率分布をその平面の
生起確率分だけやっているの
だから、効率的かつうまくい
くことになる
24
Gibbs Samplingの欠点
• とても偏った事後確率分布の場合は速さ
が落ちる。
o 1軸しか1ステップで変えられないため。
• 制限が厳しい
o 条件付き事後確率が分かっていて、かつサンプリ
ング可能でなければならない
θ1
θ2
25
BUGSでやる方法
• …と教科書にはあるが、そもそもJAGSを使った
ほうが良い
• 教科書と同じコード(JAGS版)は
o http://www.indiana.edu/~kruschke/DoingBayesianDa
taAnalysis/Programs/
26
結局、2系列の差って?
• Gibbs Samplingによってθ1,θ2の代表点がもと
まった(BUGSでの結果↓)
これら代表点から差θ1-θ2を
計算して集計すると↓
有意差は言えない
↑2つのパラメータを両方変えた結
果のみ表示
(計算はもちろん軸ごとにしている)
27
まとめ
• これまでの章のコンセプトを2つのパラメータ
の状況に適応した
o パラメータ2つの場合の確率分布に慣れることと、グラ
フィカルな例によって直感的に分かることが目的の一つ
o 復習しました!
• Gibbs Samplingを導入したこと
o Metropolis サンプリングよりも効率的
o 全てのパラメータについての条件付き事後確率が必要
o rejectされないので、reject proposalに悩まされない
o BUGSで1からプログラム書かずにすんだ
• 2系列のデータの差についての議論
o 事後確率のサンプルから差を計算して信頼区間を求めて議
論した。95%HDIから外であれば有意差があると言える 28
Rコード
• これまで出てきた図の再現ができます
29

More Related Content

What's hot

統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)Kota Mori
 
さくっと線形代数
さくっと線形代数さくっと線形代数
さくっと線形代数Kota Mori
 
PRML2.3.8~2.5 Slides in charge
PRML2.3.8~2.5 Slides in chargePRML2.3.8~2.5 Slides in charge
PRML2.3.8~2.5 Slides in chargeJunpei Matsuda
 
2013年度春学期 画像情報処理 第4回「離散フーリエ変換」
2013年度春学期 画像情報処理 第4回「離散フーリエ変換」2013年度春学期 画像情報処理 第4回「離散フーリエ変換」
2013年度春学期 画像情報処理 第4回「離散フーリエ変換」Akira Asano
 
生物統計特論3資料 2006 ギブス MCMC isseing333
生物統計特論3資料 2006 ギブス MCMC isseing333生物統計特論3資料 2006 ギブス MCMC isseing333
生物統計特論3資料 2006 ギブス MCMC isseing333Issei Kurahashi
 
混合ガウスモデルとEMアルゴリスム
混合ガウスモデルとEMアルゴリスム混合ガウスモデルとEMアルゴリスム
混合ガウスモデルとEMアルゴリスム貴之 八木
 
PRML輪講用資料10章(パターン認識と機械学習,近似推論法)
PRML輪講用資料10章(パターン認識と機械学習,近似推論法)PRML輪講用資料10章(パターン認識と機械学習,近似推論法)
PRML輪講用資料10章(パターン認識と機械学習,近似推論法)Toshiyuki Shimono
 
基底変換、固有値・固有ベクトル、そしてその先
基底変換、固有値・固有ベクトル、そしてその先基底変換、固有値・固有ベクトル、そしてその先
基底変換、固有値・固有ベクトル、そしてその先Taketo Sano
 
2014年度春学期 画像情報処理 第4回 離散フーリエ変換 (2014. 5. 7)
2014年度春学期 画像情報処理 第4回 離散フーリエ変換 (2014. 5. 7)2014年度春学期 画像情報処理 第4回 離散フーリエ変換 (2014. 5. 7)
2014年度春学期 画像情報処理 第4回 離散フーリエ変換 (2014. 5. 7)Akira Asano
 
PRML復々習レーン#11
PRML復々習レーン#11PRML復々習レーン#11
PRML復々習レーン#11Takuya Fukagai
 

What's hot (20)

Prml 2.3
Prml 2.3Prml 2.3
Prml 2.3
 
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)
 
Oshasta em
Oshasta emOshasta em
Oshasta em
 
全域木いろいろ
全域木いろいろ全域木いろいろ
全域木いろいろ
 
さくっと線形代数
さくっと線形代数さくっと線形代数
さくっと線形代数
 
PRML2.3.8~2.5 Slides in charge
PRML2.3.8~2.5 Slides in chargePRML2.3.8~2.5 Slides in charge
PRML2.3.8~2.5 Slides in charge
 
2013年度春学期 画像情報処理 第4回「離散フーリエ変換」
2013年度春学期 画像情報処理 第4回「離散フーリエ変換」2013年度春学期 画像情報処理 第4回「離散フーリエ変換」
2013年度春学期 画像情報処理 第4回「離散フーリエ変換」
 
ベータ分布
ベータ分布ベータ分布
ベータ分布
 
生物統計特論3資料 2006 ギブス MCMC isseing333
生物統計特論3資料 2006 ギブス MCMC isseing333生物統計特論3資料 2006 ギブス MCMC isseing333
生物統計特論3資料 2006 ギブス MCMC isseing333
 
混合ガウスモデルとEMアルゴリスム
混合ガウスモデルとEMアルゴリスム混合ガウスモデルとEMアルゴリスム
混合ガウスモデルとEMアルゴリスム
 
PRML輪講用資料10章(パターン認識と機械学習,近似推論法)
PRML輪講用資料10章(パターン認識と機械学習,近似推論法)PRML輪講用資料10章(パターン認識と機械学習,近似推論法)
PRML輪講用資料10章(パターン認識と機械学習,近似推論法)
 
PRML2.3.1-2.3.3
PRML2.3.1-2.3.3PRML2.3.1-2.3.3
PRML2.3.1-2.3.3
 
基底変換、固有値・固有ベクトル、そしてその先
基底変換、固有値・固有ベクトル、そしてその先基底変換、固有値・固有ベクトル、そしてその先
基底変換、固有値・固有ベクトル、そしてその先
 
PRML 2.3節
PRML 2.3節PRML 2.3節
PRML 2.3節
 
PRML chapter7
PRML chapter7PRML chapter7
PRML chapter7
 
2014年度春学期 画像情報処理 第4回 離散フーリエ変換 (2014. 5. 7)
2014年度春学期 画像情報処理 第4回 離散フーリエ変換 (2014. 5. 7)2014年度春学期 画像情報処理 第4回 離散フーリエ変換 (2014. 5. 7)
2014年度春学期 画像情報処理 第4回 離散フーリエ変換 (2014. 5. 7)
 
Draftall
DraftallDraftall
Draftall
 
Prml 10 1
Prml 10 1Prml 10 1
Prml 10 1
 
PRML 8.4-8.4.3
PRML 8.4-8.4.3 PRML 8.4-8.4.3
PRML 8.4-8.4.3
 
PRML復々習レーン#11
PRML復々習レーン#11PRML復々習レーン#11
PRML復々習レーン#11
 

Viewers also liked

クラシックな機械学習の入門  9. モデル推定
クラシックな機械学習の入門  9. モデル推定クラシックな機械学習の入門  9. モデル推定
クラシックな機械学習の入門  9. モデル推定Hiroshi Nakagawa
 
Dbda勉強会~概要説明ochi20130803
Dbda勉強会~概要説明ochi20130803Dbda勉強会~概要説明ochi20130803
Dbda勉強会~概要説明ochi20130803Masanao Ochi
 
【DBDA 勉強会 2013 夏】Doing Bayesian Data Analysis Chapter 4: Bayes’ Rule
【DBDA 勉強会 2013 夏】Doing Bayesian Data Analysis Chapter 4: Bayes’ Rule【DBDA 勉強会 2013 夏】Doing Bayesian Data Analysis Chapter 4: Bayes’ Rule
【DBDA 勉強会 2013 夏】Doing Bayesian Data Analysis Chapter 4: Bayes’ RuleShuhei Iitsuka
 
Dbda勉強会chapter18
Dbda勉強会chapter18Dbda勉強会chapter18
Dbda勉強会chapter18Koichiro Kondo
 
Doing Bayesian Data Analysis, Chapter 5
Doing Bayesian Data Analysis, Chapter 5Doing Bayesian Data Analysis, Chapter 5
Doing Bayesian Data Analysis, Chapter 5春 根上
 
【DBDA 勉強会 2013 夏】Chapter 12: Bayesian Approaches to Testing a Point (‘‘Null’’...
【DBDA 勉強会 2013 夏】Chapter 12: Bayesian Approaches to Testing a Point (‘‘Null’’...【DBDA 勉強会 2013 夏】Chapter 12: Bayesian Approaches to Testing a Point (‘‘Null’’...
【DBDA 勉強会 2013 夏】Chapter 12: Bayesian Approaches to Testing a Point (‘‘Null’’...Shuhei Iitsuka
 
Doing Bayesian Data Analysis; Chapter 14
Doing Bayesian Data Analysis; Chapter 14Doing Bayesian Data Analysis; Chapter 14
Doing Bayesian Data Analysis; Chapter 14春 根上
 
Chapter.13: Goals, Power and Sample Size "Doing Bayesian Data Analysis: A Tu...
Chapter.13: Goals, Power and Sample Size "Doing Bayesian Data Analysis:  A Tu...Chapter.13: Goals, Power and Sample Size "Doing Bayesian Data Analysis:  A Tu...
Chapter.13: Goals, Power and Sample Size "Doing Bayesian Data Analysis: A Tu...Hajime Sasaki
 
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 9: Bernoulli Likelihood wit...
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 9: Bernoulli Likelihood wit...【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 9: Bernoulli Likelihood wit...
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 9: Bernoulli Likelihood wit...Koji Yoshida
 
Doing Bayesian Data Analysis Chapter 11. Null Hypothesis Significance Testing
Doing Bayesian Data Analysis Chapter 11. Null Hypothesis Significance TestingDoing Bayesian Data Analysis Chapter 11. Null Hypothesis Significance Testing
Doing Bayesian Data Analysis Chapter 11. Null Hypothesis Significance TestingHiroki Takanashi
 
全脳アーキテクチャ勉強会 第1回(松尾)
全脳アーキテクチャ勉強会 第1回(松尾)全脳アーキテクチャ勉強会 第1回(松尾)
全脳アーキテクチャ勉強会 第1回(松尾)Yutaka Matsuo
 

Viewers also liked (16)

クラシックな機械学習の入門  9. モデル推定
クラシックな機械学習の入門  9. モデル推定クラシックな機械学習の入門  9. モデル推定
クラシックな機械学習の入門  9. モデル推定
 
Dbda勉強会~概要説明ochi20130803
Dbda勉強会~概要説明ochi20130803Dbda勉強会~概要説明ochi20130803
Dbda勉強会~概要説明ochi20130803
 
Dbda chap7
Dbda chap7Dbda chap7
Dbda chap7
 
【DBDA 勉強会 2013 夏】Doing Bayesian Data Analysis Chapter 4: Bayes’ Rule
【DBDA 勉強会 2013 夏】Doing Bayesian Data Analysis Chapter 4: Bayes’ Rule【DBDA 勉強会 2013 夏】Doing Bayesian Data Analysis Chapter 4: Bayes’ Rule
【DBDA 勉強会 2013 夏】Doing Bayesian Data Analysis Chapter 4: Bayes’ Rule
 
Dbda勉強会chapter18
Dbda勉強会chapter18Dbda勉強会chapter18
Dbda勉強会chapter18
 
Dbda03
Dbda03Dbda03
Dbda03
 
Dbda chapter15
Dbda chapter15Dbda chapter15
Dbda chapter15
 
Doing Bayesian Data Analysis, Chapter 5
Doing Bayesian Data Analysis, Chapter 5Doing Bayesian Data Analysis, Chapter 5
Doing Bayesian Data Analysis, Chapter 5
 
Dbda勉強会
Dbda勉強会Dbda勉強会
Dbda勉強会
 
【DBDA 勉強会 2013 夏】Chapter 12: Bayesian Approaches to Testing a Point (‘‘Null’’...
【DBDA 勉強会 2013 夏】Chapter 12: Bayesian Approaches to Testing a Point (‘‘Null’’...【DBDA 勉強会 2013 夏】Chapter 12: Bayesian Approaches to Testing a Point (‘‘Null’’...
【DBDA 勉強会 2013 夏】Chapter 12: Bayesian Approaches to Testing a Point (‘‘Null’’...
 
Doing Bayesian Data Analysis; Chapter 14
Doing Bayesian Data Analysis; Chapter 14Doing Bayesian Data Analysis; Chapter 14
Doing Bayesian Data Analysis; Chapter 14
 
Dbda chapter17
Dbda chapter17Dbda chapter17
Dbda chapter17
 
Chapter.13: Goals, Power and Sample Size "Doing Bayesian Data Analysis: A Tu...
Chapter.13: Goals, Power and Sample Size "Doing Bayesian Data Analysis:  A Tu...Chapter.13: Goals, Power and Sample Size "Doing Bayesian Data Analysis:  A Tu...
Chapter.13: Goals, Power and Sample Size "Doing Bayesian Data Analysis: A Tu...
 
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 9: Bernoulli Likelihood wit...
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 9: Bernoulli Likelihood wit...【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 9: Bernoulli Likelihood wit...
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 9: Bernoulli Likelihood wit...
 
Doing Bayesian Data Analysis Chapter 11. Null Hypothesis Significance Testing
Doing Bayesian Data Analysis Chapter 11. Null Hypothesis Significance TestingDoing Bayesian Data Analysis Chapter 11. Null Hypothesis Significance Testing
Doing Bayesian Data Analysis Chapter 11. Null Hypothesis Significance Testing
 
全脳アーキテクチャ勉強会 第1回(松尾)
全脳アーキテクチャ勉強会 第1回(松尾)全脳アーキテクチャ勉強会 第1回(松尾)
全脳アーキテクチャ勉強会 第1回(松尾)
 

Similar to 【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 8: Inferring Two Binomial Proportions via Gibbs Sampling

ベイズ統計入門
ベイズ統計入門ベイズ統計入門
ベイズ統計入門Miyoshi Yuya
 
基礎からのベイズ統計学 3章(3.1~3.3)
基礎からのベイズ統計学 3章(3.1~3.3)基礎からのベイズ統計学 3章(3.1~3.3)
基礎からのベイズ統計学 3章(3.1~3.3)TeranishiKeisuke
 
代数トポロジー入門
代数トポロジー入門代数トポロジー入門
代数トポロジー入門Tatsuki SHIMIZU
 
カステラ本勉強会 第三回
カステラ本勉強会 第三回カステラ本勉強会 第三回
カステラ本勉強会 第三回ke beck
 
単純ベイズ法による異常検知 #ml-professional
単純ベイズ法による異常検知  #ml-professional単純ベイズ法による異常検知  #ml-professional
単純ベイズ法による異常検知 #ml-professionalAi Makabi
 
充足可能性問題のいろいろ
充足可能性問題のいろいろ充足可能性問題のいろいろ
充足可能性問題のいろいろHiroshi Yamashita
 
UTPC2012 - K
UTPC2012 - KUTPC2012 - K
UTPC2012 - Komeometo
 
みどりぼん9章前半
みどりぼん9章前半みどりぼん9章前半
みどりぼん9章前半Akifumi Eguchi
 
GEE(一般化推定方程式)の理論
GEE(一般化推定方程式)の理論GEE(一般化推定方程式)の理論
GEE(一般化推定方程式)の理論Koichiro Gibo
 
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2Hiroyuki Kato
 
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介Deep Learning JP
 
みどりぼん読書会 第4章
みどりぼん読書会 第4章みどりぼん読書会 第4章
みどりぼん読書会 第4章Masanori Takano
 
はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半koba cky
 
第9回スキル養成講座講義資料
第9回スキル養成講座講義資料第9回スキル養成講座講義資料
第9回スキル養成講座講義資料keiodig
 
ベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-oldベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-oldNaoki Hayashi
 
ネットワーク科学 空間システムデザイン
ネットワーク科学 空間システムデザインネットワーク科学 空間システムデザイン
ネットワーク科学 空間システムデザインhayashiresearchlab
 
あなたの心にBridgeSampling
あなたの心にBridgeSamplingあなたの心にBridgeSampling
あなたの心にBridgeSamplingdaiki hojo
 

Similar to 【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 8: Inferring Two Binomial Proportions via Gibbs Sampling (20)

ベイズ統計入門
ベイズ統計入門ベイズ統計入門
ベイズ統計入門
 
基礎からのベイズ統計学 3章(3.1~3.3)
基礎からのベイズ統計学 3章(3.1~3.3)基礎からのベイズ統計学 3章(3.1~3.3)
基礎からのベイズ統計学 3章(3.1~3.3)
 
代数トポロジー入門
代数トポロジー入門代数トポロジー入門
代数トポロジー入門
 
カステラ本勉強会 第三回
カステラ本勉強会 第三回カステラ本勉強会 第三回
カステラ本勉強会 第三回
 
単純ベイズ法による異常検知 #ml-professional
単純ベイズ法による異常検知  #ml-professional単純ベイズ法による異常検知  #ml-professional
単純ベイズ法による異常検知 #ml-professional
 
KDD2014 勉強会
KDD2014 勉強会KDD2014 勉強会
KDD2014 勉強会
 
充足可能性問題のいろいろ
充足可能性問題のいろいろ充足可能性問題のいろいろ
充足可能性問題のいろいろ
 
UTPC2012 - K
UTPC2012 - KUTPC2012 - K
UTPC2012 - K
 
みどりぼん9章前半
みどりぼん9章前半みどりぼん9章前半
みどりぼん9章前半
 
GEE(一般化推定方程式)の理論
GEE(一般化推定方程式)の理論GEE(一般化推定方程式)の理論
GEE(一般化推定方程式)の理論
 
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2
 
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
 
みどりぼん読書会 第4章
みどりぼん読書会 第4章みどりぼん読書会 第4章
みどりぼん読書会 第4章
 
はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半
 
第9回スキル養成講座講義資料
第9回スキル養成講座講義資料第9回スキル養成講座講義資料
第9回スキル養成講座講義資料
 
ベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-oldベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-old
 
ネットワーク科学 空間システムデザイン
ネットワーク科学 空間システムデザインネットワーク科学 空間システムデザイン
ネットワーク科学 空間システムデザイン
 
あなたの心にBridgeSampling
あなたの心にBridgeSamplingあなたの心にBridgeSampling
あなたの心にBridgeSampling
 
Prml2.1 2.2,2.4-2.5
Prml2.1 2.2,2.4-2.5Prml2.1 2.2,2.4-2.5
Prml2.1 2.2,2.4-2.5
 
yyoshida thesis
yyoshida thesisyyoshida thesis
yyoshida thesis
 

Recently uploaded

リアル戦国探究in米沢 当日講座1(スタッフ共有用)『兵は詐をもって立つ』についてのスライド
リアル戦国探究in米沢 当日講座1(スタッフ共有用)『兵は詐をもって立つ』についてのスライドリアル戦国探究in米沢 当日講座1(スタッフ共有用)『兵は詐をもって立つ』についてのスライド
リアル戦国探究in米沢 当日講座1(スタッフ共有用)『兵は詐をもって立つ』についてのスライドKen Fukui
 
【ゲーム理論入門】ChatGPTが作成した ゲーム理論の問題を解く #3 Slide
【ゲーム理論入門】ChatGPTが作成した ゲーム理論の問題を解く #3 Slide【ゲーム理論入門】ChatGPTが作成した ゲーム理論の問題を解く #3 Slide
【ゲーム理論入門】ChatGPTが作成した ゲーム理論の問題を解く #3 Slidessusere0a682
 
My Inspire High Award 2024「なぜ議会への関心が低いのか?」
My Inspire High Award 2024「なぜ議会への関心が低いのか?」My Inspire High Award 2024「なぜ議会への関心が低いのか?」
My Inspire High Award 2024「なぜ議会への関心が低いのか?」inspirehighstaff03
 
My Inspire High Award 2024「他者と自分、対立を防ぐには?」
My Inspire High Award 2024「他者と自分、対立を防ぐには?」My Inspire High Award 2024「他者と自分、対立を防ぐには?」
My Inspire High Award 2024「他者と自分、対立を防ぐには?」inspirehighstaff03
 
TEAMIN Service overview for customer_20240422.pdf
TEAMIN Service overview for customer_20240422.pdfTEAMIN Service overview for customer_20240422.pdf
TEAMIN Service overview for customer_20240422.pdfyukisuga3
 
My Inspire High Award 2024    「孤独は敵なのか?」
My Inspire High Award 2024    「孤独は敵なのか?」My Inspire High Award 2024    「孤独は敵なのか?」
My Inspire High Award 2024    「孤独は敵なのか?」inspirehighstaff03
 
International Politics I - Lecture 1
International Politics I - Lecture 1International Politics I - Lecture 1
International Politics I - Lecture 1Toru Oga
 
My Inspire High Award 2024 「AIと仲良くなるには?」
My Inspire High Award 2024 「AIと仲良くなるには?」My Inspire High Award 2024 「AIと仲良くなるには?」
My Inspire High Award 2024 「AIと仲良くなるには?」inspirehighstaff03
 
Establishment and operation of medical corporations.pdf
Establishment and operation of medical corporations.pdfEstablishment and operation of medical corporations.pdf
Establishment and operation of medical corporations.pdfoganekyokoi
 
リアル戦国探究in米沢 事前講座1スライド(スタッフ共有用)『川中島の謎』についてのスライド
リアル戦国探究in米沢 事前講座1スライド(スタッフ共有用)『川中島の謎』についてのスライドリアル戦国探究in米沢 事前講座1スライド(スタッフ共有用)『川中島の謎』についてのスライド
リアル戦国探究in米沢 事前講座1スライド(スタッフ共有用)『川中島の謎』についてのスライドKen Fukui
 
My Inspire High Award 2024「老いることは不幸なこと?」
My Inspire High Award 2024「老いることは不幸なこと?」My Inspire High Award 2024「老いることは不幸なこと?」
My Inspire High Award 2024「老いることは不幸なこと?」inspirehighstaff03
 
What I did before opening my business..pdf
What I did before opening my business..pdfWhat I did before opening my business..pdf
What I did before opening my business..pdfoganekyokoi
 
My Inspire High Award 2024「世の中の流行はどのようにして生まれるのか」
My Inspire High Award 2024「世の中の流行はどのようにして生まれるのか」My Inspire High Award 2024「世の中の流行はどのようにして生まれるのか」
My Inspire High Award 2024「世の中の流行はどのようにして生まれるのか」inspirehighstaff03
 
リアル戦国探究in米沢 当日講座3スライド(スタッフ共有用)『糧は三度はさいせず』についてのスライド
リアル戦国探究in米沢 当日講座3スライド(スタッフ共有用)『糧は三度はさいせず』についてのスライドリアル戦国探究in米沢 当日講座3スライド(スタッフ共有用)『糧は三度はさいせず』についてのスライド
リアル戦国探究in米沢 当日講座3スライド(スタッフ共有用)『糧は三度はさいせず』についてのスライドKen Fukui
 
My Inspire High Award 2024「なぜ人は他人と違うところがあってもそれをなかなか誇れないのか?」
My Inspire High Award 2024「なぜ人は他人と違うところがあってもそれをなかなか誇れないのか?」My Inspire High Award 2024「なぜ人は他人と違うところがあってもそれをなかなか誇れないのか?」
My Inspire High Award 2024「なぜ人は他人と違うところがあってもそれをなかなか誇れないのか?」inspirehighstaff03
 
Divorce agreements in administrative work.pdf
Divorce agreements in administrative work.pdfDivorce agreements in administrative work.pdf
Divorce agreements in administrative work.pdfoganekyokoi
 
My Inspire High Award2024「外国人が日本のテーブルマナーに驚く理由は?」
My Inspire High Award2024「外国人が日本のテーブルマナーに驚く理由は?」My Inspire High Award2024「外国人が日本のテーブルマナーに驚く理由は?」
My Inspire High Award2024「外国人が日本のテーブルマナーに驚く理由は?」inspirehighstaff03
 
My Inspire High Award 2024  「正義って存在するの?」
My Inspire High Award 2024  「正義って存在するの?」My Inspire High Award 2024  「正義って存在するの?」
My Inspire High Award 2024  「正義って存在するの?」inspirehighstaff03
 
リアル戦国探究in米沢 事前講座2スライド(スタッフ共有用)『両雄の強さの秘密』についてのスライド
リアル戦国探究in米沢 事前講座2スライド(スタッフ共有用)『両雄の強さの秘密』についてのスライドリアル戦国探究in米沢 事前講座2スライド(スタッフ共有用)『両雄の強さの秘密』についてのスライド
リアル戦国探究in米沢 事前講座2スライド(スタッフ共有用)『両雄の強さの秘密』についてのスライドKen Fukui
 
My Inspire High Award 2024 「本当の『悪者』って何?」
My Inspire High Award 2024 「本当の『悪者』って何?」My Inspire High Award 2024 「本当の『悪者』って何?」
My Inspire High Award 2024 「本当の『悪者』って何?」inspirehighstaff03
 

Recently uploaded (20)

リアル戦国探究in米沢 当日講座1(スタッフ共有用)『兵は詐をもって立つ』についてのスライド
リアル戦国探究in米沢 当日講座1(スタッフ共有用)『兵は詐をもって立つ』についてのスライドリアル戦国探究in米沢 当日講座1(スタッフ共有用)『兵は詐をもって立つ』についてのスライド
リアル戦国探究in米沢 当日講座1(スタッフ共有用)『兵は詐をもって立つ』についてのスライド
 
【ゲーム理論入門】ChatGPTが作成した ゲーム理論の問題を解く #3 Slide
【ゲーム理論入門】ChatGPTが作成した ゲーム理論の問題を解く #3 Slide【ゲーム理論入門】ChatGPTが作成した ゲーム理論の問題を解く #3 Slide
【ゲーム理論入門】ChatGPTが作成した ゲーム理論の問題を解く #3 Slide
 
My Inspire High Award 2024「なぜ議会への関心が低いのか?」
My Inspire High Award 2024「なぜ議会への関心が低いのか?」My Inspire High Award 2024「なぜ議会への関心が低いのか?」
My Inspire High Award 2024「なぜ議会への関心が低いのか?」
 
My Inspire High Award 2024「他者と自分、対立を防ぐには?」
My Inspire High Award 2024「他者と自分、対立を防ぐには?」My Inspire High Award 2024「他者と自分、対立を防ぐには?」
My Inspire High Award 2024「他者と自分、対立を防ぐには?」
 
TEAMIN Service overview for customer_20240422.pdf
TEAMIN Service overview for customer_20240422.pdfTEAMIN Service overview for customer_20240422.pdf
TEAMIN Service overview for customer_20240422.pdf
 
My Inspire High Award 2024    「孤独は敵なのか?」
My Inspire High Award 2024    「孤独は敵なのか?」My Inspire High Award 2024    「孤独は敵なのか?」
My Inspire High Award 2024    「孤独は敵なのか?」
 
International Politics I - Lecture 1
International Politics I - Lecture 1International Politics I - Lecture 1
International Politics I - Lecture 1
 
My Inspire High Award 2024 「AIと仲良くなるには?」
My Inspire High Award 2024 「AIと仲良くなるには?」My Inspire High Award 2024 「AIと仲良くなるには?」
My Inspire High Award 2024 「AIと仲良くなるには?」
 
Establishment and operation of medical corporations.pdf
Establishment and operation of medical corporations.pdfEstablishment and operation of medical corporations.pdf
Establishment and operation of medical corporations.pdf
 
リアル戦国探究in米沢 事前講座1スライド(スタッフ共有用)『川中島の謎』についてのスライド
リアル戦国探究in米沢 事前講座1スライド(スタッフ共有用)『川中島の謎』についてのスライドリアル戦国探究in米沢 事前講座1スライド(スタッフ共有用)『川中島の謎』についてのスライド
リアル戦国探究in米沢 事前講座1スライド(スタッフ共有用)『川中島の謎』についてのスライド
 
My Inspire High Award 2024「老いることは不幸なこと?」
My Inspire High Award 2024「老いることは不幸なこと?」My Inspire High Award 2024「老いることは不幸なこと?」
My Inspire High Award 2024「老いることは不幸なこと?」
 
What I did before opening my business..pdf
What I did before opening my business..pdfWhat I did before opening my business..pdf
What I did before opening my business..pdf
 
My Inspire High Award 2024「世の中の流行はどのようにして生まれるのか」
My Inspire High Award 2024「世の中の流行はどのようにして生まれるのか」My Inspire High Award 2024「世の中の流行はどのようにして生まれるのか」
My Inspire High Award 2024「世の中の流行はどのようにして生まれるのか」
 
リアル戦国探究in米沢 当日講座3スライド(スタッフ共有用)『糧は三度はさいせず』についてのスライド
リアル戦国探究in米沢 当日講座3スライド(スタッフ共有用)『糧は三度はさいせず』についてのスライドリアル戦国探究in米沢 当日講座3スライド(スタッフ共有用)『糧は三度はさいせず』についてのスライド
リアル戦国探究in米沢 当日講座3スライド(スタッフ共有用)『糧は三度はさいせず』についてのスライド
 
My Inspire High Award 2024「なぜ人は他人と違うところがあってもそれをなかなか誇れないのか?」
My Inspire High Award 2024「なぜ人は他人と違うところがあってもそれをなかなか誇れないのか?」My Inspire High Award 2024「なぜ人は他人と違うところがあってもそれをなかなか誇れないのか?」
My Inspire High Award 2024「なぜ人は他人と違うところがあってもそれをなかなか誇れないのか?」
 
Divorce agreements in administrative work.pdf
Divorce agreements in administrative work.pdfDivorce agreements in administrative work.pdf
Divorce agreements in administrative work.pdf
 
My Inspire High Award2024「外国人が日本のテーブルマナーに驚く理由は?」
My Inspire High Award2024「外国人が日本のテーブルマナーに驚く理由は?」My Inspire High Award2024「外国人が日本のテーブルマナーに驚く理由は?」
My Inspire High Award2024「外国人が日本のテーブルマナーに驚く理由は?」
 
My Inspire High Award 2024  「正義って存在するの?」
My Inspire High Award 2024  「正義って存在するの?」My Inspire High Award 2024  「正義って存在するの?」
My Inspire High Award 2024  「正義って存在するの?」
 
リアル戦国探究in米沢 事前講座2スライド(スタッフ共有用)『両雄の強さの秘密』についてのスライド
リアル戦国探究in米沢 事前講座2スライド(スタッフ共有用)『両雄の強さの秘密』についてのスライドリアル戦国探究in米沢 事前講座2スライド(スタッフ共有用)『両雄の強さの秘密』についてのスライド
リアル戦国探究in米沢 事前講座2スライド(スタッフ共有用)『両雄の強さの秘密』についてのスライド
 
My Inspire High Award 2024 「本当の『悪者』って何?」
My Inspire High Award 2024 「本当の『悪者』って何?」My Inspire High Award 2024 「本当の『悪者』って何?」
My Inspire High Award 2024 「本当の『悪者』って何?」
 

【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 8: Inferring Two Binomial Proportions via Gibbs Sampling