Contenu connexe Plus de Kenta Murata (16) 情報学特論#022. おしながき
• Shannon 情報量と Boltzmann エントロ
ピー
• 情報量の定義
• Shannon エントロピーと Boltzmann
エントロピー
• 可逆計算の物理学
• 計算で必要なエネルギー
2
18. 受信者に依存して情報の
性質が変化する
• これは当たり前である
• このままでは情報についての客観的な
性質や法則を調べることはできない
• 情報の「内容」は無視し,情報の
「量」について調べよう!
14
35. 無知
♥7
赤 奇数 ¬文字
赤
赤 奇数
19
36. 無知
♥7
赤 奇数 ¬文字
赤
赤 奇数
19
44. 形式的に考える
• 出来事 E が発生したことで得られる情
報の量を I(E) と書くことにする.
• トランプの例をこの記法で書くと次式
のように表せる
22
45. 形式的に考える
• 出来事 E が発生したことで得られる情
報の量を I(E) と書くことにする.
• トランプの例をこの記法で書くと次式
のように表せる
I(♥7) = I(赤 奇数 ¬文字 …)
= I(赤) + I(奇数) + I(¬文字) + I(…)
22
52. 情報量の性質 (3)
• 滅多に起こらない出来事 (予測しにくい
出来事) の発生や,具体的な知識の獲得
などに伴って得られる情報量は大きい
• 逆に,よくある出来事 (予測しやすい出
来事) の発生や,不確かな知識・曖昧な
知識の獲得などに伴って得られる情報
量は小さい
24
69. 出来事 E が確率 P(E) で発生するとき,
E の発生に伴って得られる情報量 I(E) は
32
70. 出来事 E が確率 P(E) で発生するとき,
E の発生に伴って得られる情報量 I(E) は
1
I(E) = logb
P (E)
32
71. 出来事 E が確率 P(E) で発生するとき,
E の発生に伴って得られる情報量 I(E) は
1
I(E) = logb
P (E)
対数の底が b = 2 のとき,I(E) に [shannon]
もしくは [bit] という単位を付ける.これを
Shannon 情報量と呼ぶことがある.
32
73. 答
箱の中から取り出した玉は赤か白のどち
1
らかなので P赤 =
2
従って,得られる情報量は
1
I赤 = log2 = − log2 P赤
P赤
1
= − log2 = log2 2
2
= 1 [shannon]
34
77. 情報源
• 情報が出てくる源を情報源という
• 例: 新聞,TV,PC,人間,…
• 一般に,ひとつの情報源から出てくる
情報は様々であり,それぞれの情報が
異なる大きさの情報量を持っていても
良いはずである
35
83. Shannon エントロピー
• 情報源 S が高々可算個の情報 (出来事) E , E ,
1 2
… を持っていて,それぞれの確率が P1, P2, …
であるとする.
• このとき,情報源 S の Shannon エントロ
ピー H(S) は次式で与えられる (単位は情報量
と同じ [shannon] である).
37
84. Shannon エントロピー
• 情報源 S が高々可算個の情報 (出来事) E , E , 1 2
… を持っていて,それぞれの確率が P1, P2, …
であるとする.
• このとき,情報源 S の Shannon エントロ
ピー H(S) は次式で与えられる (単位は情報量
と同じ [shannon] である).
∞ ∞
1
H(S) = Pk I(Ek ) = Pk log2
Pk
k=1 k=1
37
85. 例題
• 箱の中に赤玉と白玉が合計 n 個入っていて,
そのうち赤玉は m 個である.
• 箱の中を見ずに玉を一個取り出したときに赤
玉が出る確率 P赤 と,白玉が出る確率 P白 を
求め,それぞれの場合の情報量 I赤 と I白 を求
めよ.
• さらに,箱のエントロピー H 箱 を求めよ.
38
86. 答
m
P赤 =
n
m n−m
P白 = 1 − P赤 = 1 − =
n n
1 n
I赤 = log2 = log2 = log2 n − log2 m [shannon]
P赤 m
1 n
I白 = log2 = log2 = log2 n − log2 (n − m)
P白 n−m
[shannon]
39
87. 答 (つづき)
H箱 = P赤 I赤 + P白 I白
m
= (log2 n − log2 m)
n
n−m
+ (log2 n − log2 (n − m))
n
m
= log2 n − log2 (n − m) − [log2 m − log2 (n − m)]
n
[shannon]
40
88. H箱 は P赤 の関数である
m
H箱 = log2 n − log2 (n − m) − [log2 m − log2 (n − m)]
n
n m m
= log2 − log2
n−m n n−m
1 P赤
= log2 − P赤 log2
P白 P白
1 P赤
= log2 − P赤 log2
1 − P赤 1 − P赤
41
89. 演習問題
• 次の関数 H(P) が P = 1/2 で最大値を示
すことを証明しなさい.
1 P
H(P ) = log2 − P log2
1−P 1−P
※ グラフを描いても証明にはならないので
注意すること
42
92. 1分子理想気体の等温圧縮
V1 V2
1
ここで V2 = V1
2
圧縮前後での気体のエントロピーと自由エ
ネルギーの変化は
∆S = −kB log 2
∆F = kB T log 2
45
103. Shannon エントロピーと
Boltzmann エントロピー
系の可能な状態数が 1/2 になるとき,系の
Boltzmann エントロピーは kB log 2 [J/K]
だけ減少し,そのとき変化する Shannon
エントロピーは 1 [shannon] である.
49
104. Shannon エントロピーと
Boltzmann エントロピー
系の可能な状態数が 1/2 になるとき,系の
Boltzmann エントロピーは kB log 2 [J/K]
だけ減少し,そのとき変化する Shannon
エントロピーは 1 [shannon] である.
1 [shannon] = kB log 2 [J/K]
49
107. エントロピーが減少?
• 熱力学第2法則
• 閉鎖系のエントロピーは減少しない
• 気体を等温圧縮したことを観測した人間まで
含めて閉鎖系として考えると,減少した気体
のエントロピーは,観測者のエントロピーを
(知識という形で) 上昇させる
50
121. 状態の増減と消費エネルギー
• 思い出そう!
• 系の状態が減少するとき,系のエントロ
ピーは減少し,系の自由エネルギーは増
加する
• 従って,計算機の論理状態が減少するとき,
計算機のエントロピーは減少し,計算機の自
由エネルギーは増加する
55
123. Landauer の原理 (1)
• コンピュータが情報量 1 [shannon] を
消去するとする.環境に放出される消
費エネルギーの量は少なくとも
kBT log 2 [J] である.ここで T はコン
ピュータの環境の温度である.
56
125. Landauer の原理 (2)
• コンピュータが情報 1 [shannon] を消
去するとする.環境のエントロピーは
少なくとも kB log 2 [J/K] だけ増加す
る.
57