11. シャノンの定理の予備知識 ~相互情報量~
11
AWGNチャネル:Addaptive White Gaussian Noise チャネル
送信X 受信Y = X+N
ガウス雑音N
1,2,3,4… 1.1, 2.2 ,2.9 ,4…
Y X
( ; ) ( ) ( | )
X,Y (Mutual Information)
"
MI
I X Y H X H X Y
MI
X
を知った時に のあいまいさが
どれぐらい減ったか?が通信に成功した情報量
間の相互情報量 という
もし について知れるだけ知る努力(*)"をすれば
達成される通信速度は に漸近する。
(*)専門的には事後確率分布p(x|y)の最大化問題(MAP推定)を解く
12. シャノンの定理(1)
12
( )
( ( ))
p x
MI p x
■広義のシャノンの定理
与えられた入力信号の確率分布 で,
(1)符号長が無限に大きい極限で,
(2)指数時間かかる復号を許すならば,
伝送速度は相互情報量 に等しくできる。
知れるだけ
知る努力をする
13. シャノンの定理(1)
13
( )
( ( ))
p x
MI p x
■広義のシャノンの定理
与えられた入力信号の確率分布 で,
(1)符号長が無限に大きい極限で,
(2)指数時間かかる復号を許すならば,
伝送速度は相互情報量 に等しくできる。
p(x) MIを変数とみたときの の最大値が
「絶対に突破できない通信速度の上限」
知れるだけ
知る努力をする
14. シャノンの定理(2)
14
2
2 2( )
max ( ; ) log 1 , ( )X
p x
N
I X Y p x
このとき はガウス分布
【“いわゆる”シャノンの定理】
“シャノンリミット”
Ref. Demonstration of a variable data-rate free-space optical communication architecture using efficient coherent techniques
ギャップが存在
∵p(x)がガウスじゃない
“Shaping”は[0/1]のランダム分布をガウス分布に変換する技
16. 未解決問題(Open problem)
16
( )
( ( ))
p x
MI p x
■広義のシャノンの定理
与えられた入力信号の確率分布 で,
(1)符号長が無限に大きい極限で,
(2)指数時間かかる復号を許すならば,
伝送速度は相互情報量 に等しくできる。
相互情報量に到達する通信は既に実現できたのか?
知れるだけ
知る努力をする
17. 未解決問題(Open problem)
17
( )
( ( ))
p x
MI p x
■広義のシャノンの定理
与えられた入力信号の確率分布 で,
(1)符号長が無限に大きい極限で,
(2)指数時間かかる復号を許すならば,
伝送速度は相互情報量 に等しくできる。
相互情報量に到達する通信は既に実現できたのか?
→未だ実現できていない
18. 未解決問題(Open problem)
18
1. 有限の符号長では?
2. 多項式時間(特に”N”)の復号では?
3. AWGN以外の通信路では?
( )
( ( ))
p x
MI p x
■広義のシャノンの定理
与えられた入力信号の確率分布 で,
(1)符号長が無限に大きい極限で,
(2)指数時間かかる復号を許すならば,
伝送速度は相互情報量 に等しくできる。