SlideShare une entreprise Scribd logo
1  sur  125
Télécharger pour lire hors ligne
情報学特論#02
  2008-04-21
   むらた けんた
おしながき
• Shannon 情報量と Boltzmann エントロ
    ピー
    • 情報量の定義
    • Shannon エントロピーと Boltzmann
      エントロピー
•   可逆計算の物理学
    • 計算で必要なエネルギー


                                  2
Shannon 情報量と
Boltzmann エントロピー
      の続き




                   3
素朴な
疑 問   4
情報ってな
んだろう?
        5
分かる人
 ノシ
       6
Wikipedia
            7
広義の情報(じょうほう、英 Information)
は、人の判断・意思を左右・決定させるすべて
の事象である。 これは一定の文脈の中で意味を
持つものを広く指す概念であり、言語、貨幣、
法律、環境中の光や音、神経の発火やホルモン
などの生体シグナルを始め、あらゆるものを
「情報」とみなすことができる。たとえば、
<私>の意識にのぼるあらゆるものは、<私>に
とって意味があるものであり、<私>にとっての
「情報」であると言える。
                             8
広義の情報(じょうほう、英 Information)
は、人の判断・意思を左右・決定させるすべて
の事象である。 これは一定の文脈の中で意味を
持つものを広く指す概念であり、言語、貨幣、
法律、環境中の光や音、神経の発火やホルモン
などの生体シグナルを始め、あらゆるものを
「情報」とみなすことができる。たとえば、
<私>の意識にのぼるあらゆるものは、<私>に
とって意味があるものであり、<私>にとっての
「情報」であると言える。
                             9
広義の情報(じょうほう、英 Information)
は、人の判断・意思を左右・決定させるすべて
の事象である。 これは一定の文脈の中で意味を
持つものを広く指す概念であり、言語、貨幣、
法律、環境中の光や音、神経の発火やホルモン
などの生体シグナルを始め、あらゆるものを
「情報」とみなすことができる。たとえば、
<私>の意識にのぼるあらゆるものは、<私>に
とって意味があるものであり、<私>にとっての
「情報」であると言える。
                             10
広義の情報(じょうほう、英 Information)
は、人の判断・意思を左右・決定させるすべて
の事象である。 これは一定の文脈の中で意味を
持つものを広く指す概念であり、言語、貨幣、
法律、環境中の光や音、神経の発火やホルモン
などの生体シグナルを始め、あらゆるものを
「情報」とみなすことができる。たとえば、
<私>の意識にのぼるあらゆるものは、<私>に
とって意味があるものであり、<私>にとっての
「情報」であると言える。
                             11
広義の情報(じょうほう、英 Information)
は、人の判断・意思を左右・決定させるすべて
の事象である。 これは一定の文脈の中で意味を
持つものを広く指す概念であり、言語、貨幣、
法律、環境中の光や音、神経の発火やホルモン
などの生体シグナルを始め、あらゆるものを
「情報」とみなすことができる。たとえば、
<私>の意識にのぼるあらゆるものは、<私>に
とって意味があるものであり、<私>にとっての
「情報」であると言える。
                             12
<私>にとっての「情報」




               13
<私>にとっての「情報」



「情報」は,それを受け取る人
 によって性質が異なるもの

                 13
受信者に依存して情報の
  性質が変化する




              14
受信者に依存して情報の
  性質が変化する
• これは当たり前である




               14
受信者に依存して情報の
  性質が変化する
• これは当たり前である
• このままでは情報についての客観的な
 性質や法則を調べることはできない




                      14
受信者に依存して情報の
  性質が変化する
• これは当たり前である
• このままでは情報についての客観的な
 性質や法則を調べることはできない

• 情報の「内容」は無視し,情報の
 「量」について調べよう!


                      14
情報の「量」が持つ
  3つの性質


            15
情報量の性質 (1)




             16
情報量の性質 (1)

• 予め分かっている事を教えられたり,
 起こる可能性が100%である出来事が
 発生したとしても,それらに関する情
 報を得たことにはならない




                      16
情報量の性質 (1)

• 予め分かっている事を教えられたり,
 起こる可能性が100%である出来事が
 発生したとしても,それらに関する情
 報を得たことにはならない

• 既知情報が持つ情報量はゼロ
                      16
情報量の性質 (2)




             17
情報量の性質 (2)

• ある知識を一度に知るのか,それとも
 少しずつ複数回に分けて知るのかに
 よって,最終的に得られる情報量は変
 化しない



                      17
どういうことか?
• 52枚のトランプの山から1枚取りまし
 た.何か当ててみてください.




                       18
どういうことか?
• 52枚のトランプの山から1枚取りまし
 た.何か当ててみてください.
  (1) カードは♥7です.




                       18
どういうことか?
• 52枚のトランプの山から1枚取りまし
 た.何か当ててみてください.
  (1) カードは♥7です.
  (2) 少しずつヒントを出していく.




                       18
どういうことか?
• 52枚のトランプの山から1枚取りまし
 た.何か当ててみてください.
  (1) カードは♥7です.
  (2) 少しずつヒントを出していく.
     i. カードは赤です.




                       18
どういうことか?
• 52枚のトランプの山から1枚取りまし
 た.何か当ててみてください.
  (1) カードは♥7です.
  (2) 少しずつヒントを出していく.
     i. カードは赤です.
     ii. カードは奇数です.



                       18
どういうことか?
• 52枚のトランプの山から1枚取りまし
 た.何か当ててみてください.
  (1) カードは♥7です.
  (2) 少しずつヒントを出していく.
     i. カードは赤です.
     ii. カードは奇数です.
     iii. カードは文字ではありません.

                           18
無知




     19
無知
     ♥7




          19
無知
         ♥7




     赤


              19
無知
                  ♥7




     赤

         赤   奇数
                       19
無知
                        ♥7

         赤   奇数   ¬文字



     赤

         赤   奇数
                             19
無知
                        ♥7

         赤   奇数   ¬文字



     赤

         赤   奇数
                             19
最終的に得られる知識は同じ

無知
                        ♥7

         赤   奇数   ¬文字



     赤

         赤   奇数
                             19
知識を得る順番にも依存しない



無知           ♥7




                  20
知識を得る順番にも依存しない
             赤



無知       赤   奇数        ♥7




     赤   奇数      ¬文字
                            20
知識を得る順番にも依存しない



無知           ♥7




                  21
知識を得る順番にも依存しない
      奇数       赤



無知        奇数         ♥7




     奇数   赤    ¬文字
                          21
形式的に考える




          22
形式的に考える
• 出来事 E が発生したことで得られる情
 報の量を I(E) と書くことにする.




                        22
形式的に考える
• 出来事 E が発生したことで得られる情
 報の量を I(E) と書くことにする.

• トランプの例をこの記法で書くと次式
 のように表せる




                        22
形式的に考える
• 出来事 E が発生したことで得られる情
  報の量を I(E) と書くことにする.

• トランプの例をこの記法で書くと次式
  のように表せる
I(♥7) = I(赤   奇数    ¬文字     …)
      = I(赤) + I(奇数) + I(¬文字) + I(…)
                                       22
情報量の性質 (2)
• ある知識を一度に知るのか,それとも少しず
 つ複数回に分けて知るのかによって,最終的
 に得られる情報量は変化しない




                         23
情報量の性質 (2)
• ある知識を一度に知るのか,それとも少しず
 つ複数回に分けて知るのかによって,最終的
 に得られる情報量は変化しない

• 出来事が E = E1   ∩ E2 ∩ … のように高々可算個
 の出来事に分解できるとき




                                     23
情報量の性質 (2)
• ある知識を一度に知るのか,それとも少しず
 つ複数回に分けて知るのかによって,最終的
 に得られる情報量は変化しない

• 出来事が E = E1   ∩ E2 ∩ … のように高々可算個
 の出来事に分解できるとき
                   ∞
          I(E) =         I(Ek )
                   k=1



                                     23
情報量の加法性
• ある知識を一度に知るのか,それとも少しず
 つ複数回に分けて知るのかによって,最終的
 に得られる情報量は変化しない

• 出来事が E = E1   ∩ E2 ∩ … のように高々可算個
 の出来事に分解できるとき
                   ∞
          I(E) =         I(Ek )
                   k=1



                                     23
情報量の性質 (3)




             24
情報量の性質 (3)
• 滅多に起こらない出来事 (予測しにくい
 出来事) の発生や,具体的な知識の獲得
 などに伴って得られる情報量は大きい




                        24
情報量の性質 (3)
• 滅多に起こらない出来事 (予測しにくい
 出来事) の発生や,具体的な知識の獲得
 などに伴って得られる情報量は大きい

• 逆に,よくある出来事 (予測しやすい出
 来事) の発生や,不確かな知識・曖昧な
 知識の獲得などに伴って得られる情報
 量は小さい

                        24
トランプの逆襲




          25
トランプの逆襲
無知
                        ♥7

         赤   奇数   ¬文字



     赤

         赤   奇数
                             25
Venn 図で考える




             26
Venn 図で考える




トランプ52枚
              26
Venn 図で考える
赤




トランプ52枚
                 26
Venn 図で考える
赤




トランプ52枚      奇数
                  26
Venn 図で考える
赤    文字以外




トランプ52枚      奇数
                  26
Venn 図で考える
赤    文字以外


♥




トランプ52枚      奇数
                  26
Venn 図で考える
赤    文字以外   7


♥




トランプ52枚         奇数
                     26
Venn 図で考える
赤    文字以外        7


♥           ♥7




トランプ52枚              奇数
                          26
すなわち



       27
発生確率が小さい出来
 事の情報量は大きい

発生確率が大きい出来
 事の情報量は小さい
             28
情報量の性質
• 既知の出来事(発生確率が 100%)の発生に
 伴う情報量はゼロ
• 情報量の加法性: 出来事が E = E            1   ∩ E2 ∩ … の
 ように高々加算個の出来事に分解できるとき
                  ∞
         I(E) =         I(Ek )
                  k=1

• 情報量は出来事の発生確率に反比例
                                                  29
この性質を満
たす数学上の
道具が欲しい
         30
あるよ!
       31
32
出来事 E が確率 P(E) で発生するとき,
E の発生に伴って得られる情報量 I(E) は




                          32
出来事 E が確率 P(E) で発生するとき,
E の発生に伴って得られる情報量 I(E) は

                 1
   I(E) = logb
               P (E)


                          32
出来事 E が確率 P(E) で発生するとき,
E の発生に伴って得られる情報量 I(E) は

                   1
     I(E) = logb
                 P (E)
対数の底が b = 2 のとき,I(E) に [shannon]
もしくは [bit] という単位を付ける.これを
Shannon 情報量と呼ぶことがある.
                                   32
例題

箱に赤玉と白玉が1個ずつ入っていま
す.中身を見ずに1個だけ玉を取り出し
たとき,それが赤玉である確率 P赤 と,
そのときに得られる情報量 I赤 を求めな
さい.


                       33
答
箱の中から取り出した玉は赤か白のどち
                1
らかなので P赤 =
                2
従って,得られる情報量は
              1
   I赤 = log2      = − log2 P赤
             P赤
                1
      = − log2 = log2 2
                2
      = 1 [shannon]
                                34
情報源




      35
情報源
• 情報が出てくる源を情報源という




                    35
情報源
• 情報が出てくる源を情報源という
   • 例: 新聞,TV,PC,人間,…




                        35
情報源
• 情報が出てくる源を情報源という
   • 例: 新聞,TV,PC,人間,…
• 一般に,ひとつの情報源から出てくる
 情報は様々であり,それぞれの情報が
 異なる大きさの情報量を持っていても
 良いはずである

                        35
情報源が持つ平均情報量




              36
情報源が持つ平均情報量
情報源から出る可能性がある情報につい
て,それらの情報量を情報源全体で平均す
ると,情報源から得られる情報量の期待値
がわかる




                      36
情報源が持つ平均情報量
情報源から出る可能性がある情報につい
て,それらの情報量を情報源全体で平均す
ると,情報源から得られる情報量の期待値
がわかる




 Shannon エントロピー
                      36
Shannon エントロピー




                 37
Shannon エントロピー
• 情報源 S が高々可算個の情報 (出来事) E , E ,
                            1   2

 … を持っていて,それぞれの確率が P1, P2, …
 であるとする.




                                    37
Shannon エントロピー
• 情報源 S が高々可算個の情報 (出来事) E , E ,
                            1   2

 … を持っていて,それぞれの確率が P1, P2, …
 であるとする.
• このとき,情報源 S の Shannon エントロ
 ピー H(S) は次式で与えられる (単位は情報量
 と同じ [shannon] である).




                                    37
Shannon エントロピー
• 情報源 S が高々可算個の情報 (出来事) E , E ,             1    2

 … を持っていて,それぞれの確率が P1, P2, …
 であるとする.
• このとき,情報源 S の Shannon エントロ
 ピー H(S) は次式で与えられる (単位は情報量
 と同じ [shannon] である).
          ∞                   ∞
                                            1
 H(S) =         Pk I(Ek ) =         Pk log2
                                            Pk
          k=1                 k=1
                                                     37
例題
• 箱の中に赤玉と白玉が合計 n 個入っていて,
 そのうち赤玉は m 個である.

• 箱の中を見ずに玉を一個取り出したときに赤
 玉が出る確率 P赤 と,白玉が出る確率 P白 を
 求め,それぞれの場合の情報量 I赤 と I白 を求
 めよ.

• さらに,箱のエントロピー H   箱   を求めよ.

                               38
答
     m
P赤 =
     n
                  m   n−m
P白 = 1 − P赤 = 1 −   =
                  n    n
           1        n
I赤 = log2    = log2   = log2 n − log2 m [shannon]
          P赤        m

           1         n
I白 = log2    = log2     = log2 n − log2 (n − m)
          P白        n−m
                                          [shannon]
                                                    39
答 (つづき)

H箱 = P赤 I赤 + P白 I白
     m
   =    (log2 n − log2 m)
      n
            n−m
          +         (log2 n − log2 (n − m))
               n
                               m
   = log2 n − log2 (n − m) −     [log2 m − log2 (n − m)]
                               n
                                                 [shannon]


                                                         40
H箱 は P赤 の関数である

                              m
H箱 = log2 n − log2 (n − m) −    [log2 m − log2 (n − m)]
                              n
             n       m        m
   = log2         −    log2
          n−m        n      n−m
           1             P赤
   = log2      − P赤 log2
          P白             P白
             1                 P赤
   = log2         − P赤 log2
          1 − P赤             1 − P赤



                                                          41
演習問題
• 次の関数 H(P) が P = 1/2 で最大値を示
  すことを証明しなさい.

               1            P
 H(P ) = log2     − P log2
              1−P          1−P

※ グラフを描いても証明にはならないので
注意すること

                                 42
突然ですが

        43
前回の演習問題
 を思い出そう
          44
1分子理想気体の等温圧縮


      V1             V2
                     1
             ここで V2 = V1
                     2
圧縮前後での気体のエントロピーと自由エ
ネルギーの変化は
      ∆S = −kB log 2
      ∆F = kB T log 2
                           45
しかし…




       46
しかし…
等温圧縮では気体の内部エネルギーは変化
しないため,1個しか存在ない分子が持つ
運動エネルギーも変化しない…




                      46
しかし…
等温圧縮では気体の内部エネルギーは変化
しないため,1個しか存在ない分子が持つ
運動エネルギーも変化しない…

分子の運動状態が変化しないのにエントロ
ピーと自由エネルギーが変化した理由は,
気体の圧縮によって分子が存在可能な場所
に関する我々の知識が変化したから!

                      46
情報量との関係




          47
情報量との関係
• 気体の体積が半分になると,エントロ
 ピーが kB log 2 だけ減少する

• 気体を情報源として見たとき, 気体の
 体積が半分になることは,気体から得
 られる情報の可能性が半減したことと
 同じである

                       47
得られる情報が半減したときの
 Shannon エントロピーの変化
サイコロで考える:
(1) ふつうのサイコロ


(2) (出た目 – 1) / 2 した整数部分をとる場合 (0,
  1, 2 しか出ない)




                                    48
得られる情報が半減したときの
 Shannon エントロピーの変化
サイコロで考える:
(1) ふつうのサイコロ
         1
 H1 = 6 × log2 6 = 1 + log2 3 [shannon]
         6
(2) (出た目 – 1) / 2 した整数部分をとる場合 (0,
  1, 2 しか出ない)




                                          48
得られる情報が半減したときの
 Shannon エントロピーの変化
サイコロで考える:
(1) ふつうのサイコロ
         1
 H1 = 6 × log2 6 = 1 + log2 3 [shannon]
         6
(2) (出た目 – 1) / 2 した整数部分をとる場合 (0,
  1, 2 しか出ない)
           1
   H2 = 3 × log2 3 = log2 3 [shannon]
           3


                                          48
得られる情報が半減したときの
 Shannon エントロピーの変化
サイコロで考える:
(1) ふつうのサイコロ
         1
 H1 = 6 × log2 6 = 1 + log2 3 [shannon]
         6
(2) (出た目 – 1) / 2 した整数部分をとる場合 (0,
  1, 2 しか出ない)
           1
   H2 = 3 × log2 3 = log2 3 [shannon]
           3
     ∆H = H1 − H2 = 1 [shannon]
                                          48
Shannon エントロピーと
Boltzmann エントロピー




                   49
Shannon エントロピーと
 Boltzmann エントロピー
系の可能な状態数が 1/2 になるとき,系の
Boltzmann エントロピーは kB log 2 [J/K]
だけ減少し,そのとき変化する Shannon
エントロピーは 1 [shannon] である.




                                   49
Shannon エントロピーと
 Boltzmann エントロピー
系の可能な状態数が 1/2 になるとき,系の
Boltzmann エントロピーは kB log 2 [J/K]
だけ減少し,そのとき変化する Shannon
エントロピーは 1 [shannon] である.


     1 [shannon] = kB log 2 [J/K]


                                    49
エントロピーが減少?

• 熱力学第2法則




             50
エントロピーが減少?

• 熱力学第2法則
   • 閉鎖系のエントロピーは減少しない




                        50
エントロピーが減少?

• 熱力学第2法則
   • 閉鎖系のエントロピーは減少しない
• 気体を等温圧縮したことを観測した人間まで
 含めて閉鎖系として考えると,減少した気体
 のエントロピーは,観測者のエントロピーを
 (知識という形で) 上昇させる


                         50
可逆計算の物理学




           51
計算に必要な最小のエネルギー




                 52
計算に必要な最小のエネルギー

• 現存するすべての計算機 (CPU) は動作
 するために大量の熱を発生させている




                          52
計算に必要な最小のエネルギー

• 現存するすべての計算機 (CPU) は動作
 するために大量の熱を発生させている

• このような無駄な発熱をゼロにできる
 と仮定したとき,計算をするためだけ
 に本質的に必要なエネルギー量はどの
 くらいになるだろう?

                          52
計算機と物理学




          53
計算機と物理学
• コンピュータで行う計算について最も低いレ
 ベルで考えるとき,我々は論理回路を扱う




                         53
計算機と物理学
• コンピュータで行う計算について最も低いレ
 ベルで考えるとき,我々は論理回路を扱う

• しかしながら,論理回路で用いる論理ゲート
 は物理的に実現された素子の理想化である




                         53
計算機と物理学
• コンピュータで行う計算について最も低いレ
 ベルで考えるとき,我々は論理回路を扱う

• しかしながら,論理回路で用いる論理ゲート
 は物理的に実現された素子の理想化である

• 計算機の論理状態には必ず何らかの物理状態
 が対応している


                         53
論理状態と物理状態




            54
論理状態と物理状態

• 論理状態と物理状態が対応していると
 いうことは…




                      54
論理状態と物理状態

• 論理状態と物理状態が対応していると
 いうことは…

• 可能な論理状態の個数が増減すると
 き,同時に対応する物理状態の候補も
 増減する


                      54
状態の増減と消費エネルギー

• 思い出そう!




                55
状態の増減と消費エネルギー

• 思い出そう!
   • 系の状態が減少するとき,系のエントロ
   ピーは減少し,系の自由エネルギーは増
   加する




                          55
状態の増減と消費エネルギー

• 思い出そう!
   • 系の状態が減少するとき,系のエントロ
   ピーは減少し,系の自由エネルギーは増
   加する


• 従って,計算機の論理状態が減少するとき,
 計算機のエントロピーは減少し,計算機の自
 由エネルギーは増加する

                          55
Landauer の原理 (1)




                   56
Landauer の原理 (1)

•   コンピュータが情報量 1 [shannon] を
    消去するとする.環境に放出される消
    費エネルギーの量は少なくとも
    kBT log 2 [J] である.ここで T はコン
    ピュータの環境の温度である.


                                  56
Landauer の原理 (2)




                   57
Landauer の原理 (2)


• コンピュータが情報 1 [shannon] を消
 去するとする.環境のエントロピーは
 少なくとも kB log 2 [J/K] だけ増加す
 る.



                              57

Contenu connexe

En vedette

エロサイトを作る上での限りなくブラックに近すぎるグレー なバッドノウハウ
エロサイトを作る上での限りなくブラックに近すぎるグレー なバッドノウハウエロサイトを作る上での限りなくブラックに近すぎるグレー なバッドノウハウ
エロサイトを作る上での限りなくブラックに近すぎるグレー なバッドノウハウYusuke Wada
 
「日曜数学のススメ 」情報科学若手の会・冬の陣2015 #wakate2015w
「日曜数学のススメ 」情報科学若手の会・冬の陣2015 #wakate2015w 「日曜数学のススメ 」情報科学若手の会・冬の陣2015 #wakate2015w
「日曜数学のススメ 」情報科学若手の会・冬の陣2015 #wakate2015w Junpei Tsuji
 
クンマーの合同式とゼータ関数の左側 - 数学カフェ #mathcafe_height
クンマーの合同式とゼータ関数の左側 - 数学カフェ #mathcafe_height クンマーの合同式とゼータ関数の左側 - 数学カフェ #mathcafe_height
クンマーの合同式とゼータ関数の左側 - 数学カフェ #mathcafe_height Junpei Tsuji
 
Amortize analysis of Deque with 2 Stack
Amortize analysis of Deque with 2 StackAmortize analysis of Deque with 2 Stack
Amortize analysis of Deque with 2 StackKen Ogura
 
指数時間アルゴリズム入門
指数時間アルゴリズム入門指数時間アルゴリズム入門
指数時間アルゴリズム入門Yoichi Iwata
 
NASAゲーム(コンセンサスゲーム)
NASAゲーム(コンセンサスゲーム)NASAゲーム(コンセンサスゲーム)
NASAゲーム(コンセンサスゲーム)Jun Chiba
 
数学を数学で数学した人々
数学を数学で数学した人々数学を数学で数学した人々
数学を数学で数学した人々Akira Yamaguchi
 
SIer出身者を採用したい非SI経験+採用責任者の叫び
SIer出身者を採用したい非SI経験+採用責任者の叫びSIer出身者を採用したい非SI経験+採用責任者の叫び
SIer出身者を採用したい非SI経験+採用責任者の叫び真一 藤川
 
まだ「an+b型数」で消耗してるの?
まだ「an+b型数」で消耗してるの?まだ「an+b型数」で消耗してるの?
まだ「an+b型数」で消耗してるの?ajisaka motcho
 
野良ビッグデータへのお誘い
野良ビッグデータへのお誘い野良ビッグデータへのお誘い
野良ビッグデータへのお誘いMasanori Takano
 
チームとプロダクトをぶっ壊した話
チームとプロダクトをぶっ壊した話チームとプロダクトをぶっ壊した話
チームとプロダクトをぶっ壊した話Taichi Watanabe
 
「速」を落とさないコードレビュー
「速」を落とさないコードレビュー「速」を落とさないコードレビュー
「速」を落とさないコードレビューTakafumi ONAKA
 

En vedette (16)

エロサイトを作る上での限りなくブラックに近すぎるグレー なバッドノウハウ
エロサイトを作る上での限りなくブラックに近すぎるグレー なバッドノウハウエロサイトを作る上での限りなくブラックに近すぎるグレー なバッドノウハウ
エロサイトを作る上での限りなくブラックに近すぎるグレー なバッドノウハウ
 
Float is Legacy
Float is LegacyFloat is Legacy
Float is Legacy
 
「日曜数学のススメ 」情報科学若手の会・冬の陣2015 #wakate2015w
「日曜数学のススメ 」情報科学若手の会・冬の陣2015 #wakate2015w 「日曜数学のススメ 」情報科学若手の会・冬の陣2015 #wakate2015w
「日曜数学のススメ 」情報科学若手の会・冬の陣2015 #wakate2015w
 
計算量とオーダー
計算量とオーダー計算量とオーダー
計算量とオーダー
 
クンマーの合同式とゼータ関数の左側 - 数学カフェ #mathcafe_height
クンマーの合同式とゼータ関数の左側 - 数学カフェ #mathcafe_height クンマーの合同式とゼータ関数の左側 - 数学カフェ #mathcafe_height
クンマーの合同式とゼータ関数の左側 - 数学カフェ #mathcafe_height
 
グレブナー基底を食べよう
グレブナー基底を食べようグレブナー基底を食べよう
グレブナー基底を食べよう
 
Amortize analysis of Deque with 2 Stack
Amortize analysis of Deque with 2 StackAmortize analysis of Deque with 2 Stack
Amortize analysis of Deque with 2 Stack
 
指数時間アルゴリズム入門
指数時間アルゴリズム入門指数時間アルゴリズム入門
指数時間アルゴリズム入門
 
NASAゲーム(コンセンサスゲーム)
NASAゲーム(コンセンサスゲーム)NASAゲーム(コンセンサスゲーム)
NASAゲーム(コンセンサスゲーム)
 
数学を数学で数学した人々
数学を数学で数学した人々数学を数学で数学した人々
数学を数学で数学した人々
 
SIer出身者を採用したい非SI経験+採用責任者の叫び
SIer出身者を採用したい非SI経験+採用責任者の叫びSIer出身者を採用したい非SI経験+採用責任者の叫び
SIer出身者を採用したい非SI経験+採用責任者の叫び
 
まだ「an+b型数」で消耗してるの?
まだ「an+b型数」で消耗してるの?まだ「an+b型数」で消耗してるの?
まだ「an+b型数」で消耗してるの?
 
計算量
計算量計算量
計算量
 
野良ビッグデータへのお誘い
野良ビッグデータへのお誘い野良ビッグデータへのお誘い
野良ビッグデータへのお誘い
 
チームとプロダクトをぶっ壊した話
チームとプロダクトをぶっ壊した話チームとプロダクトをぶっ壊した話
チームとプロダクトをぶっ壊した話
 
「速」を落とさないコードレビュー
「速」を落とさないコードレビュー「速」を落とさないコードレビュー
「速」を落とさないコードレビュー
 

Plus de Kenta Murata

Introduction to ATDD with Cucumber and RSpec
Introduction to ATDD with Cucumber and RSpecIntroduction to ATDD with Cucumber and RSpec
Introduction to ATDD with Cucumber and RSpecKenta Murata
 
The world without the literal notation for floating-point numbers
The world without the literal notation for floating-point numbersThe world without the literal notation for floating-point numbers
The world without the literal notation for floating-point numbersKenta Murata
 
The world without float literal
The world without float literalThe world without float literal
The world without float literalKenta Murata
 
Ruby 1.9.3 の新機能と変更点
Ruby 1.9.3 の新機能と変更点Ruby 1.9.3 の新機能と変更点
Ruby 1.9.3 の新機能と変更点Kenta Murata
 
関数型プログラミングの世界
関数型プログラミングの世界関数型プログラミングの世界
関数型プログラミングの世界Kenta Murata
 
Let's begin Behavior Driven Development using RSpec
Let's begin Behavior Driven Development using RSpecLet's begin Behavior Driven Development using RSpec
Let's begin Behavior Driven Development using RSpecKenta Murata
 
Rubyをたのしくするために私が考えていること
Rubyをたのしくするために私が考えていることRubyをたのしくするために私が考えていること
Rubyをたのしくするために私が考えていることKenta Murata
 
Ruby の懸案事項
Ruby の懸案事項Ruby の懸案事項
Ruby の懸案事項Kenta Murata
 
5分弱で分かる量子ビット
5分弱で分かる量子ビット5分弱で分かる量子ビット
5分弱で分かる量子ビットKenta Murata
 
Rubykaigi2010mrkn bigdecimal
Rubykaigi2010mrkn bigdecimalRubykaigi2010mrkn bigdecimal
Rubykaigi2010mrkn bigdecimalKenta Murata
 
Ruby における絵文字エンコーディング間の相互変換ダイアグラム (案)
Ruby における絵文字エンコーディング間の相互変換ダイアグラム (案)Ruby における絵文字エンコーディング間の相互変換ダイアグラム (案)
Ruby における絵文字エンコーディング間の相互変換ダイアグラム (案)Kenta Murata
 
校内勉強会のススメ An encouragement to hold workshops In your school
校内勉強会のススメ An encouragement to hold workshops In your school校内勉強会のススメ An encouragement to hold workshops In your school
校内勉強会のススメ An encouragement to hold workshops In your schoolKenta Murata
 
Ruby の標準乱数生成器とその改善案
Ruby の標準乱数生成器とその改善案Ruby の標準乱数生成器とその改善案
Ruby の標準乱数生成器とその改善案Kenta Murata
 
5分で分かる Measure
5分で分かる Measure5分で分かる Measure
5分で分かる MeasureKenta Murata
 
Measure 単位付き数値ライブラリ
Measure 単位付き数値ライブラリMeasure 単位付き数値ライブラリ
Measure 単位付き数値ライブラリKenta Murata
 
Ruby 拡張モジュール入門
Ruby 拡張モジュール入門Ruby 拡張モジュール入門
Ruby 拡張モジュール入門Kenta Murata
 

Plus de Kenta Murata (16)

Introduction to ATDD with Cucumber and RSpec
Introduction to ATDD with Cucumber and RSpecIntroduction to ATDD with Cucumber and RSpec
Introduction to ATDD with Cucumber and RSpec
 
The world without the literal notation for floating-point numbers
The world without the literal notation for floating-point numbersThe world without the literal notation for floating-point numbers
The world without the literal notation for floating-point numbers
 
The world without float literal
The world without float literalThe world without float literal
The world without float literal
 
Ruby 1.9.3 の新機能と変更点
Ruby 1.9.3 の新機能と変更点Ruby 1.9.3 の新機能と変更点
Ruby 1.9.3 の新機能と変更点
 
関数型プログラミングの世界
関数型プログラミングの世界関数型プログラミングの世界
関数型プログラミングの世界
 
Let's begin Behavior Driven Development using RSpec
Let's begin Behavior Driven Development using RSpecLet's begin Behavior Driven Development using RSpec
Let's begin Behavior Driven Development using RSpec
 
Rubyをたのしくするために私が考えていること
Rubyをたのしくするために私が考えていることRubyをたのしくするために私が考えていること
Rubyをたのしくするために私が考えていること
 
Ruby の懸案事項
Ruby の懸案事項Ruby の懸案事項
Ruby の懸案事項
 
5分弱で分かる量子ビット
5分弱で分かる量子ビット5分弱で分かる量子ビット
5分弱で分かる量子ビット
 
Rubykaigi2010mrkn bigdecimal
Rubykaigi2010mrkn bigdecimalRubykaigi2010mrkn bigdecimal
Rubykaigi2010mrkn bigdecimal
 
Ruby における絵文字エンコーディング間の相互変換ダイアグラム (案)
Ruby における絵文字エンコーディング間の相互変換ダイアグラム (案)Ruby における絵文字エンコーディング間の相互変換ダイアグラム (案)
Ruby における絵文字エンコーディング間の相互変換ダイアグラム (案)
 
校内勉強会のススメ An encouragement to hold workshops In your school
校内勉強会のススメ An encouragement to hold workshops In your school校内勉強会のススメ An encouragement to hold workshops In your school
校内勉強会のススメ An encouragement to hold workshops In your school
 
Ruby の標準乱数生成器とその改善案
Ruby の標準乱数生成器とその改善案Ruby の標準乱数生成器とその改善案
Ruby の標準乱数生成器とその改善案
 
5分で分かる Measure
5分で分かる Measure5分で分かる Measure
5分で分かる Measure
 
Measure 単位付き数値ライブラリ
Measure 単位付き数値ライブラリMeasure 単位付き数値ライブラリ
Measure 単位付き数値ライブラリ
 
Ruby 拡張モジュール入門
Ruby 拡張モジュール入門Ruby 拡張モジュール入門
Ruby 拡張モジュール入門
 

Dernier

HCCソフト株式会社 2025年新卒採用向け 会社紹介・採用情報資料------
HCCソフト株式会社 2025年新卒採用向け 会社紹介・採用情報資料------HCCソフト株式会社 2025年新卒採用向け 会社紹介・採用情報資料------
HCCソフト株式会社 2025年新卒採用向け 会社紹介・採用情報資料------ssusercbaf23
 
20240424 zaim academy counseling lesson .pdf
20240424 zaim academy counseling lesson .pdf20240424 zaim academy counseling lesson .pdf
20240424 zaim academy counseling lesson .pdfssuser80a51f
 
第15回販促コンペ 審査員個人賞(林 知幸 氏) アルカナ? アディダスジャパン
第15回販促コンペ 審査員個人賞(林 知幸 氏) アルカナ? アディダスジャパン第15回販促コンペ 審査員個人賞(林 知幸 氏) アルカナ? アディダスジャパン
第15回販促コンペ 審査員個人賞(林 知幸 氏) アルカナ? アディダスジャパンYusuke Katsuma
 
株式会社AllAdsと申します。サービス紹介資料で御座いますので、是非ご覧くださいませ。
株式会社AllAdsと申します。サービス紹介資料で御座いますので、是非ご覧くださいませ。株式会社AllAdsと申します。サービス紹介資料で御座いますので、是非ご覧くださいませ。
株式会社AllAdsと申します。サービス紹介資料で御座いますので、是非ご覧くださいませ。takuyamatsumoto29
 
chouhou_obuse_reiwa6nenn_4_2404slide.pdf
chouhou_obuse_reiwa6nenn_4_2404slide.pdfchouhou_obuse_reiwa6nenn_4_2404slide.pdf
chouhou_obuse_reiwa6nenn_4_2404slide.pdfssuser31dbd1
 
JAPAN WEB3.0 AWARD 2023 ブロックチェーン(NFT)技術を活用したアイディア 優秀賞作品 遺3.0相続
JAPAN WEB3.0 AWARD 2023 ブロックチェーン(NFT)技術を活用したアイディア 優秀賞作品 遺3.0相続JAPAN WEB3.0 AWARD 2023 ブロックチェーン(NFT)技術を活用したアイディア 優秀賞作品 遺3.0相続
JAPAN WEB3.0 AWARD 2023 ブロックチェーン(NFT)技術を活用したアイディア 優秀賞作品 遺3.0相続Yusuke Katsuma
 
コダワリ抜いた経営指南書(概要版) - コダワリ・ビジネス・コンサルティング株式会社
コダワリ抜いた経営指南書(概要版) - コダワリ・ビジネス・コンサルティング株式会社コダワリ抜いた経営指南書(概要版) - コダワリ・ビジネス・コンサルティング株式会社
コダワリ抜いた経営指南書(概要版) - コダワリ・ビジネス・コンサルティング株式会社hmoriyama
 

Dernier (10)

HCCソフト株式会社 2025年新卒採用向け 会社紹介・採用情報資料------
HCCソフト株式会社 2025年新卒採用向け 会社紹介・採用情報資料------HCCソフト株式会社 2025年新卒採用向け 会社紹介・採用情報資料------
HCCソフト株式会社 2025年新卒採用向け 会社紹介・採用情報資料------
 
20240424 zaim academy counseling lesson .pdf
20240424 zaim academy counseling lesson .pdf20240424 zaim academy counseling lesson .pdf
20240424 zaim academy counseling lesson .pdf
 
第15回販促コンペ 審査員個人賞(林 知幸 氏) アルカナ? アディダスジャパン
第15回販促コンペ 審査員個人賞(林 知幸 氏) アルカナ? アディダスジャパン第15回販促コンペ 審査員個人賞(林 知幸 氏) アルカナ? アディダスジャパン
第15回販促コンペ 審査員個人賞(林 知幸 氏) アルカナ? アディダスジャパン
 
株式会社AllAdsと申します。サービス紹介資料で御座いますので、是非ご覧くださいませ。
株式会社AllAdsと申します。サービス紹介資料で御座いますので、是非ご覧くださいませ。株式会社AllAdsと申します。サービス紹介資料で御座いますので、是非ご覧くださいませ。
株式会社AllAdsと申します。サービス紹介資料で御座いますので、是非ご覧くださいませ。
 
chouhou_obuse_reiwa6nenn_4_2404slide.pdf
chouhou_obuse_reiwa6nenn_4_2404slide.pdfchouhou_obuse_reiwa6nenn_4_2404slide.pdf
chouhou_obuse_reiwa6nenn_4_2404slide.pdf
 
Japan IT Week 2024 Brochure by 47Billion
Japan IT Week 2024 Brochure by 47BillionJapan IT Week 2024 Brochure by 47Billion
Japan IT Week 2024 Brochure by 47Billion
 
JAPAN WEB3.0 AWARD 2023 ブロックチェーン(NFT)技術を活用したアイディア 優秀賞作品 遺3.0相続
JAPAN WEB3.0 AWARD 2023 ブロックチェーン(NFT)技術を活用したアイディア 優秀賞作品 遺3.0相続JAPAN WEB3.0 AWARD 2023 ブロックチェーン(NFT)技術を活用したアイディア 優秀賞作品 遺3.0相続
JAPAN WEB3.0 AWARD 2023 ブロックチェーン(NFT)技術を活用したアイディア 優秀賞作品 遺3.0相続
 
コダワリ抜いた経営指南書(概要版) - コダワリ・ビジネス・コンサルティング株式会社
コダワリ抜いた経営指南書(概要版) - コダワリ・ビジネス・コンサルティング株式会社コダワリ抜いた経営指南書(概要版) - コダワリ・ビジネス・コンサルティング株式会社
コダワリ抜いた経営指南書(概要版) - コダワリ・ビジネス・コンサルティング株式会社
 
company profile
company profilecompany profile
company profile
 
KestrelPro Flyer Japan IT Week 2024 (Japanese)
KestrelPro Flyer Japan IT Week 2024 (Japanese)KestrelPro Flyer Japan IT Week 2024 (Japanese)
KestrelPro Flyer Japan IT Week 2024 (Japanese)
 

情報学特論#02