SlideShare une entreprise Scribd logo
1  sur  21
Télécharger pour lire hors ligne
成長しないネットワークモデル
   第6章では主にネットワークにエッジを持った
    ノードが逐次加入してくるようなモデルを考え
    た
     例えばWWWにおいて新規にWebページが作成され
    既存のページにリンクを貼ったり、貼られたりと
    いった関係を表している
   本章ではネットワークのノードが固定されたモ
    デルを考える
     例えば学校のクラス内の人間関係のネットワークが
    相当する(転校などがなければ基本的にクラス内の
    ノードは固定されたものになる)
本章で扱うモデルの仮定
   ネットワークの枝の切り替えは考えない
     例えばクラスの人間関係ネットワークでは新た
      に交友関係が生まれることも考えられるが、こ
      こではこれは考慮しない
     理由としては解析がしやすいというのがある
今日の話
   7.1から7.3の3つのネットワークモデルにつ
    いて紹介する
     7.4は微妙に6章の話が入ってるので次回
7.1 コンフィグモデル
 頂点数Nを固定する
                    𝑁−1
 次数分布𝑃 = 𝑝 𝑘 𝑘=0 を考える
 各ノードの次数を𝑃から発生させ、N個の次
  数𝑘1 , … , 𝑘 𝑁 を得る
 各頂点の次数が与えられた次数と一致する
  ようにネットワークを作成する
次数からのネットワークの作成
   例えばN=4のとき次数が(2,2,1,1)のネット
    ワークは下のようなものが例として挙げら
    れる
次数からのネットワークの作成
   与えられた次数からネットワークを作成す
    るにはHavel-Hakimiのアルゴリズムが利用
    できる
     http://en.wikipedia.org/wiki/Degree_(graph_theor
      y)
     これは次数の大きいノードから次に次数が大き
      いノードに対して貪欲にエッジを貼っていくア
      ルゴリズムである
     このアルゴリズムにより与えられた次数を持つ
      ネットワークが存在する場合は必ず構成できる
コンフィグモデルの特徴
 次数分布をべき則にすればスケールフリー
  ネットワークを構成できる
 ランダムグラフの拡張になっている
 次数相関はない
 次数分布を考慮した平均場近似があてはま
  る
コンフィグモデルの平均距離
   𝑁 → ∞で< 𝑘 2 >が存在するとき
                        𝑁
                  log
                      <𝑘>
     𝐿 =1+       <𝑘 2 >−<𝑘>
               log <𝑘>

   また次数分布がスケールフリーで𝑝 𝑘 ∝
    𝑘 −𝛾 のとき
     𝐿 = log log 𝑁 (2 < 𝛾 < 3)
     𝐿 = log 𝑁 / log log 𝑁 (𝛾 = 3)
     𝐿 = log 𝑁 (𝛾 > 3)
コンフィグモデルのクラスタ係数
   ランダムグラフと同様に頂点𝑣の2つの隣接点𝑣 ′ , 𝑣′′を考
    えた時に2頂点の間に枝が張られる確率がクラスタ係数に
    なる
   今𝑣′の次数を𝑘′, 𝑣′′の次数を𝑘′′とすると𝑘 ′ − 1本の枝のう
                                ′    𝑘 ′′ −1
    ちどれか一本が𝑣′′につながる確率は約(𝑘 −1)
                                                <𝑘>𝑁
                                            𝑘′ 𝑝 𝑘′
   また(2.7)式より𝑣′の次数が𝑘′である確率は                      , 𝑣′′の次
                                            <𝑘>
                          𝑘 ′′   𝑝   𝑘 ′′
    数が𝑘′′である確率は
                      <𝑘>
   これを𝑘  ′ , 𝑘′′に渡って平均すると

                      2
         <𝑘 2 >−<𝑘>
   𝐶=
           <𝑘>3 𝑁
コンフィグモデルのクラスタ係数
                  <𝑘>
 次数分布がポアソン分布の場合𝐶 =  とな
                   𝑁
  りランダムグラフの結果と一致する
 スケールフリーの場合はCはやや大きくなる
  が、𝑁 −1 の項があり小さいと思って良い
レギュラーランダムグラフ
 コンフィグモデルで各点の次数が必ず𝑘0 で
  あるようなものをレギュラーランダムグラ
  フと呼ぶ
 これはランダムグラフに見られるような次
  数の散らばりがないため、次数が散らばる
  ことの影響を調べたい時に比較対象として
  用いられる
7.2 一般の次数分布を持つ木
 コンフィグモデル同様に一般の次数分布を
  持つ木を作成できる
 一般化ランダムグラフと呼ばれることがあ
  るが、ランダムグラフの一般化にはなって
  いない
 次数分布がべき則の場合はスケールフリー
  木と呼ばれることもある
作り方
   次数分布{𝑝 0 , 𝑝 1 , … }を決める
     孤立点は無いものとするので𝑝 0 = 0
 頂点𝑣1 をおき、 𝑣1 の次数𝑘1 を確率𝑝(𝑘1 )で決
  める
 𝑣1 の頂点から𝑘1 本の枝をつなぎ、それぞれ
  の枝の先に新しい頂点をおく
 それぞれの頂点の先に(決められた次数-1)本
  の枝をおき、再帰的に木を構成する
ゴルドンワトソン過程
 個体の繁殖など表すモデルでゴルドンワト
  ソン過程があり、これは一般の次数を持つ
  木とほぼ同じである
 1. 1個体が何個体かの子を産んで死ぬ
 2. 生まれた子は次世代の親となり、やはり
  何個体か産んで死ぬ
 3. 次の世代が子を産み、同様の過程を繰り
  返す
 これからでる系譜図が木に対応する
集団の発展
 ゴルドンワトソン過程においての関心とし
  ては世代を経ていくうちに集団が生き残る
  かどうかである
 ∑ 𝑘 − 1 𝑝 𝑘 > 1となるときに限って集団は
  生き残りうる
 ネットワークの話題に戻ると平均次数< 𝑘 >
  が2より大きければ一般の次数分布をもつ木
  は無限に遠くまで広がりうる
7.3 GohモデルとChung-Luモ
デル
   Gohモデルの作り方は以下のようになる
   1. 頂点数𝑁と平均次数< 𝑘 >を決める
   2. 頂点𝑣 𝑖 に重み𝑤 𝑖 = 𝑖 −𝛼 (1 ≤ 𝑖 ≤ 𝑁)を割り当て
    る
   3. 𝑁頂点の中から𝑤 𝑖 に比例する確率で頂点𝑣 𝑖 , 𝑣 𝑗
    を選択する
   4. 𝑣 𝑖 , 𝑣 𝑗 がまだ隣接していないなら2つをつなげ
    る
   5. ステップ3,4を枝が合計< 𝑘 > 𝑁/2本になる
    まで繰り返す
Gohモデルの特徴
   𝑣 𝑖 の次数𝑘 𝑖 はステップ3で𝑣 𝑖 が選ばれる確率
    に比例し
     𝑘 𝑖 ∝ 𝑝 𝑖 ∝ 𝑖 −𝛼
   これと(2.1.3)より次数分布はべき則
                                 1
     𝑝 𝑘 ∝     𝑘 −𝛾 ,   𝛾 =1+     となる
                                 𝛼
 Lは小さく、Cも小さい
 また次数相関は負になる
     これはハブに枝が集中しやすいことからである
Chung-Luモデル
   Gohモデル同様に各頂点は𝑤 𝑖 をもち、𝑣 𝑖 , 𝑣 𝑗
        𝑤𝑖 𝑤𝑗
    を確率∑ でつなぐ
         𝑙   𝑤𝑙
     Gohモデルよりも数学的に解析しやすい
     確率は1以下になると仮定する
                   𝑤𝑖 𝑤 𝑗
     Gohモデルでは約             2   となっていた
                  ∑𝑙 𝑤𝑙
Chung-LuモデルにおけるL
   コンフィグモデルと同様に次数がべき分布
    のとき
     𝐿 = log log 𝑁 (2 < 𝛾 < 3)
     𝐿 = log 𝑁 / log log 𝑁 (𝛾 = 3)
     𝐿 = log 𝑁 (𝛾 > 3)
隣接行列の固有値
   Chung-Luモデルにおける固有値の分布もべ
    き則に従うことが知られている
     𝜌 𝜆 ∝ 𝜆−2𝛾−1
   Gohモデルについても、レプリカ法という
    手法によって同様の式が成り立つことが知
    られている

Contenu connexe

Similaire à Complex network-reading 7

Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル)Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル). .
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)Takao Yamanaka
 
パターン認識 第10章 決定木
パターン認識 第10章 決定木 パターン認識 第10章 決定木
パターン認識 第10章 決定木 Miyoshi Yuya
 
PRML復々習レーン#11
PRML復々習レーン#11PRML復々習レーン#11
PRML復々習レーン#11Takuya Fukagai
 
TensorFlow math ja 05 word2vec
TensorFlow math ja 05 word2vecTensorFlow math ja 05 word2vec
TensorFlow math ja 05 word2vecShin Asakawa
 
LLM は数学を理解しているのか?
LLM は数学を理解しているのか?LLM は数学を理解しているのか?
LLM は数学を理解しているのか?Hide Koba
 
PRML 上 1.2.4 ~ 1.2.6
PRML 上 1.2.4 ~ 1.2.6PRML 上 1.2.4 ~ 1.2.6
PRML 上 1.2.4 ~ 1.2.6禎晃 山崎
 
自然科学の統計学2.2 slideshare
自然科学の統計学2.2 slideshare自然科学の統計学2.2 slideshare
自然科学の統計学2.2 slidesharewada, kazumi
 
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient DescentRyutaro Yamauchi
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデルMasahiro Suzuki
 
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)Koji Matsuda
 
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)Masahiro Suzuki
 
はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半koba cky
 
Big Data Bootstrap (ICML読み会)
Big Data Bootstrap (ICML読み会)Big Data Bootstrap (ICML読み会)
Big Data Bootstrap (ICML読み会)正志 坪坂
 
トピックモデル
トピックモデルトピックモデル
トピックモデル貴之 八木
 

Similaire à Complex network-reading 7 (18)

Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル)Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル)
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
 
パターン認識 第10章 決定木
パターン認識 第10章 決定木 パターン認識 第10章 決定木
パターン認識 第10章 決定木
 
PRML復々習レーン#11
PRML復々習レーン#11PRML復々習レーン#11
PRML復々習レーン#11
 
TensorFlow math ja 05 word2vec
TensorFlow math ja 05 word2vecTensorFlow math ja 05 word2vec
TensorFlow math ja 05 word2vec
 
M1 gp_Disco
M1 gp_DiscoM1 gp_Disco
M1 gp_Disco
 
LLM は数学を理解しているのか?
LLM は数学を理解しているのか?LLM は数学を理解しているのか?
LLM は数学を理解しているのか?
 
PRML 上 1.2.4 ~ 1.2.6
PRML 上 1.2.4 ~ 1.2.6PRML 上 1.2.4 ~ 1.2.6
PRML 上 1.2.4 ~ 1.2.6
 
0712-2
0712-20712-2
0712-2
 
自然科学の統計学2.2 slideshare
自然科学の統計学2.2 slideshare自然科学の統計学2.2 slideshare
自然科学の統計学2.2 slideshare
 
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデル
 
KDD2014 勉強会
KDD2014 勉強会KDD2014 勉強会
KDD2014 勉強会
 
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)
 
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)
 
はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半
 
Big Data Bootstrap (ICML読み会)
Big Data Bootstrap (ICML読み会)Big Data Bootstrap (ICML読み会)
Big Data Bootstrap (ICML読み会)
 
トピックモデル
トピックモデルトピックモデル
トピックモデル
 

Plus de 正志 坪坂

KDD 2016勉強会 Deep crossing
KDD 2016勉強会 Deep crossingKDD 2016勉強会 Deep crossing
KDD 2016勉強会 Deep crossing正志 坪坂
 
Deeplearning輪読会
Deeplearning輪読会Deeplearning輪読会
Deeplearning輪読会正志 坪坂
 
WSDM 2016勉強会 Geographic Segmentation via latent factor model
WSDM 2016勉強会 Geographic Segmentation via latent factor modelWSDM 2016勉強会 Geographic Segmentation via latent factor model
WSDM 2016勉強会 Geographic Segmentation via latent factor model正志 坪坂
 
Deeplearning勉強会20160220
Deeplearning勉強会20160220Deeplearning勉強会20160220
Deeplearning勉強会20160220正志 坪坂
 
OnlineMatching勉強会第一回
OnlineMatching勉強会第一回OnlineMatching勉強会第一回
OnlineMatching勉強会第一回正志 坪坂
 
Tokyowebmining ctr-predict
Tokyowebmining ctr-predictTokyowebmining ctr-predict
Tokyowebmining ctr-predict正志 坪坂
 
Riak Search 2.0を使ったデータ集計
Riak Search 2.0を使ったデータ集計Riak Search 2.0を使ったデータ集計
Riak Search 2.0を使ったデータ集計正志 坪坂
 
Contexual bandit @TokyoWebMining
Contexual bandit @TokyoWebMiningContexual bandit @TokyoWebMining
Contexual bandit @TokyoWebMining正志 坪坂
 
Introduction to contexual bandit
Introduction to contexual banditIntroduction to contexual bandit
Introduction to contexual bandit正志 坪坂
 
確率モデルを使ったグラフクラスタリング
確率モデルを使ったグラフクラスタリング確率モデルを使ったグラフクラスタリング
確率モデルを使ったグラフクラスタリング正志 坪坂
 
static index pruningについて
static index pruningについてstatic index pruningについて
static index pruningについて正志 坪坂
 

Plus de 正志 坪坂 (20)

Recsys2018 unbiased
Recsys2018 unbiasedRecsys2018 unbiased
Recsys2018 unbiased
 
WSDM2018Study
WSDM2018StudyWSDM2018Study
WSDM2018Study
 
Recsys2016勉強会
Recsys2016勉強会Recsys2016勉強会
Recsys2016勉強会
 
KDD 2016勉強会 Deep crossing
KDD 2016勉強会 Deep crossingKDD 2016勉強会 Deep crossing
KDD 2016勉強会 Deep crossing
 
Deeplearning輪読会
Deeplearning輪読会Deeplearning輪読会
Deeplearning輪読会
 
WSDM 2016勉強会 Geographic Segmentation via latent factor model
WSDM 2016勉強会 Geographic Segmentation via latent factor modelWSDM 2016勉強会 Geographic Segmentation via latent factor model
WSDM 2016勉強会 Geographic Segmentation via latent factor model
 
Deeplearning勉強会20160220
Deeplearning勉強会20160220Deeplearning勉強会20160220
Deeplearning勉強会20160220
 
OnlineMatching勉強会第一回
OnlineMatching勉強会第一回OnlineMatching勉強会第一回
OnlineMatching勉強会第一回
 
Recsys2015
Recsys2015Recsys2015
Recsys2015
 
KDD 2015読み会
KDD 2015読み会KDD 2015読み会
KDD 2015読み会
 
Recsys2014 recruit
Recsys2014 recruitRecsys2014 recruit
Recsys2014 recruit
 
EMNLP2014_reading
EMNLP2014_readingEMNLP2014_reading
EMNLP2014_reading
 
Tokyowebmining ctr-predict
Tokyowebmining ctr-predictTokyowebmining ctr-predict
Tokyowebmining ctr-predict
 
KDD2014_study
KDD2014_study KDD2014_study
KDD2014_study
 
Riak Search 2.0を使ったデータ集計
Riak Search 2.0を使ったデータ集計Riak Search 2.0を使ったデータ集計
Riak Search 2.0を使ったデータ集計
 
Contexual bandit @TokyoWebMining
Contexual bandit @TokyoWebMiningContexual bandit @TokyoWebMining
Contexual bandit @TokyoWebMining
 
Introduction to contexual bandit
Introduction to contexual banditIntroduction to contexual bandit
Introduction to contexual bandit
 
確率モデルを使ったグラフクラスタリング
確率モデルを使ったグラフクラスタリング確率モデルを使ったグラフクラスタリング
確率モデルを使ったグラフクラスタリング
 
Tokyowebmining2012
Tokyowebmining2012Tokyowebmining2012
Tokyowebmining2012
 
static index pruningについて
static index pruningについてstatic index pruningについて
static index pruningについて
 

Complex network-reading 7

  • 1.
  • 2. 成長しないネットワークモデル  第6章では主にネットワークにエッジを持った ノードが逐次加入してくるようなモデルを考え た  例えばWWWにおいて新規にWebページが作成され 既存のページにリンクを貼ったり、貼られたりと いった関係を表している  本章ではネットワークのノードが固定されたモ デルを考える  例えば学校のクラス内の人間関係のネットワークが 相当する(転校などがなければ基本的にクラス内の ノードは固定されたものになる)
  • 3. 本章で扱うモデルの仮定  ネットワークの枝の切り替えは考えない  例えばクラスの人間関係ネットワークでは新た に交友関係が生まれることも考えられるが、こ こではこれは考慮しない  理由としては解析がしやすいというのがある
  • 4. 今日の話  7.1から7.3の3つのネットワークモデルにつ いて紹介する  7.4は微妙に6章の話が入ってるので次回
  • 5. 7.1 コンフィグモデル  頂点数Nを固定する 𝑁−1  次数分布𝑃 = 𝑝 𝑘 𝑘=0 を考える  各ノードの次数を𝑃から発生させ、N個の次 数𝑘1 , … , 𝑘 𝑁 を得る  各頂点の次数が与えられた次数と一致する ようにネットワークを作成する
  • 6. 次数からのネットワークの作成  例えばN=4のとき次数が(2,2,1,1)のネット ワークは下のようなものが例として挙げら れる
  • 7. 次数からのネットワークの作成  与えられた次数からネットワークを作成す るにはHavel-Hakimiのアルゴリズムが利用 できる  http://en.wikipedia.org/wiki/Degree_(graph_theor y)  これは次数の大きいノードから次に次数が大き いノードに対して貪欲にエッジを貼っていくア ルゴリズムである  このアルゴリズムにより与えられた次数を持つ ネットワークが存在する場合は必ず構成できる
  • 8. コンフィグモデルの特徴  次数分布をべき則にすればスケールフリー ネットワークを構成できる  ランダムグラフの拡張になっている  次数相関はない  次数分布を考慮した平均場近似があてはま る
  • 9. コンフィグモデルの平均距離  𝑁 → ∞で< 𝑘 2 >が存在するとき 𝑁 log <𝑘>  𝐿 =1+ <𝑘 2 >−<𝑘> log <𝑘>  また次数分布がスケールフリーで𝑝 𝑘 ∝ 𝑘 −𝛾 のとき  𝐿 = log log 𝑁 (2 < 𝛾 < 3)  𝐿 = log 𝑁 / log log 𝑁 (𝛾 = 3)  𝐿 = log 𝑁 (𝛾 > 3)
  • 10. コンフィグモデルのクラスタ係数  ランダムグラフと同様に頂点𝑣の2つの隣接点𝑣 ′ , 𝑣′′を考 えた時に2頂点の間に枝が張られる確率がクラスタ係数に なる  今𝑣′の次数を𝑘′, 𝑣′′の次数を𝑘′′とすると𝑘 ′ − 1本の枝のう ′ 𝑘 ′′ −1 ちどれか一本が𝑣′′につながる確率は約(𝑘 −1) <𝑘>𝑁 𝑘′ 𝑝 𝑘′  また(2.7)式より𝑣′の次数が𝑘′である確率は , 𝑣′′の次 <𝑘> 𝑘 ′′ 𝑝 𝑘 ′′ 数が𝑘′′である確率は <𝑘>  これを𝑘 ′ , 𝑘′′に渡って平均すると 2 <𝑘 2 >−<𝑘>  𝐶= <𝑘>3 𝑁
  • 11. コンフィグモデルのクラスタ係数 <𝑘>  次数分布がポアソン分布の場合𝐶 = とな 𝑁 りランダムグラフの結果と一致する  スケールフリーの場合はCはやや大きくなる が、𝑁 −1 の項があり小さいと思って良い
  • 12. レギュラーランダムグラフ  コンフィグモデルで各点の次数が必ず𝑘0 で あるようなものをレギュラーランダムグラ フと呼ぶ  これはランダムグラフに見られるような次 数の散らばりがないため、次数が散らばる ことの影響を調べたい時に比較対象として 用いられる
  • 13. 7.2 一般の次数分布を持つ木  コンフィグモデル同様に一般の次数分布を 持つ木を作成できる  一般化ランダムグラフと呼ばれることがあ るが、ランダムグラフの一般化にはなって いない  次数分布がべき則の場合はスケールフリー 木と呼ばれることもある
  • 14. 作り方  次数分布{𝑝 0 , 𝑝 1 , … }を決める  孤立点は無いものとするので𝑝 0 = 0  頂点𝑣1 をおき、 𝑣1 の次数𝑘1 を確率𝑝(𝑘1 )で決 める  𝑣1 の頂点から𝑘1 本の枝をつなぎ、それぞれ の枝の先に新しい頂点をおく  それぞれの頂点の先に(決められた次数-1)本 の枝をおき、再帰的に木を構成する
  • 15. ゴルドンワトソン過程  個体の繁殖など表すモデルでゴルドンワト ソン過程があり、これは一般の次数を持つ 木とほぼ同じである  1. 1個体が何個体かの子を産んで死ぬ  2. 生まれた子は次世代の親となり、やはり 何個体か産んで死ぬ  3. 次の世代が子を産み、同様の過程を繰り 返す  これからでる系譜図が木に対応する
  • 16. 集団の発展  ゴルドンワトソン過程においての関心とし ては世代を経ていくうちに集団が生き残る かどうかである  ∑ 𝑘 − 1 𝑝 𝑘 > 1となるときに限って集団は 生き残りうる  ネットワークの話題に戻ると平均次数< 𝑘 > が2より大きければ一般の次数分布をもつ木 は無限に遠くまで広がりうる
  • 17. 7.3 GohモデルとChung-Luモ デル  Gohモデルの作り方は以下のようになる  1. 頂点数𝑁と平均次数< 𝑘 >を決める  2. 頂点𝑣 𝑖 に重み𝑤 𝑖 = 𝑖 −𝛼 (1 ≤ 𝑖 ≤ 𝑁)を割り当て る  3. 𝑁頂点の中から𝑤 𝑖 に比例する確率で頂点𝑣 𝑖 , 𝑣 𝑗 を選択する  4. 𝑣 𝑖 , 𝑣 𝑗 がまだ隣接していないなら2つをつなげ る  5. ステップ3,4を枝が合計< 𝑘 > 𝑁/2本になる まで繰り返す
  • 18. Gohモデルの特徴  𝑣 𝑖 の次数𝑘 𝑖 はステップ3で𝑣 𝑖 が選ばれる確率 に比例し  𝑘 𝑖 ∝ 𝑝 𝑖 ∝ 𝑖 −𝛼  これと(2.1.3)より次数分布はべき則 1  𝑝 𝑘 ∝ 𝑘 −𝛾 , 𝛾 =1+ となる 𝛼  Lは小さく、Cも小さい  また次数相関は負になる  これはハブに枝が集中しやすいことからである
  • 19. Chung-Luモデル  Gohモデル同様に各頂点は𝑤 𝑖 をもち、𝑣 𝑖 , 𝑣 𝑗 𝑤𝑖 𝑤𝑗 を確率∑ でつなぐ 𝑙 𝑤𝑙  Gohモデルよりも数学的に解析しやすい  確率は1以下になると仮定する 𝑤𝑖 𝑤 𝑗  Gohモデルでは約 2 となっていた ∑𝑙 𝑤𝑙
  • 20. Chung-LuモデルにおけるL  コンフィグモデルと同様に次数がべき分布 のとき  𝐿 = log log 𝑁 (2 < 𝛾 < 3)  𝐿 = log 𝑁 / log log 𝑁 (𝛾 = 3)  𝐿 = log 𝑁 (𝛾 > 3)
  • 21. 隣接行列の固有値  Chung-Luモデルにおける固有値の分布もべ き則に従うことが知られている  𝜌 𝜆 ∝ 𝜆−2𝛾−1  Gohモデルについても、レプリカ法という 手法によって同様の式が成り立つことが知 られている