SlideShare une entreprise Scribd logo
1  sur  16
1




隠れマルコフモデルから
ビタビアルゴリズムまで
関口宏司@ロンウイット
英語の品詞タグ付けでの利用例
2




                                        入力
                                       テキスト

                 HMM:
                 Hidden Markov Model

     コーパス
                      HMM               POS     Viterbi
     (教師あ   学習                         Tagger   Algorithm
      り)              モデル



                                        出力
                                       品詞タグ付
                                       きテキスト
系列ラベリング
3


       データ系列の入力に対し、クラスの系列を出力
       普通の分類問題とは異なる
         普通の分類問題:F →c
         系列ラベリング:F1F2…Fn → c1c2…cn




               F1      F2     F3      F4      F5

              Time   flies   like    an     allow.
               c1      c2     c3      c4      c5

              [名詞]   [動詞]    [前置詞]   [冠詞]    [名詞]
系列ラベリング問題の解き方
4


       通常の分類器の逐次適用
         ciの推定に、Fi,   Fi-1, Fi+1やci-1などを用いる
            F1   F2    F3    F4   F5   …
            c1   c2    c3    c4   c5   …


       隠れマルコフモデル


       条件付き確率場(CRF)
マルコフ過程
5


       マルコフ過程
         ある記号の出力確率が、直前のN個の記号によって決
        まるとする確率過程
       隠れマルコフモデル
         「システムがパラメータ未知のマルコフ過程」と仮定
          し、観測可能な情報からその未知パラメータを推定
          (Wikipedia)
         外部で観測されるのは単語列であり、内部状態として
          見えない品詞の遷移がある(参考文献[1], [2])
         教師あり学習データを用いるのに「隠れ」とは違和感
          あるが、NLPでは呼称が定着(参考文献[3])
確率モデルの近似
6
HMM=オートマトンの一種
7



    隠れマルコフモデルは5項組 M=(Q, Σ, A, B, π) により定義される。


                            状態の有限集合

                            出力記号の有限集合

                                       状態遷移確率分布



                                           記号出力確率分布


                             初期状態確率分布
単語/品詞のHMM
8

                                                          0.3
                                                                                time … 0.6
                                                                                flies … 0.1
                                                                  名詞            arrow … 0.3
                                                                  0.6


                                                                                         0.4
                                              0.7
                                                                                   0.3
                   an … 1.0                                                                                           0.1

                              冠詞                                  0.2                                  動詞
                              0.4                                                                      0.0
                                                    0.5                           0.2                             time … 0.1
                                                          0.1             0.6
                                                                                                                  flies … 0.2
                                                                                                                  like … 0.7
                                                            0.3          0.2                   0.2
                                       0.1
                               0.3

              出力記号(単語)
               …出力確率
     状態(品詞)
    初期状態確率
                                             形容詞                   0.1                   前置詞         like … 1.0
                          like … 1.0          0.0                                         0.0
       状態遷移確率                  0.4
                                                                                                                       出典:参考文献 [2]
HMMを適用する問題
9


       評価問題                                : 出力記号系列
           P(o1T|M)を求める問題
           素朴な方法(O(NT))
                                            : 状態遷移系列
           前向きアルゴリズム(O(N2T))
           後向きアルゴリズム(O(N2T))
       復号化問題
           argmax{q1T}P(o1T,q1T|M)を求める問題
           ビタビアルゴリズム
       推定問題
           argmax{M}P(o1T|M)を求める問題
           前向き後向きアルゴリズム
           EMアルゴリズム
状態遷移系列の生成確率
10




     N: 名詞,   V: 動詞,   P: 前置詞,   D: 冠詞   出典:参考文献 [2]
前向きアルゴリズム
11


     1.   前向き確率の初期化



     2.   前向き確率の再帰的な計算



     3.   最終確率の計算
前向きアルゴリズム
12

                 time            flies                         like                   an                arrow


          0.6    名詞     0.3     名詞             0.4            動詞      0.2            冠詞      0.7        名詞
     文頭
                 0.6            0.1                           0.7                    1.0                0.3
                        0.4                     0.1
                 0.36         0.0108                        0.00504               0.004068           0.0008542
                                                                      0.3
          前向き確率αt+1                                   0.2


                                動詞               0.2         前置詞            0.1
                                0.2                           1.0

                              0.0288                  0.1 0.00792
                                         0.2




                                                             形容詞
                                                              1.0

                                                            0.00684




                                                                                                   出典:参考文献 [2]
ビタビアルゴリズム
13


        時刻tで状態qiに到達する状態遷移系列q1t-1に関し
         て最大の確率値を記憶する




        時刻t+1で最大の確率値を与える直前の時刻tの状
         態iを記憶する
ビタビアルゴリズム
14


     1.   変数の初期化



     2.   最大確率値と状態の再帰計算



     3.   再帰計算の終了



     4.   バックトラックによる最適状態遷移系列の復元
ビタビアルゴリズム
15

                 time            flies                         like                    an                arrow


          0.6    名詞     0.3     名詞             0.4            動詞       0.2            冠詞      0.7        名詞
     文頭
                 0.6            0.1                           0.7                     1.0                0.3
                        0.4                     0.1
                 0.36         0.0108                        0.003024               0.001728           0.0003628
                                                                       0.3
          最大の確率値 δt+1                                 0.2


                                動詞               0.2         前置詞             0.1
                                0.2                           1.0

                              0.0288                  0.1 0.00576
                                         0.2




                                                             形容詞
                                                              1.0

                                                            0.00576




                                                                                                    出典:参考文献 [2]
参考文献
16


        [1] 岩波講座ソフトウェア科学15自然言語処理長
         尾真編岩波書店
        [2] 言語と計算4確率的言語モデル北研二著東京大
         学出版会
        [3] 自然言語処理シリーズ1言語処理のための機械
         学習入門奥村学監修コロナ社
        [4] 自然言語処理の基礎奥村学著コロナ社

Contenu connexe

Tendances

わかりやすいパターン認識_2章
わかりやすいパターン認識_2章わかりやすいパターン認識_2章
わかりやすいパターン認識_2章
weda654
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン
Shinya Shimizu
 

Tendances (20)

makoto shing (stability ai) - image model fine-tuning - wandb_event_230525.pdf
makoto shing (stability ai) - image model fine-tuning - wandb_event_230525.pdfmakoto shing (stability ai) - image model fine-tuning - wandb_event_230525.pdf
makoto shing (stability ai) - image model fine-tuning - wandb_event_230525.pdf
 
学習時に使ってはいないデータの混入「リーケージを避ける」
学習時に使ってはいないデータの混入「リーケージを避ける」学習時に使ってはいないデータの混入「リーケージを避ける」
学習時に使ってはいないデータの混入「リーケージを避ける」
 
ラグランジュ未定乗数法
ラグランジュ未定乗数法ラグランジュ未定乗数法
ラグランジュ未定乗数法
 
論文紹介 Amortized bayesian meta learning
論文紹介 Amortized bayesian meta learning論文紹介 Amortized bayesian meta learning
論文紹介 Amortized bayesian meta learning
 
機械学習 / Deep Learning 大全 (1) 機械学習基礎編
機械学習 / Deep Learning 大全 (1) 機械学習基礎編機械学習 / Deep Learning 大全 (1) 機械学習基礎編
機械学習 / Deep Learning 大全 (1) 機械学習基礎編
 
機械学習と主成分分析
機械学習と主成分分析機械学習と主成分分析
機械学習と主成分分析
 
わかりやすいパターン認識_2章
わかりやすいパターン認識_2章わかりやすいパターン認識_2章
わかりやすいパターン認識_2章
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン
 
Word2vecの並列実行時の学習速度の改善
Word2vecの並列実行時の学習速度の改善Word2vecの並列実行時の学習速度の改善
Word2vecの並列実行時の学習速度の改善
 
2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)
 
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
 
[第2版]Python機械学習プログラミング 第8章
[第2版]Python機械学習プログラミング 第8章[第2版]Python機械学習プログラミング 第8章
[第2版]Python機械学習プログラミング 第8章
 
異常検知と変化検知の1~3章をまとめてみた
異常検知と変化検知の1~3章をまとめてみた異常検知と変化検知の1~3章をまとめてみた
異常検知と変化検知の1~3章をまとめてみた
 
機械学習ゴリゴリ派のための数学とPython
機械学習ゴリゴリ派のための数学とPython機械学習ゴリゴリ派のための数学とPython
機械学習ゴリゴリ派のための数学とPython
 
今日からできる構造学習(主に構造化パーセプトロンについて)
今日からできる構造学習(主に構造化パーセプトロンについて)今日からできる構造学習(主に構造化パーセプトロンについて)
今日からできる構造学習(主に構造化パーセプトロンについて)
 
DSIRNLP#1 ランキング学習ことはじめ
DSIRNLP#1 ランキング学習ことはじめDSIRNLP#1 ランキング学習ことはじめ
DSIRNLP#1 ランキング学習ことはじめ
 
単語・句の分散表現の学習
単語・句の分散表現の学習単語・句の分散表現の学習
単語・句の分散表現の学習
 
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for  Self-supervised Learning in Speech,...[DL輪読会]data2vec: A General Framework for  Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
 
3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布
 
[DL輪読会]Focal Loss for Dense Object Detection
[DL輪読会]Focal Loss for Dense Object Detection[DL輪読会]Focal Loss for Dense Object Detection
[DL輪読会]Focal Loss for Dense Object Detection
 

Plus de Koji Sekiguchi

情報検索の基礎からデータの徹底活用まで
情報検索の基礎からデータの徹底活用まで情報検索の基礎からデータの徹底活用まで
情報検索の基礎からデータの徹底活用まで
Koji Sekiguchi
 
LUCENE-5252 NGramSynonymTokenizer
LUCENE-5252 NGramSynonymTokenizerLUCENE-5252 NGramSynonymTokenizer
LUCENE-5252 NGramSynonymTokenizer
Koji Sekiguchi
 
情報検索におけるランキング計算の紹介
情報検索におけるランキング計算の紹介情報検索におけるランキング計算の紹介
情報検索におけるランキング計算の紹介
Koji Sekiguchi
 
系列パターンマイニングを用いた単語パターン学習とWikipediaからの組織名抽出
系列パターンマイニングを用いた単語パターン学習とWikipediaからの組織名抽出系列パターンマイニングを用いた単語パターン学習とWikipediaからの組織名抽出
系列パターンマイニングを用いた単語パターン学習とWikipediaからの組織名抽出
Koji Sekiguchi
 
Luceneインデックスの共起単語分析とSolrによる共起単語サジェスチョン
Luceneインデックスの共起単語分析とSolrによる共起単語サジェスチョンLuceneインデックスの共起単語分析とSolrによる共起単語サジェスチョン
Luceneインデックスの共起単語分析とSolrによる共起単語サジェスチョン
Koji Sekiguchi
 
Lucene terms extraction
Lucene terms extractionLucene terms extraction
Lucene terms extraction
Koji Sekiguchi
 
Visualize terms network in Lucene index
Visualize terms network in Lucene indexVisualize terms network in Lucene index
Visualize terms network in Lucene index
Koji Sekiguchi
 
WikipediaからのSolr用類義語辞書の自動生成
WikipediaからのSolr用類義語辞書の自動生成WikipediaからのSolr用類義語辞書の自動生成
WikipediaからのSolr用類義語辞書の自動生成
Koji Sekiguchi
 
OpenNLP - MEM and Perceptron
OpenNLP - MEM and PerceptronOpenNLP - MEM and Perceptron
OpenNLP - MEM and Perceptron
Koji Sekiguchi
 

Plus de Koji Sekiguchi (20)

20221209-ApacheSolrによるはじめてのセマンティックサーチ.pdf
20221209-ApacheSolrによるはじめてのセマンティックサーチ.pdf20221209-ApacheSolrによるはじめてのセマンティックサーチ.pdf
20221209-ApacheSolrによるはじめてのセマンティックサーチ.pdf
 
Solr から使う OpenNLP の日本語固有表現抽出
Solr から使う OpenNLP の日本語固有表現抽出Solr から使う OpenNLP の日本語固有表現抽出
Solr から使う OpenNLP の日本語固有表現抽出
 
Learning-to-Rank meetup Vol. 1
Learning-to-Rank meetup Vol. 1Learning-to-Rank meetup Vol. 1
Learning-to-Rank meetup Vol. 1
 
Lucene 6819-good-bye-index-time-boost
Lucene 6819-good-bye-index-time-boostLucene 6819-good-bye-index-time-boost
Lucene 6819-good-bye-index-time-boost
 
NLP4L - 情報検索における性能改善のためのコーパスの活用とランキング学習
NLP4L - 情報検索における性能改善のためのコーパスの活用とランキング学習NLP4L - 情報検索における性能改善のためのコーパスの活用とランキング学習
NLP4L - 情報検索における性能改善のためのコーパスの活用とランキング学習
 
An Introduction to NLP4L (Scala by the Bay / Big Data Scala 2015)
An Introduction to NLP4L (Scala by the Bay / Big Data Scala 2015)An Introduction to NLP4L (Scala by the Bay / Big Data Scala 2015)
An Introduction to NLP4L (Scala by the Bay / Big Data Scala 2015)
 
An Introduction to NLP4L
An Introduction to NLP4LAn Introduction to NLP4L
An Introduction to NLP4L
 
Nlp4 l intro-20150513
Nlp4 l intro-20150513Nlp4 l intro-20150513
Nlp4 l intro-20150513
 
コーパス学習による Apache Solr の徹底活用
コーパス学習による Apache Solr の徹底活用コーパス学習による Apache Solr の徹底活用
コーパス学習による Apache Solr の徹底活用
 
情報検索の基礎からデータの徹底活用まで
情報検索の基礎からデータの徹底活用まで情報検索の基礎からデータの徹底活用まで
情報検索の基礎からデータの徹底活用まで
 
LUCENE-5252 NGramSynonymTokenizer
LUCENE-5252 NGramSynonymTokenizerLUCENE-5252 NGramSynonymTokenizer
LUCENE-5252 NGramSynonymTokenizer
 
情報検索におけるランキング計算の紹介
情報検索におけるランキング計算の紹介情報検索におけるランキング計算の紹介
情報検索におけるランキング計算の紹介
 
系列パターンマイニングを用いた単語パターン学習とWikipediaからの組織名抽出
系列パターンマイニングを用いた単語パターン学習とWikipediaからの組織名抽出系列パターンマイニングを用いた単語パターン学習とWikipediaからの組織名抽出
系列パターンマイニングを用いた単語パターン学習とWikipediaからの組織名抽出
 
Luceneインデックスの共起単語分析とSolrによる共起単語サジェスチョン
Luceneインデックスの共起単語分析とSolrによる共起単語サジェスチョンLuceneインデックスの共起単語分析とSolrによる共起単語サジェスチョン
Luceneインデックスの共起単語分析とSolrによる共起単語サジェスチョン
 
Html noise reduction
Html noise reductionHtml noise reduction
Html noise reduction
 
Lucene terms extraction
Lucene terms extractionLucene terms extraction
Lucene terms extraction
 
Visualize terms network in Lucene index
Visualize terms network in Lucene indexVisualize terms network in Lucene index
Visualize terms network in Lucene index
 
WikipediaからのSolr用類義語辞書の自動生成
WikipediaからのSolr用類義語辞書の自動生成WikipediaからのSolr用類義語辞書の自動生成
WikipediaからのSolr用類義語辞書の自動生成
 
NLP x Lucene/Solr
NLP x Lucene/SolrNLP x Lucene/Solr
NLP x Lucene/Solr
 
OpenNLP - MEM and Perceptron
OpenNLP - MEM and PerceptronOpenNLP - MEM and Perceptron
OpenNLP - MEM and Perceptron
 

Dernier

Dernier (11)

論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
 
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
 

HMM viterbi

  • 2. 英語の品詞タグ付けでの利用例 2 入力 テキスト HMM: Hidden Markov Model コーパス HMM POS Viterbi (教師あ 学習 Tagger Algorithm り) モデル 出力 品詞タグ付 きテキスト
  • 3. 系列ラベリング 3  データ系列の入力に対し、クラスの系列を出力  普通の分類問題とは異なる  普通の分類問題:F →c  系列ラベリング:F1F2…Fn → c1c2…cn F1 F2 F3 F4 F5 Time flies like an allow. c1 c2 c3 c4 c5 [名詞] [動詞] [前置詞] [冠詞] [名詞]
  • 4. 系列ラベリング問題の解き方 4  通常の分類器の逐次適用  ciの推定に、Fi, Fi-1, Fi+1やci-1などを用いる F1 F2 F3 F4 F5 … c1 c2 c3 c4 c5 …  隠れマルコフモデル  条件付き確率場(CRF)
  • 5. マルコフ過程 5  マルコフ過程  ある記号の出力確率が、直前のN個の記号によって決 まるとする確率過程  隠れマルコフモデル  「システムがパラメータ未知のマルコフ過程」と仮定 し、観測可能な情報からその未知パラメータを推定 (Wikipedia)  外部で観測されるのは単語列であり、内部状態として 見えない品詞の遷移がある(参考文献[1], [2])  教師あり学習データを用いるのに「隠れ」とは違和感 あるが、NLPでは呼称が定着(参考文献[3])
  • 7. HMM=オートマトンの一種 7 隠れマルコフモデルは5項組 M=(Q, Σ, A, B, π) により定義される。 状態の有限集合 出力記号の有限集合 状態遷移確率分布 記号出力確率分布 初期状態確率分布
  • 8. 単語/品詞のHMM 8 0.3 time … 0.6 flies … 0.1 名詞 arrow … 0.3 0.6 0.4 0.7 0.3 an … 1.0 0.1 冠詞 0.2 動詞 0.4 0.0 0.5 0.2 time … 0.1 0.1 0.6 flies … 0.2 like … 0.7 0.3 0.2 0.2 0.1 0.3 出力記号(単語) …出力確率 状態(品詞) 初期状態確率 形容詞 0.1 前置詞 like … 1.0 like … 1.0 0.0 0.0 状態遷移確率 0.4 出典:参考文献 [2]
  • 9. HMMを適用する問題 9  評価問題 : 出力記号系列  P(o1T|M)を求める問題  素朴な方法(O(NT)) : 状態遷移系列  前向きアルゴリズム(O(N2T))  後向きアルゴリズム(O(N2T))  復号化問題  argmax{q1T}P(o1T,q1T|M)を求める問題  ビタビアルゴリズム  推定問題  argmax{M}P(o1T|M)を求める問題  前向き後向きアルゴリズム  EMアルゴリズム
  • 10. 状態遷移系列の生成確率 10 N: 名詞, V: 動詞, P: 前置詞, D: 冠詞 出典:参考文献 [2]
  • 11. 前向きアルゴリズム 11 1. 前向き確率の初期化 2. 前向き確率の再帰的な計算 3. 最終確率の計算
  • 12. 前向きアルゴリズム 12 time flies like an arrow 0.6 名詞 0.3 名詞 0.4 動詞 0.2 冠詞 0.7 名詞 文頭 0.6 0.1 0.7 1.0 0.3 0.4 0.1 0.36 0.0108 0.00504 0.004068 0.0008542 0.3 前向き確率αt+1 0.2 動詞 0.2 前置詞 0.1 0.2 1.0 0.0288 0.1 0.00792 0.2 形容詞 1.0 0.00684 出典:参考文献 [2]
  • 13. ビタビアルゴリズム 13  時刻tで状態qiに到達する状態遷移系列q1t-1に関し て最大の確率値を記憶する  時刻t+1で最大の確率値を与える直前の時刻tの状 態iを記憶する
  • 14. ビタビアルゴリズム 14 1. 変数の初期化 2. 最大確率値と状態の再帰計算 3. 再帰計算の終了 4. バックトラックによる最適状態遷移系列の復元
  • 15. ビタビアルゴリズム 15 time flies like an arrow 0.6 名詞 0.3 名詞 0.4 動詞 0.2 冠詞 0.7 名詞 文頭 0.6 0.1 0.7 1.0 0.3 0.4 0.1 0.36 0.0108 0.003024 0.001728 0.0003628 0.3 最大の確率値 δt+1 0.2 動詞 0.2 前置詞 0.1 0.2 1.0 0.0288 0.1 0.00576 0.2 形容詞 1.0 0.00576 出典:参考文献 [2]
  • 16. 参考文献 16  [1] 岩波講座ソフトウェア科学15自然言語処理長 尾真編岩波書店  [2] 言語と計算4確率的言語モデル北研二著東京大 学出版会  [3] 自然言語処理シリーズ1言語処理のための機械 学習入門奥村学監修コロナ社  [4] 自然言語処理の基礎奥村学著コロナ社