Soumettre la recherche
Mettre en ligne
Partial least squares回帰と画像認識への応用
•
Télécharger en tant que PPTX, PDF
•
27 j'aime
•
13,310 vues
S
Shohei Kumagai
Suivre
第10回広島画像情報学セミナー資料 2014年10月10日
Lire moins
Lire la suite
Technologie
Signaler
Partager
Signaler
Partager
1 sur 37
Télécharger maintenant
Recommandé
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
ryotat
PRML第6章「カーネル法」
PRML第6章「カーネル法」
Keisuke Sugawara
『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会
takehikoihayashi
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
RyuichiKanoh
データサイエンス概論第一 5 時系列データの解析
データサイエンス概論第一 5 時系列データの解析
Seiichi Uchida
ベイズ推論とシミュレーション法の基礎
ベイズ推論とシミュレーション法の基礎
Tomoshige Nakamura
混合ガウスモデルとEMアルゴリスム
混合ガウスモデルとEMアルゴリスム
貴之 八木
10分でわかる主成分分析(PCA)
10分でわかる主成分分析(PCA)
Takanori Ogata
Recommandé
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
ryotat
PRML第6章「カーネル法」
PRML第6章「カーネル法」
Keisuke Sugawara
『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会
takehikoihayashi
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
RyuichiKanoh
データサイエンス概論第一 5 時系列データの解析
データサイエンス概論第一 5 時系列データの解析
Seiichi Uchida
ベイズ推論とシミュレーション法の基礎
ベイズ推論とシミュレーション法の基礎
Tomoshige Nakamura
混合ガウスモデルとEMアルゴリスム
混合ガウスモデルとEMアルゴリスム
貴之 八木
10分でわかる主成分分析(PCA)
10分でわかる主成分分析(PCA)
Takanori Ogata
グラフィカルモデル入門
グラフィカルモデル入門
Kawamoto_Kazuhiko
関数データ解析の概要とその方法
関数データ解析の概要とその方法
Hidetoshi Matsui
MIRU2016 チュートリアル
MIRU2016 チュートリアル
Shunsuke Ono
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
Yoshitake Takebayashi
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習
Eiji Uchibe
データサイエンス概論第一=2-1 データ間の距離と類似度
データサイエンス概論第一=2-1 データ間の距離と類似度
Seiichi Uchida
アンサンブル木モデル解釈のためのモデル簡略化法
アンサンブル木モデル解釈のためのモデル簡略化法
Satoshi Hara
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)
Kota Matsui
機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)
Satoshi Hara
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
hoxo_m
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII
マハラノビス距離とユークリッド距離の違い
マハラノビス距離とユークリッド距離の違い
wada, kazumi
ベイズ最適化によるハイパラーパラメータ探索
ベイズ最適化によるハイパラーパラメータ探索
西岡 賢一郎
強化学習その2
強化学習その2
nishio
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
Deep Learning Lab(ディープラーニング・ラボ)
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
Naoki Hayashi
トピックモデルの基礎と応用
トピックモデルの基礎と応用
Tomonari Masada
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
narumikanno0918
多様な強化学習の概念と課題認識
多様な強化学習の概念と課題認識
佑 甲野
Bayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
tmtm otm
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
Deep Learning JP
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
Sho Tatsuno
Contenu connexe
Tendances
グラフィカルモデル入門
グラフィカルモデル入門
Kawamoto_Kazuhiko
関数データ解析の概要とその方法
関数データ解析の概要とその方法
Hidetoshi Matsui
MIRU2016 チュートリアル
MIRU2016 チュートリアル
Shunsuke Ono
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
Yoshitake Takebayashi
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習
Eiji Uchibe
データサイエンス概論第一=2-1 データ間の距離と類似度
データサイエンス概論第一=2-1 データ間の距離と類似度
Seiichi Uchida
アンサンブル木モデル解釈のためのモデル簡略化法
アンサンブル木モデル解釈のためのモデル簡略化法
Satoshi Hara
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)
Kota Matsui
機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)
Satoshi Hara
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
hoxo_m
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII
マハラノビス距離とユークリッド距離の違い
マハラノビス距離とユークリッド距離の違い
wada, kazumi
ベイズ最適化によるハイパラーパラメータ探索
ベイズ最適化によるハイパラーパラメータ探索
西岡 賢一郎
強化学習その2
強化学習その2
nishio
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
Deep Learning Lab(ディープラーニング・ラボ)
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
Naoki Hayashi
トピックモデルの基礎と応用
トピックモデルの基礎と応用
Tomonari Masada
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
narumikanno0918
多様な強化学習の概念と課題認識
多様な強化学習の概念と課題認識
佑 甲野
Bayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
tmtm otm
Tendances
(20)
グラフィカルモデル入門
グラフィカルモデル入門
関数データ解析の概要とその方法
関数データ解析の概要とその方法
MIRU2016 チュートリアル
MIRU2016 チュートリアル
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習
データサイエンス概論第一=2-1 データ間の距離と類似度
データサイエンス概論第一=2-1 データ間の距離と類似度
アンサンブル木モデル解釈のためのモデル簡略化法
アンサンブル木モデル解釈のためのモデル簡略化法
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
マハラノビス距離とユークリッド距離の違い
マハラノビス距離とユークリッド距離の違い
ベイズ最適化によるハイパラーパラメータ探索
ベイズ最適化によるハイパラーパラメータ探索
強化学習その2
強化学習その2
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
トピックモデルの基礎と応用
トピックモデルの基礎と応用
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
多様な強化学習の概念と課題認識
多様な強化学習の概念と課題認識
Bayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
Similaire à Partial least squares回帰と画像認識への応用
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
Deep Learning JP
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
Sho Tatsuno
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Toru Fujino
ISMB読み会 2nd graph kernel
ISMB読み会 2nd graph kernel
弘毅 露崎
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
Naoki Hayashi
Let中部2012シンポスライド
Let中部2012シンポスライド
Mizumoto Atsushi
Tokyo r12 - R言語による回帰分析入門
Tokyo r12 - R言語による回帰分析入門
Yohei Sato
Survival analysis0702 2
Survival analysis0702 2
Nobuaki Oshiro
深層学習による自然言語処理の研究動向
深層学習による自然言語処理の研究動向
STAIR Lab, Chiba Institute of Technology
Deep learning勉強会20121214ochi
Deep learning勉強会20121214ochi
Ohsawa Goodfellow
関西CVPRML勉強会 kernel PCA
関西CVPRML勉強会 kernel PCA
Akisato Kimura
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
Deep Learning JP
Survival analysis0702
Survival analysis0702
Nobuaki Oshiro
Deep learningbook chap7
Deep learningbook chap7
Shinsaku Kono
Prml 4.3
Prml 4.3
Taikai Takeda
SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)
sleepy_yoshi
Approximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLP
Koji Matsuda
SSD: Single Shot MultiBox Detector (ECCV2016)
SSD: Single Shot MultiBox Detector (ECCV2016)
Takanori Ogata
[DL輪読会] Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields
[DL輪読会] Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields
Deep Learning JP
第3回nips読み会・関西『variational inference foundations and modern methods』
第3回nips読み会・関西『variational inference foundations and modern methods』
koji ochiai
Similaire à Partial least squares回帰と画像認識への応用
(20)
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
ISMB読み会 2nd graph kernel
ISMB読み会 2nd graph kernel
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
Let中部2012シンポスライド
Let中部2012シンポスライド
Tokyo r12 - R言語による回帰分析入門
Tokyo r12 - R言語による回帰分析入門
Survival analysis0702 2
Survival analysis0702 2
深層学習による自然言語処理の研究動向
深層学習による自然言語処理の研究動向
Deep learning勉強会20121214ochi
Deep learning勉強会20121214ochi
関西CVPRML勉強会 kernel PCA
関西CVPRML勉強会 kernel PCA
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
Survival analysis0702
Survival analysis0702
Deep learningbook chap7
Deep learningbook chap7
Prml 4.3
Prml 4.3
SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)
Approximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLP
SSD: Single Shot MultiBox Detector (ECCV2016)
SSD: Single Shot MultiBox Detector (ECCV2016)
[DL輪読会] Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields
[DL輪読会] Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields
第3回nips読み会・関西『variational inference foundations and modern methods』
第3回nips読み会・関西『variational inference foundations and modern methods』
Dernier
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
FumieNakayama
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
UEHARA, Tetsutaro
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
博三 太田
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
akihisamiyanaga1
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
Hiroshi Tomioka
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
Yuki Kikuchi
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
FumieNakayama
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
sugiuralab
Dernier
(8)
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
Partial least squares回帰と画像認識への応用
1.
Partial least squares回帰と
画像認識への応用 名城大学 熊谷章平堀田一弘
2.
はじめに • Partial
Least Squares(PLS) – 部分最小二乗、偏最小二乗 • 1975年にHerman Woldによって提案された • CVでは2009年のICCVにて人検出に適用 HOG 共起特徴 17万次元 PLS 20次元 2次判別分析 高速かつ高精度な検出
3.
イマイチ分かりづらい ☹ 資料によってアルゴリズムの書き方がバ
ラバラ ☹ アルゴリズムを完全に説明した資料 は殆ど無い シンプルで有力な方法… しかし、取っ付きづらい
4.
PLS回帰の概要 y 相関性を考慮
X PCA:データの分布をよく表す部分空間 PLS:クラスラベルを考慮、識別に有効な部分空間 ➡ 予測・識別に有効な部分空間を作成できる
5.
PLS回帰の概要 • 回帰分析・識別器・次元圧縮法
• 多出力可能 y1 y … 説明変数 部分空間 目的変数 t1 t2 tm x1 x2 x3 … xn … …
6.
PLSアルゴリズム NIPALS (Nonlinear
Iterative Partial Least Squares) • 一般的なPLSアルゴリズム • シンプルで実装が容易 • PLS1…単出力 • PLS2…多出力 NIPALS PLS1 入力 説明変数:X∈Rn×d 目的変数:y∈Rn×1 (n:サンプル数,d:次元数) 出力 回帰係数:b 1. X,yを標準化 2. w = XTy / ||XTy||2 3. t = Xw 4. c = yTt (tTt)-1 5. p = XTt (tTt)-1 6. X = X-tpT 7. y = y-tcT 8. 任意の数まで繰り返す 9. b = W(PTW)-1cT SIMPLS • 特異値分解を用いたアル ゴリズム
7.
学習データ • 学習サンプル:X∈Rサンプル数×次元数
• 教師ラベル:y∈Rサンプル数×1 次元数 サンプル数X サンプル数 y 1
8.
前処理 • 標準化(平均0分散1)
μx:学習データの平均ベクトル:学習データの標準偏差 μy:ラベルの平均値:ラベルの標準偏差 • 中心化(平均0) 標準化もしくは中心化 アルゴリズムによってバラバラ…
9.
Xとyの相関を計算 Xとyの共分散(相関)を求める XT
w y Xとyの共分散 (※iは繰り返し数) w:部分空間の基底ベクトル
10.
スコアを求める 相関から得た係数wとXの内積 X
w wの空間に射影し、スコアtを得る t:部分空間に射影したX ※ここまでが第1成分を得る処理 説明変数 目的変数 w t =
11.
情報の削除 部分空間の生成に使った情報の削除 y
t スコアtからラベルyを予測する回帰係数cを求める 回帰係数cとスコアtと内積をとり、減算 → yを更新、情報の削除
12.
情報の削除 Xについても同じ処理をする X
t Xの更新
13.
繰り返し 再度、共分散を求める処理に戻る →
前の基底wi-1と新しい基底wiは直交する w w1 2 新たな基底ベクトルwiから第2成分を求める… 繰り返す度、部分空間の次元が増える 最適な成分数(次元数)はCross validationで最適化
14.
テストデータの射影 注意⚠ テストデータの部分空間へ射影する場合…
スコア基底テストデータ … 第1成分の基底: 第2成分の基底: … 第n成分の基底: 異なる基準のX, yから基底ベクトルを求めている → テストデータも情報を削除する必要がある
15.
テストデータの射影 … 射影、削除を繰り返し…
テストデータのスコアを得る 成分数繰り返し⇨ 計算回数が多い☹ W*を導入
16.
W*とは 繰り返さずに射影できる基底W* W*、xtestとの内積
PLSの部分空間に射影したスコアttestが得られる W,P…繰り返す度に得られるw, pを並べて行列を構成する 成分数(繰り返し数) W 次元数 w P 2 wn = w1 … 証明困難 …
17.
PLS回帰の回帰係数 主成分回帰など 特徴量xtest
PLS回帰の回帰係数 部分空間 ttest ラベルy 射影予測 特徴量xtest 部分空間 ttest ラベルy 射影予測
18.
PLS回帰の回帰係数 スコアTよりラベルyを予測する場合を考える c…スコアtからyを予測する係数
最終的な回帰係数b
19.
回帰分析 回帰係数b 中心化・標準化を補正
20.
実装 • MATLAB
– plsregress関数(要Statistics toolbox) – SIMPLS algorithm (SVDにより回帰係数を求める) • Python – scikit-learn
21.
参考資料 Kernel Method
for Pattern Analysis John Shawe-Taylor (著), Nello Cristianini (著) ✓ 多クラスPLSのMATLABコード掲載 ✓ オープンアクセス 訳本 カーネル法によるパターン解析 John Shawe-Taylor (著), Nello Cristianini (著), 大北剛(翻訳)
22.
参考資料 Multivariate Data
Analysis and Chemometrics http://statmaster.sdu.dk/courses/ST02/
23.
PLS回帰の比較実験
24.
実験 • 識別器
– PLS vs SVM • 回帰分析 – PLS vs 主成分回帰,SVR
25.
実験 • 識別器
– PLS vs SVM • 回帰分析 – PLS vs 主成分回帰,SVR
26.
実験環境 • INRIA
Person Dataset – 学習画像 • positive:2416枚 • negative:12180枚 • 5-fold Cross Validation – SVMのコスト/ PLSの成分数最適化 – 評価画像 • positive:1126枚 • negative:4530枚 – 評価画像にnegative追加 • SceneClass13(36140枚)
27.
PLSによる人検出 • 説明変数
–HOG特徴量(14,580次元) • 目的変数 – Positive +1 – Negative -1
28.
ROC曲線によるPLSとSVMの比較
29.
実験 • 識別
– PLS vs SVM • 回帰 – PLS vs 主成分回帰,SVR
30.
回帰による比較 粒子計数 –
細胞内の脂肪滴 – 目的変数(ラベル):粒子数 – 説明変数(特徴量):HLAC特徴
31.
脂肪滴計数の特徴量 複数特徴量間HLAC特徴 -
異なる特徴量にマスクパターンを適用 - 9種類の特徴量 • 81(=9x9)特徴組み合わせ • 1次のマスクパターンの拡張 → 9✕9画素マスクパターン(41マスクパターン) • 3,321次元(41マスク✕81組み合せ)
32.
実験環境 評価指標 Mean
absolute error Mean deviation error • 学習画像:80枚 ⁃ 5-fold Cross Validation • 評価実験:19枚
33.
実験結果 MAE MDE
最適な成分数 サポートベクター回帰11.05 0.314 ー 主成分回帰6.16 0.264 948 PLS回帰5.16 0.126 139 PLS回帰の計数誤差が最小 最適な成分数PCAの1/7成分 → 識別・回帰の次元削減に有効
34.
歩行者計数 Mall dataset
ショッピングモールに設置したカメラの映像 目的変数:画像中の人数 説明変数:HLAC特徴
35.
歩行者計数 比較実験
元の空間でSVR Original PLSR (PLSの部分空間+重回帰) PLS+SVR(PLSの部分空間+SVR) PLSの部分空間 ラベルごとに分離した空間
36.
歩行者計数 実験設定
学習画像1,200枚、テスト画像800枚 5 fold cross validation 平均人数32人(最小13人、最大53人) 比較結果 MAE MDE SVR 3.57 0.111 Original PLS (PLS+重回帰) 2.98 0.093 PLS+SVR 2.86 0.090
37.
まとめ PLS回帰 –
PLS回帰のアルゴリズムについて説明 – シンプルなアルゴリズム – 分離に有効な部分空間を生成できる – 部分空間上で回帰分析、識別
Télécharger maintenant