Submit Search
Upload
データサイエンス概論第一=8 パターン認識と深層学習
•
10 likes
•
5,824 views
S
Seiichi Uchida
Follow
九州大学大学院システム情報科学研究院「データサイエンス実践特別講座」が贈る,数理・情報系『でない』学生さんのための「データサイエンス講義」
Read less
Read more
Data & Analytics
Report
Share
Report
Share
1 of 70
Download now
Download to read offline
Recommended
データサイエンス概論第一=2-1 データ間の距離と類似度
データサイエンス概論第一=2-1 データ間の距離と類似度
Seiichi Uchida
データサイエンス概論第一=3-1 線形代数に基づくデータ解析の基礎
データサイエンス概論第一=3-1 線形代数に基づくデータ解析の基礎
Seiichi Uchida
データサイエンス概論第一=2-2 クラスタリング
データサイエンス概論第一=2-2 クラスタリング
Seiichi Uchida
主成分分析
主成分分析
大貴 末廣
データサイエンス概論第一=1-3 平均と分散
データサイエンス概論第一=1-3 平均と分散
Seiichi Uchida
2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)
Tatsuya Yokota
データサイエンス概論第一 5 時系列データの解析
データサイエンス概論第一 5 時系列データの解析
Seiichi Uchida
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)
Kota Matsui
Recommended
データサイエンス概論第一=2-1 データ間の距離と類似度
データサイエンス概論第一=2-1 データ間の距離と類似度
Seiichi Uchida
データサイエンス概論第一=3-1 線形代数に基づくデータ解析の基礎
データサイエンス概論第一=3-1 線形代数に基づくデータ解析の基礎
Seiichi Uchida
データサイエンス概論第一=2-2 クラスタリング
データサイエンス概論第一=2-2 クラスタリング
Seiichi Uchida
主成分分析
主成分分析
大貴 末廣
データサイエンス概論第一=1-3 平均と分散
データサイエンス概論第一=1-3 平均と分散
Seiichi Uchida
2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)
Tatsuya Yokota
データサイエンス概論第一 5 時系列データの解析
データサイエンス概論第一 5 時系列データの解析
Seiichi Uchida
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)
Kota Matsui
データサイエンス概論第一=3-3 回帰分析
データサイエンス概論第一=3-3 回帰分析
Seiichi Uchida
関数データ解析の概要とその方法
関数データ解析の概要とその方法
Hidetoshi Matsui
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理
Taiji Suzuki
データサイエンス概論第一=4-2 確率と確率分布
データサイエンス概論第一=4-2 確率と確率分布
Seiichi Uchida
13 分類とパターン認識
13 分類とパターン認識
Seiichi Uchida
7 主成分分析
7 主成分分析
Seiichi Uchida
4 データ間の距離と類似度
4 データ間の距離と類似度
Seiichi Uchida
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章
Shuyo Nakatani
全力解説!Transformer
全力解説!Transformer
Arithmer Inc.
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
Kenyu Uehara
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
hoxo_m
データサイエンス概論第一=3-2 主成分分析と因子分析
データサイエンス概論第一=3-2 主成分分析と因子分析
Seiichi Uchida
5 クラスタリングと異常検出
5 クラスタリングと異常検出
Seiichi Uchida
深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点
Taiji Suzuki
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
Taiji Suzuki
深層学習の数理
深層学習の数理
Taiji Suzuki
Optimizer入門&最新動向
Optimizer入門&最新動向
Motokawa Tetsuya
MICの解説
MICの解説
logics-of-blue
データサイエンス概論第一=0 まえがき
データサイエンス概論第一=0 まえがき
Seiichi Uchida
Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~
nlab_utokyo
データサイエンス概論第一=7 画像処理
データサイエンス概論第一=7 画像処理
Seiichi Uchida
行列計算を利用したデータ解析技術
行列計算を利用したデータ解析技術
Yoshihiro Mizoguchi
More Related Content
What's hot
データサイエンス概論第一=3-3 回帰分析
データサイエンス概論第一=3-3 回帰分析
Seiichi Uchida
関数データ解析の概要とその方法
関数データ解析の概要とその方法
Hidetoshi Matsui
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理
Taiji Suzuki
データサイエンス概論第一=4-2 確率と確率分布
データサイエンス概論第一=4-2 確率と確率分布
Seiichi Uchida
13 分類とパターン認識
13 分類とパターン認識
Seiichi Uchida
7 主成分分析
7 主成分分析
Seiichi Uchida
4 データ間の距離と類似度
4 データ間の距離と類似度
Seiichi Uchida
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章
Shuyo Nakatani
全力解説!Transformer
全力解説!Transformer
Arithmer Inc.
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
Kenyu Uehara
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
hoxo_m
データサイエンス概論第一=3-2 主成分分析と因子分析
データサイエンス概論第一=3-2 主成分分析と因子分析
Seiichi Uchida
5 クラスタリングと異常検出
5 クラスタリングと異常検出
Seiichi Uchida
深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点
Taiji Suzuki
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
Taiji Suzuki
深層学習の数理
深層学習の数理
Taiji Suzuki
Optimizer入門&最新動向
Optimizer入門&最新動向
Motokawa Tetsuya
MICの解説
MICの解説
logics-of-blue
データサイエンス概論第一=0 まえがき
データサイエンス概論第一=0 まえがき
Seiichi Uchida
Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~
nlab_utokyo
What's hot
(20)
データサイエンス概論第一=3-3 回帰分析
データサイエンス概論第一=3-3 回帰分析
関数データ解析の概要とその方法
関数データ解析の概要とその方法
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理
データサイエンス概論第一=4-2 確率と確率分布
データサイエンス概論第一=4-2 確率と確率分布
13 分類とパターン認識
13 分類とパターン認識
7 主成分分析
7 主成分分析
4 データ間の距離と類似度
4 データ間の距離と類似度
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章
全力解説!Transformer
全力解説!Transformer
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
データサイエンス概論第一=3-2 主成分分析と因子分析
データサイエンス概論第一=3-2 主成分分析と因子分析
5 クラスタリングと異常検出
5 クラスタリングと異常検出
深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
深層学習の数理
深層学習の数理
Optimizer入門&最新動向
Optimizer入門&最新動向
MICの解説
MICの解説
データサイエンス概論第一=0 まえがき
データサイエンス概論第一=0 まえがき
Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~
Similar to データサイエンス概論第一=8 パターン認識と深層学習
データサイエンス概論第一=7 画像処理
データサイエンス概論第一=7 画像処理
Seiichi Uchida
行列計算を利用したデータ解析技術
行列計算を利用したデータ解析技術
Yoshihiro Mizoguchi
kagamicomput201808
kagamicomput201808
swkagami
201803NC
201803NC
Naoki Hayashi
データ解析1 ベクトルの復習
データ解析1 ベクトルの復習
Hirotaka Hachiya
機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks
Yuya Unno
「データサイエンティスト・ブーム」後の企業におけるデータ分析者像を探る
「データサイエンティスト・ブーム」後の企業におけるデータ分析者像を探る
Takashi J OZAKI
StatGenSummerSchool2023_Rsoftware.pdf
StatGenSummerSchool2023_Rsoftware.pdf
The University of Tokyo, Osaka University, RIKEN IMS
非参照テスト用ブラウザと数値ランダム化問題を利用した数学科目の授業デザイン
非参照テスト用ブラウザと数値ランダム化問題を利用した数学科目の授業デザイン
Ryukoku University
青山幹雄先生を偲んで(開拓、理論、実践、コミュニティ&国際)
青山幹雄先生を偲んで(開拓、理論、実践、コミュニティ&国際)
Hironori Washizaki
kagamicomput201809
kagamicomput201809
swkagami
畳み込みネットワークによる高次元信号復元と異分野融合への展開
畳み込みネットワークによる高次元信号復元と異分野融合への展開
Shogo Muramatsu
tut_pfi_2012
tut_pfi_2012
Preferred Networks
2022年度秋学期 応用数学(解析) 第12回 複素関数論ダイジェスト(1) 複素関数・正則関数 (2022. 12. 15)
2022年度秋学期 応用数学(解析) 第12回 複素関数論ダイジェスト(1) 複素関数・正則関数 (2022. 12. 15)
Akira Asano
kagamicomput201801
kagamicomput201801
swkagami
ディープラーニング入門 ~ 画像処理・自然言語処理について ~
ディープラーニング入門 ~ 画像処理・自然言語処理について ~
Kensuke Otsuki
Ym20121122
Ym20121122
Yoichi Motomura
機械学習を用いたWeb上の産学連携関連文書の抽出
機械学習を用いたWeb上の産学連携関連文書の抽出
National Institute of Informatics
クラシックな機械学習の入門 4. 学習データと予測性能
クラシックな機械学習の入門 4. 学習データと予測性能
Hiroshi Nakagawa
Jokyokai
Jokyokai
Taiji Suzuki
Similar to データサイエンス概論第一=8 パターン認識と深層学習
(20)
データサイエンス概論第一=7 画像処理
データサイエンス概論第一=7 画像処理
行列計算を利用したデータ解析技術
行列計算を利用したデータ解析技術
kagamicomput201808
kagamicomput201808
201803NC
201803NC
データ解析1 ベクトルの復習
データ解析1 ベクトルの復習
機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks
「データサイエンティスト・ブーム」後の企業におけるデータ分析者像を探る
「データサイエンティスト・ブーム」後の企業におけるデータ分析者像を探る
StatGenSummerSchool2023_Rsoftware.pdf
StatGenSummerSchool2023_Rsoftware.pdf
非参照テスト用ブラウザと数値ランダム化問題を利用した数学科目の授業デザイン
非参照テスト用ブラウザと数値ランダム化問題を利用した数学科目の授業デザイン
青山幹雄先生を偲んで(開拓、理論、実践、コミュニティ&国際)
青山幹雄先生を偲んで(開拓、理論、実践、コミュニティ&国際)
kagamicomput201809
kagamicomput201809
畳み込みネットワークによる高次元信号復元と異分野融合への展開
畳み込みネットワークによる高次元信号復元と異分野融合への展開
tut_pfi_2012
tut_pfi_2012
2022年度秋学期 応用数学(解析) 第12回 複素関数論ダイジェスト(1) 複素関数・正則関数 (2022. 12. 15)
2022年度秋学期 応用数学(解析) 第12回 複素関数論ダイジェスト(1) 複素関数・正則関数 (2022. 12. 15)
kagamicomput201801
kagamicomput201801
ディープラーニング入門 ~ 画像処理・自然言語処理について ~
ディープラーニング入門 ~ 画像処理・自然言語処理について ~
Ym20121122
Ym20121122
機械学習を用いたWeb上の産学連携関連文書の抽出
機械学習を用いたWeb上の産学連携関連文書の抽出
クラシックな機械学習の入門 4. 学習データと予測性能
クラシックな機械学習の入門 4. 学習データと予測性能
Jokyokai
Jokyokai
More from Seiichi Uchida
1 データとデータ分析
1 データとデータ分析
Seiichi Uchida
9 可視化
9 可視化
Seiichi Uchida
12 非構造化データ解析
12 非構造化データ解析
Seiichi Uchida
0 データサイエンス概論まえがき
0 データサイエンス概論まえがき
Seiichi Uchida
15 人工知能入門
15 人工知能入門
Seiichi Uchida
14 データ収集とバイアス
14 データ収集とバイアス
Seiichi Uchida
10 確率と確率分布
10 確率と確率分布
Seiichi Uchida
8 予測と回帰分析
8 予測と回帰分析
Seiichi Uchida
6 線形代数に基づくデータ解析の基礎
6 線形代数に基づくデータ解析の基礎
Seiichi Uchida
3 平均・分散・相関
3 平均・分散・相関
Seiichi Uchida
2 データのベクトル表現と集合
2 データのベクトル表現と集合
Seiichi Uchida
「あなたがいま読んでいるものは文字です」~画像情報学から見た文字研究のこれから
「あなたがいま読んでいるものは文字です」~画像情報学から見た文字研究のこれから
Seiichi Uchida
Machine learning for document analysis and understanding
Machine learning for document analysis and understanding
Seiichi Uchida
An opening talk at ICDAR2017 Future Workshop - Beyond 100%
An opening talk at ICDAR2017 Future Workshop - Beyond 100%
Seiichi Uchida
データサイエンス概論第一 6 異常検出
データサイエンス概論第一 6 異常検出
Seiichi Uchida
データサイエンス概論第一=4-1 相関・頻度・ヒストグラム
データサイエンス概論第一=4-1 相関・頻度・ヒストグラム
Seiichi Uchida
データサイエンス概論第一=1-2 データのベクトル表現と集合
データサイエンス概論第一=1-2 データのベクトル表現と集合
Seiichi Uchida
More from Seiichi Uchida
(17)
1 データとデータ分析
1 データとデータ分析
9 可視化
9 可視化
12 非構造化データ解析
12 非構造化データ解析
0 データサイエンス概論まえがき
0 データサイエンス概論まえがき
15 人工知能入門
15 人工知能入門
14 データ収集とバイアス
14 データ収集とバイアス
10 確率と確率分布
10 確率と確率分布
8 予測と回帰分析
8 予測と回帰分析
6 線形代数に基づくデータ解析の基礎
6 線形代数に基づくデータ解析の基礎
3 平均・分散・相関
3 平均・分散・相関
2 データのベクトル表現と集合
2 データのベクトル表現と集合
「あなたがいま読んでいるものは文字です」~画像情報学から見た文字研究のこれから
「あなたがいま読んでいるものは文字です」~画像情報学から見た文字研究のこれから
Machine learning for document analysis and understanding
Machine learning for document analysis and understanding
An opening talk at ICDAR2017 Future Workshop - Beyond 100%
An opening talk at ICDAR2017 Future Workshop - Beyond 100%
データサイエンス概論第一 6 異常検出
データサイエンス概論第一 6 異常検出
データサイエンス概論第一=4-1 相関・頻度・ヒストグラム
データサイエンス概論第一=4-1 相関・頻度・ヒストグラム
データサイエンス概論第一=1-2 データのベクトル表現と集合
データサイエンス概論第一=1-2 データのベクトル表現と集合
データサイエンス概論第一=8 パターン認識と深層学習
1.
1 九州大学大学院システム情報科学研究院 データサイエンス実践特別講座 データサイエンス概論第一 第8回 パターン認識と深層学習 システム情報科学研究院情報知能工学部門 内田誠一 九州大学 数理・データサイエンス教育研究センター/
年 月版2018 4
2.
2 データサイエンス概論第一の内容 データとは データのベクトル表現と集合
平均と分散 データ間の距離 データ間の類似度 データのクラスタリング (グルーピング) 線形代数に基づくデータ解析の基礎 主成分分析と因子分析 回帰分析 相関・頻度・ヒストグラム 確率と確率分布 信頼区間と統計的検定 カテゴリカルデータの検定(予定) 時系列データの解析 異常検出 画像処理 パターン認識と深層学習 九州大学 数理・データサイエンス教育研究センター/ 年 月版2018 4
3.
3 パターン認識 九州大学 数理・データサイエンス教育研究センター/ 年
月版2018 4
4.
4 パターン認識とは? 「これなんだ?」という問題を,計算機に解かせる 九州大学 数理・データサイエンス教育研究センター/ 年
月版2018 4
5.
5 計算機による「パターン認識」の基本原理 入力パターン 「豚肉」「牛肉」 「みかん」 「すいか」 「パイン」 「鯛」 どれと最も類似? 計算機に登録された 標準パターン クラスラベル 九州大学 数理・データサイエンス教育研究センター/
年 月版2018 4
6.
66 認識の対象となるパターン 画像 顔,指紋,虹彩,耳,唇,掌の静脈
医療画像(CT/MRI) 文字,記号,標識,ナンバープレート 環境内の物体配置,姿勢 衛星画像中の植生分布... 時間と共に変化するもの(時系列データ) 行動,ジェスチャ,歩行,ゲーム操作 音声 文字 心拍数変化,呼気量変化 環境中のNOx濃度変化,気温変化, DNA系列(※時系列ではない)... 九州大学 数理・データサイエンス教育研究センター/ 年 月版2018 4
7.
7 顔認識の実現法 入力パターン 計算機に登録された 標準パターン “A氏” “B氏” “C氏” 比較 認識結果 入力パターン=“C氏” クラスラベル画像 九州大学 数理・データサイエンス教育研究センター/ 年
月版2018 4
8.
8 行動認識の実現法 入力パターン 計算機に登録された 標準パターン “ばいばい” “万歳” 比較 認識結果 入力パターン=“指差し” 時間 “指差し” 姿勢データ系列 動画像系列 加速度データ系列 クラスラベル 行動データ 九州大学 数理・データサイエンス教育研究センター/
年 月版2018 4
9.
9 最近傍法と特徴抽出: 最も基本的なパターン認識 九州大学 数理・データサイエンス教育研究センター/ 年
月版2018 4
10.
10 九州大学 数理・データサイエンス教育研究センター/ 年
月版2018 4 最近傍法: 最も近いクラスを認識結果とする 入力パターン 「豚肉」「牛肉」 「みかん」 「すいか」 「パイン」 「鯛」 どれが入力に最も近い (=最も似ている)? 計算機に登録された 標準パターン
11.
11 パターンはベクトル(特徴ベクトル)で表される(1/2) 色特徴 テクスチャ (模様)特徴 豚肉=(色,形,模様) =(10, 2.5, 4.3) ※これらの数字はテキトーです こんな感じで,それぞれは何かしらの 数字の組で表されているとします 九州大学
数理・データサイエンス教育研究センター/ 年 月版2018 4
12.
12 九州大学 数理・データサイエンス教育研究センター/ 年
月版2018 4 パターンはベクトル(特徴ベクトル)で表される(2/2) 色特徴 テクスチャ (模様)特徴 各数字のことを「特徴」と呼びます 豚肉=(色,形,模様) =(10, 2.5, 4.3) ※これらの数字はテキトーです こんな感じで,それぞれは何かしらの 数字の組で表されているとします 「特徴として何を使うか」は これまで経験的に 決められていた
13.
13 時には高次元ベクトルになるかも 色特徴 テクスチャ (模様)特徴 豚肉=(色,形,模様,..., なんちゃら) =(10, 2.5,
4.3,..., 5.9) ※これらの数字はテキトーです 3つ以上の特徴で表されると,その分だけ 座標軸が要りますが,以後省略します なんちゃら 特徴 九州大学 数理・データサイエンス教育研究センター/ 年 月版2018 4
14.
14 違うパターンは違うベクトルになる 色特徴 テクスチャ (模様)特徴 牛肉=(色,形,模様) =(8, 2.6, 0.9) ※これらの数字はテキトーです 豚肉=(色,形,模様) =(10,
2.5, 4.3) ※これらの数字はテキトーです 九州大学 数理・データサイエンス教育研究センター/ 年 月版2018 4
15.
15 計算機が覚えているパターン(標準パターン)は こんな感じで分布 色特徴 テクスチャ (模様)特徴 九州大学 数理・データサイエンス教育研究センター/ 年
月版2018 4
16.
16 さて,クラス未知の入力パターン 色特徴 テクスチャ (模様)特徴 これが何であるかを知りたい! 入力 x 九州大学 数理・データサイエンス教育研究センター/
年 月版2018 4
17.
17 入力 x 最近傍法 =距離最小 or
類似度最大のクラスに識別 最近傍パターン 色特徴 テクスチャ (模様)特徴 これが一番近いので, 「入力=みかん」と答える 九州大学 数理・データサイエンス教育研究センター/ 年 月版2018 4
18.
18 ところで,特徴もイロイロある (ここ,ちょっと重要) パターン自身の性質 オレンジの画素数→多い 青の画素数→小
円形度→高い 線対称度→高い 模様→細かい …. 他のパターンとの関係 「車」との類似度→低 「リンゴ」との類似度→高 「猿」との類似度→低 「柿」との類似度→高 … 他者との類似度も 特徴になる! 九州大学 数理・データサイエンス教育研究センター/ 年 月版2018 4
19.
19 九州大学 数理・データサイエンス教育研究センター/ 年
月版2018 4 ところで,特徴もイロイロある (後の話のために,ちょっと重要) パターン自身の性質 オレンジの画素数→多い 青の画素数→小 円形度→高い 線対称度→高い 模様→細かい …. 他のパターンとの関係 「車」との類似度→低 「リンゴ」との類似度→高 「猿」との類似度→低 「柿」との類似度→高 … 僕って, 身長が170cm, 体重が62km, 100m走が12.4秒, ラーメン替玉が3杯... 自分自身に 関する量で 自分を特徴づけ 僕って, 俳優Aに「やや似」, 俳優Bに「激似」 俳優Cに「全然似てない」, 俳優Dも「全然似てない」... 他者との 関係で 自分を特徴づけ どっちがイイとか悪いとかじゃなく, 単に特徴づけには色々あるってこと
20.
20 九州大学 数理・データサイエンス教育研究センター/ 年
月版2018 4 「他のパターンとの関係(類似度)特徴」でも 最近傍識別は可能 柿との 類似度 車との類似度 先程の状況 類似度が二回(特徴抽出と識別)出てきて,ちょっとややこしいですが..
21.
21参考(飛ばしてOK) 21 最近傍法以外のパターン認識手法 統計的パターン認識
各クラスのパターンの分布を,確率分布で表現 ベイズ識別(誤認識を最小にする識別) 識別関数法 クラス間の境界を設定(=学習)して用いる方法 • 正確には「クラス間の境界を定める関数」(識別関数)を設定して用いる方法 Support Vector Machine (SVM)が有名 次節で学ぶニューラルネットワークもその一つ アンサンブル学習 複数のパターン認識器を統合する方法 次節で学ぶニューラルネットワークもその一つ 九州大学 数理・データサイエンス教育研究センター/ 年 月版2018 4 様々な機械学習法とも 密接に関係
22.
22参考(飛ばしてOK) 22 次元の呪い パターンを表現するベクトルが高次元の場合は要注意!
標準パターン(や学習パターン)が大量に無いと,まともな認識はできない (認識対象にもよるが,大雑把に言って)次元数の10倍以上はほしい 直観的には「(高次元の)非常に大きな空間に,パラパラっとしか標 準パターンがない状況になる.なので,それらで決めたクラス境界は 信頼できない」 ヒューズの現象.オーバーフィッティングの一種 よかれと思って「あれもこれも」と特徴を増やすと,逆に認識精度が落ちる 球面集中現象も起こる パターン間の距離に差が無くなっていく(=すべてのパターンが等距離に!?) 九州大学 数理・データサイエンス教育研究センター/ 年 月版2018 4
23.
23 深層学習 九州大学 数理・データサイエンス教育研究センター/ 年
月版2018 4
24.
24 用語についてちょっと整理 AI(人工知能) 機械学習 ニューラルネットワーク ディープニューラル ネットワーク こいつの学習法が ディープラーニング (深層学習) 主として画像用 畳み込みディープ ニューラルネットワーク 九州大学 数理・データサイエンス教育研究センター/ 年
月版2018 4
25.
25 神経細胞(ニューロン)は 内積を計算している!? 九州大学 数理・データサイエンス教育研究センター/ 年
月版2018 4
26.
26 九州大学 数理・データサイエンス教育研究センター/ 年
月版2018 4 神経細胞(ニューロン) https://commons.wikimedia.org/ 樹状突起 軸索 軸索末端 出力 次のニューロンへ 刺激 (入力) 何らかの 処理
27.
27 九州大学 数理・データサイエンス教育研究センター/ 年
月版2018 4 ニューロンの計算モデル https://commons.wikimedia.org/ 入力 g ( )xgx 出力 1x jx dx 1w jw dw g ( )xg 重み 関数
28.
28 ニューロンの計算モデル: もうちょっとキチッと Σ ( )xg 1x jx dx 1 …… b (
)bf bxwfg T d j jj += += ∑= xw x 1 )( x 1w jw dw f f: 非線形関数 入力 出力 重み 九州大学 数理・データサイエンス教育研究センター/ 年 月版2018 4
29.
29 キチッとしたいけど, 面倒くさそうなものは考えたくない Σ ( )xg 1x jx dx 1 …… b x
1w jw dw f f: 非線形関数 OK, 忘れよう ( )bf bxwfg T d j jj += += ∑= xw x 1 )( 九州大学 数理・データサイエンス教育研究センター/ 年 月版2018 4
30.
30 結構簡単になった. でもまだ面倒そうなものが… Σ ( )xg 1x jx dx 1 …… b x
1w jw dwOK, 忘れよう ∑= += d j jj bxwg 1 )(x 九州大学 数理・データサイエンス教育研究センター/ 年 月版2018 4
31.
31 ずいぶん簡単になった. あれ,これ見たことある? Σ 1x jx dx …… xwT これは2つの ベクトルの内積x 1w jw dw w xw x T d j jj xwg = = ∑= 1 )( 入力
重み 九州大学 数理・データサイエンス教育研究センター/ 年 月版2018 4
32.
32 九州大学 数理・データサイエンス教育研究センター/ 年
月版2018 4 念のため:内積の復習
33.
33 ニュールラネットワーク =ニューロンの組合せ =内積の組合せ シンプルな内積で,複雑な機能を実現! 九州大学 数理・データサイエンス教育研究センター/ 年
月版2018 4
34.
34 なるほど,ニューロンは内積らしい. ところで内積って何だっけ? xwT Σ 1x jx dx …… 1w jw dw 似たベクトルの内積値は大きくなる →内積は入力x と重みwの類似度を表現 入力 重み 九州大学
数理・データサイエンス教育研究センター/ 年 月版2018 4
35.
35 ということは,K個のニューロンが あれば K個の類似度が… x 1x jx dx 九州大学 数理・データサイエンス教育研究センター/
年 月版2018 4
36.
36 ということは,K個のニューロンが あれば K個の類似度が… x 1x jx dx 1w 2w Kw xw xw xw T K T T 2 1 九州大学
数理・データサイエンス教育研究センター/ 年 月版2018 4
37.
37 xw xw xw T K T T 2 1 ということは,K個のニューロンが あれば K個の類似度が… x 1x jx dx 1w 2w Kw との類似度 0.9 との類似度 0.75 との類似度 0.05 九州大学 数理・データサイエンス教育研究センター/
年 月版2018 4
38.
38 そう,K個のニューロンがあれば K次元の(類似度)特徴が出せる 1w 0.9 0.05 0.75 との類似度(内積) 入力 等価 Kw との 類似度 九州大学 数理・データサイエンス教育研究センター/
年 月版2018 4
39.
39 実は内積には別の機能も! xvT Σ 1x jx dx …… 1v jv dv 内積=類似度なので 最近傍識別のための類似度にも使える v x 九州大学 数理・データサイエンス教育研究センター/ 年
月版2018 4
40.
40 ニューラルネットワーク,これで完成! … 特徴抽出のための内積 1w Kw 1x jx dx …… 2w 識別のための内積 AV CV BV Aらしさ Bらしさ Cらしさ 最大値を とれば OK! 九州大学 数理・データサイエンス教育研究センター/ 年
月版2018 4
41.
41 いよいよディープに なぜ「深層」である必要があるのか? 九州大学 数理・データサイエンス教育研究センター/ 年
月版2018 4
42.
42 ディープニューラルネットワークってこんな感じ 1x jx dx … 何度も特徴抽出しているだけ 識別 …… … f f f f f f 九州大学 数理・データサイエンス教育研究センター/ 年
月版2018 4
43.
43 なぜ何度も特徴抽出? 「今使ってる特徴=類似度」を思い出そう A D C B E F 例えば, みかんと柿の認識問題: ゴチャゴチャ混ざっていて, 誤認識が起きそう 九州大学 数理・データサイエンス教育研究センター/ 年
月版2018 4
44.
44 なぜ何度も特徴抽出? 「今使ってる特徴=類似度」を思い出そう A D C B E F 1w2w 九州大学 数理・データサイエンス教育研究センター/ 年
月版2018 4
45.
45 なぜ何度も特徴抽出? 「今使ってる特徴=類似度」を思い出そう A D C B E F 1w2w F 1w との類似度 2w との 類似度 A B C D E ※ここにほんのちょっとゴマカシがあります.気づかない人は 気づかなくて全然OK. 一応白状しておくと,仕組みの理解を 容易にするために,上から下に空間変換する際との類似度と して,厳密な内積値は使っていません.図上では,(距離 的に)近ければ類似度は大きい,という感じで空間変換してます. このゴマカシは本質的理解を妨げるものではないと信じてます. 𝐰𝐰1との類似度大 𝐰𝐰2との類似度小 九州大学
数理・データサイエンス教育研究センター/ 年 月版2018 4
46.
46 なぜ何度も特徴抽出? 「今使ってる特徴=類似度」を思い出そう A D C B E F 1w2w F 1w との類似度 2w との 類似度 A B C D E 上の状況より, よりゴチャゴチャ度は減ったが もうちょっとキレイに分けたい (専門的には「まだ線形分離不能」) 九州大学 数理・データサイエンス教育研究センター/
年 月版2018 4
47.
47 なぜ何度も特徴抽出? 「今使ってる特徴=類似度」を思い出そう A D C B E F 1w2w F 1w との類似度 2w との 類似度 A B C D E3w 4w 九州大学 数理・データサイエンス教育研究センター/
年 月版2018 4
48.
48 なぜ何度も特徴抽出? 「今使ってる特徴=類似度」を思い出そう A D C B E F 1w2w F 1w との類似度 2w との 類似度 A B C D E3w 4w 3w 4w A D E B C F との類似度 との 類似度 九州大学 数理・データサイエンス教育研究センター/
年 月版2018 4
49.
49 なぜ何度も特徴抽出? 「今使ってる特徴=類似度」を思い出そう A D C B E F 1w2w F 1w との類似度 2w との 類似度 A B C D E3w 4w 3w 4w A D E B C F との類似度 との 類似度 簡単に識別できそう 九州大学 数理・データサイエンス教育研究センター/
年 月版2018 4
50.
50 なぜ何度も特徴抽出? 「今使ってる特徴=類似度」を思い出そう A D C B E F 1w2w F 1w との類似度 2w との 類似度 A B C D E3w 4w 3w 4w A D E B C F との類似度 との 類似度 3w 4w A D E B C F との類似度 との 類似度 実際,こんな風に𝒗𝒗1, 𝒗𝒗2を 置けば,完全に識別可能 2v 1v 九州大学
数理・データサイエンス教育研究センター/ 年 月版2018 4
51.
5151 なぜ何度も特徴抽出? 「今使ってる特徴=類似度」を思い出そう 要するに,各層で空間変換(線形変換)をやって,なるべく 分離識別しやすいようにしている それを何度も繰り返す(=多層を通す)ことで,どんどん 分離識別しやすくできると期待できる
ただし,空間変換時に,ちょっとだけ非線形処理が入る 説明を簡単にするために無視した例のやつです… 小さくなりすぎた類似度とかを,「まぁ,そんなに 小さくせんでもいいやろ」と手加減する処理です このスライドの最後尾に,参考情報として説明 しています 九州大学 数理・データサイエンス教育研究センター/ 年 月版2018 4
52.
52 ニューラルネットの学習 非常に表層的な説明で恐縮ですが… 九州大学 数理・データサイエンス教育研究センター/ 年
月版2018 4
53.
53 ニューラルネットワークを「ちゃんと動かす」には… … 1w Kw 1x jx dx …… 2w AV CV BV Aらしさ Bらしさ Cらしさ これらを「適切に」定める必要 1w AV2w 九州大学 数理・データサイエンス教育研究センター/
年 月版2018 4
54.
54 ニューラルネットワークの学習: 識別境界をより適切に! 咳の回数 体温 健康 インフル ニューラルネットワーク 調節つまみ 識別境界 ※実際の「つまみ」の数は,万~億単位(or more)九州大学 数理・データサイエンス教育研究センター/
年 月版2018 4
55.
55 学習のプロセス=「失敗→調整」の繰り返し (いわゆるバックプロパゲーションで実現) ダメ 調整 ダメ ダメ ダメ 初期状態 調整 OK, 終了 咳の回数 体温 識別境界 九州大学 数理・データサイエンス教育研究センター/
年 月版2018 4
56.
56 そういえば,つまみ=重み=基準パターン xwT Σ 1x jx dx …… 1w jw dw 入力 重み バスケットボールと 入力の類似度 学習により,これが 自動的に定まるということは… 九州大学 数理・データサイエンス教育研究センター/
年 月版2018 4
57.
57 認識に有効な「特徴(=基準パターン)」を 自動的に見つけてくれるということ! 基準パターン𝐾𝐾 との類似度 基準パターン1 との類似度 これが 「googleが深層学習で 猫を自動的に見つけた」と 言われている話に繋がる (表現学習) https://googleblog.blogspot.jp/2012/06/ 九州大学 数理・データサイエンス教育研究センター/ 年
月版2018 4
58.
5858 ディープニューラルネットワークに関する注意 学習データはとにかく大量に必要 (ネットワークの規模や問題の複雑さによるが)数千~数万はほしい
「学習パターンと大きく違う」パターンに対しては,とんでもない誤認識 をする場合がある 知らないものについては,全く融通が利かない Adversarial examples 全体の層数や各層のニューロン数の決定法は(まだ)ない 試行錯誤で決める 一般には,{データが少ない or 問題が簡単}なら少なくする 九州大学 数理・データサイエンス教育研究センター/ 年 月版2018 4
59.
59 画像扱うには?~ 畳み込みニューラルネットワーク 九州大学 数理・データサイエンス教育研究センター/ 年
月版2018 4
60.
60 kw 画像を扱うには? x xwT k 400万次元ベクトル 400万次元ベクトル ①計算時間→鬼 ②学習すべきパラ メータ数→鬼 九州大学 数理・データサイエンス教育研究センター/ 年
月版2018 4
61.
61 kw 画像を扱うには? 畳み込みニューラルネットワーク x ji T k ,xw 比較的低次元の ベクトル ji,x ①計算時間→激減 ②学習すべきパラ メータ数→激減 九州大学 数理・データサイエンス教育研究センター/
年 月版2018 4
62.
62 kw 「畳み込み層」登場! x ji,x やはり2次元的な マップ(画像)になる同じ重みの 使い回し! 結局フィルタリング 処理(=畳み 込み)と同じ! 九州大学 数理・データサイエンス教育研究センター/ 年
月版2018 4
63.
63 kw 「プーリング層」 x ji,x 最大値だけ 残す ①ずれを吸収! ②情報を集約! (=マップを小さく) 九州大学 数理・データサイエンス教育研究センター/ 年
月版2018 4
64.
64参考(飛ばしてOK) 64 (おすすめ!)学習の様子を観察: Google による
(tensorflow) playground 九州大学 数理・データサイエンス教育研究センター/ 年 月版2018 4
65.
65参考(飛ばしてOK) 65 ディープニューラルネットの挙動を 解析する方法もイロイロ(1/3) 内部のデータ分布の可視化
層を進むにつれ「分布が解きほぐされ」 認識しやすく 九州大学 数理・データサイエンス教育研究センター/ 年 月版2018 4DeCAF [Donahue+, arXiv 2013] 入口に近い層 出口に近い層
66.
66参考(飛ばしてOK) 66 ディープニューラルネットの挙動を 解析する方法もイロイロ(2/3) どのような入力画像が各ニューロンを最も活性化させるのか?
Feature visualization by optimization 九州大学 数理・データサイエンス教育研究センター/ 年 月版2018 4https://distill.pub/2017/feature-visualization/
67.
67参考(飛ばしてOK) 67 ディープニューラルネットの挙動を 解析する方法もイロイロ(3/3) 入力画像のどこが結論(認識結果)に寄与しているか?
Layer-wise Relevance Propagation gradCAMというのもよくつかわれる 九州大学 数理・データサイエンス教育研究センター/ 年 月版2018 4http://www.explain-ai.org/
68.
68参考(飛ばしてOK) 非線形関数の効果の 直感的理解 九州大学 数理・データサイエンス教育研究センター/ 年
月版2018 4 入力パターン d次元空間 x 1w 2w Kw ある程度以上 遠くても (負の)一定値 ある程度以上 近ければ一定値 ある程度以上 近ければ一定値 f: 非線形関数 関数前の 内積値 関数後の 内積値 一定値に 飽和させる
69.
69参考(飛ばしてOK) 69 非線形関数の効果の 直感的理解 内積による「類似度」を特徴とした 空間で,効果を見ると... 九州大学
数理・データサイエンス教育研究センター/ 年 月版2018 4 f: 非線形関数 xwT 1 xwT K 1 1 1 x w T 2 f f f f
70.
70参考(飛ばしてOK) 70 非線形関数の効果の 直感的理解 内積による「類似度」を特徴とした 空間で,効果を見ると... 九州大学
数理・データサイエンス教育研究センター/ 年 月版2018 4 f: ReLU xwT 1 xwT K x w T 2 f 変わらず 変わらず f 内積値がマイナスになったもの(=類似度が低くなったもの)を, (見捨てずに)第一象限に戻してやっているだけ 関数前の 内積値 関数後の 内積値 内積値が正なら 関数前=関数後 (要は何もしない) 内積値が負なら 強制的にゼロにする
Download now