Soumettre la recherche
Mettre en ligne
はじパタ2章
•
20 j'aime
•
21,610 vues
tetsuro ito
Suivre
Signaler
Partager
Signaler
Partager
1 sur 25
Télécharger maintenant
Télécharger pour lire hors ligne
Recommandé
第1回「はじめてのパターン認識」読書会 第1章「はじめに」
はじめてのパターン認識 第1章
はじめてのパターン認識 第1章
Prunus 1350
6, 7章
『データ解析におけるプライバシー保護』勉強会 #2
『データ解析におけるプライバシー保護』勉強会 #2
MITSUNARI Shigeo
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
Motoya Wakiyama
機械学習プロフェッショナルシリーズの劣モジュラ最適化と機械学習の1章の発表資料です。
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章
Hakky St
パターン認識と機械学習入門
パターン認識と機械学習入門
Momoko Hayamizu
dynamic programming 動的計画法 DP
これならわかる最適化数学8章_動的計画法
これならわかる最適化数学8章_動的計画法
kenyanonaka
はじパタ6章前半
はじパタ6章前半
T T
情報論的学習理論と機械学習研究会(IBISML), 京都大学, 2022年12月22日-23日
機械学習と機械発見:自然科学研究におけるデータ利活用の再考
機械学習と機械発見:自然科学研究におけるデータ利活用の再考
Ichigaku Takigawa
Recommandé
第1回「はじめてのパターン認識」読書会 第1章「はじめに」
はじめてのパターン認識 第1章
はじめてのパターン認識 第1章
Prunus 1350
6, 7章
『データ解析におけるプライバシー保護』勉強会 #2
『データ解析におけるプライバシー保護』勉強会 #2
MITSUNARI Shigeo
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
Motoya Wakiyama
機械学習プロフェッショナルシリーズの劣モジュラ最適化と機械学習の1章の発表資料です。
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章
Hakky St
パターン認識と機械学習入門
パターン認識と機械学習入門
Momoko Hayamizu
dynamic programming 動的計画法 DP
これならわかる最適化数学8章_動的計画法
これならわかる最適化数学8章_動的計画法
kenyanonaka
はじパタ6章前半
はじパタ6章前半
T T
情報論的学習理論と機械学習研究会(IBISML), 京都大学, 2022年12月22日-23日
機械学習と機械発見:自然科学研究におけるデータ利活用の再考
機械学習と機械発見:自然科学研究におけるデータ利活用の再考
Ichigaku Takigawa
関数データ解析とはどういうものか、どのような場面で用いられるかについてまとめてみました。
関数データ解析の概要とその方法
関数データ解析の概要とその方法
Hidetoshi Matsui
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜 6/10 (木) 9:30~10:40 講師:平川 翼 氏(中部大学) 概要: 深層強化学習はDeep Q-Network (DQN) の登場以降、様々なアプローチが提案されており、AlphaGoによる囲碁の攻略やロボットの自律制御などの様々な応用がなされています。本チュートリアルでは、従来の強化学習の基本的な考え方に触れ、深層学習を組み合わせた深層強化学習についての紹介を行います。また、時間の許す限り、最新の深層学習手法やAlphaGoの仕組み、深層強化学習の活用例を紹介します。
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII
はじめてのパターン認識(7章後半) NNのバックプロパゲーション(BP)の学習則 BPの最近の傾向からディープラーニングのさわりまで
はじぱた7章F5up
はじぱた7章F5up
Tyee Z
東大数理有志研究会(takamatsu26)、機械学習勉強会(Math-iine Learning)での発表資料.
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向
ohken
2017/8/21 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]Understanding Black-box Predictions via Influence Functions
[DL輪読会]Understanding Black-box Predictions via Influence Functions
Deep Learning JP
Search Engineering Tech Talk #1
「いい検索」を考える
「いい検索」を考える
Shuryo Uchida
2021年9月9日 テックプレナー道場 講演 機械学習を始めて学んでみようという方向けの概説資料です。機械学習とは、データ分析コンペティションとは、機械学習の実サービスへの活用などを紹介しています。
データサイエンティストの仕事とデータ分析コンテスト
データサイエンティストの仕事とデータ分析コンテスト
Ken'ichi Matsui
第20回ステアラボ人工知能セミナー https://stair.connpass.com/event/109983/ 【講演動画】 https://youtu.be/Fgza_C6KphU 【講演タイトル】 機械学習モデルの判断根拠の説明 【講演概要】 本講演では、機械学習モデルの判断根拠を提示するための説明法について紹介する。高精度な認識・識別が可能な機械学習モデルは一般に非常に複雑な構造をしており、どのような基準で判断が下されているかを人間が窺い知ることは困難である。このようなモデルのブラックボックス性を解消するために、近年様々なモデルの説明法が研究・提案されてきている。本講演の前半ではまず近年の代表的な研究について紹介する。後半では、発表者の最近の研究として「ランダムフォレストの簡略化」と「モデル列挙」について紹介する。
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明
Satoshi Hara
数学協働プログラム(数学・数理科学と諸科学・産業との協働によるイノベーション創出のための研究促進プログラム) ワークショップ: 確率的グラフィカルモデル, 電気通信大学
構造方程式モデルによる因果探索と非ガウス性
構造方程式モデルによる因果探索と非ガウス性
Shiga University, RIKEN
MIRU2020チュートリアル講演資料
深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点
Taiji Suzuki
最尤推定やベイズ推定の基本がようやく理解できたため,かみ砕いて説明したプレゼンを作りました.
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
Akira Masuda
【注意:動画について】スライドの背景が黒色のページは動画が埋まっています.一部の動画はここにアップしています: http://www.mprg.cs.chubu.ac.jp/~ryorsk/share/supplemental/presentation/20190316_NagoyaCV/ 主にこれから研究を始める人向けに,研究の心構えやツールなどを広く浅く紹介. 2019/03/16 名古屋CV・PRML研究会@ヤフー株式会社 名古屋オフィス
楽しい研究のために今からできること 〜新しく研究を始める皆さんへ〜
楽しい研究のために今からできること 〜新しく研究を始める皆さんへ〜
諒介 荒木
京都大学大学院情報学研究科 最適化数理分野 Coordinate Descent 法 (座標降下法) のサーベイ
coordinate descent 法について
coordinate descent 法について
京都大学大学院情報学研究科数理工学専攻
2019/07/22 本郷で発表
バンディット問題について
バンディット問題について
jkomiyama
確率分布間の距離とその間の関係をまとめたサーベイ論文 “On choosing and bounding probability metrics” の紹介と, なぜ Wasserstein distance を使うのかの理由付け (の一部).
A summary on “On choosing and bounding probability metrics”
A summary on “On choosing and bounding probability metrics”
Kota Matsui
第34回先端的データベースとWeb技術動向講演会(ACM SIGMOD 日本 支部第71回支部大会)での発表資料です
SIGMOD 2019 参加報告
SIGMOD 2019 参加報告
Masafumi Oyamada
人工知能学会 第115回人工知能基本問題研究会(SIG-FPAI) 招待講演 https://sig-fpai.org/past/fpai115.html タイトル: 整数計画法に基づく説明可能な機械学習へのアプローチ 概要: 深層学習に代表される機械学習手法の発展により,機械学習モデルが医療や金融などといった実社会意思決定の現場に応用され始めている.これに伴い,機械学習モデルの予測根拠や判断基準を人間が理解可能な形で提示できる“説明可能性 (Explainability) ”の実現が重要視されており,近年活発に研究が行われている.説明可能性の実現を目的としたアプローチには,大きく分けて,(1)決定木に代表される大域的に解釈可能なモデル (Interpretable Models) を学習する方法と,(2)学習済みモデルから局所的な説明を抽出する方法 (Post-hoc Local Explanation) の2つが存在する.これらのアプローチの多くは,そのタスクを最適化問題(L0正則化つき経験損失最小化など)として定式化することで,機械学習モデルの“説明”を数理モデル化することを試みている.しかし,このような最適化問題は,離散的な性質を持つ制約条件の存在や目的関数の微分不可能性などにより,従来の機械学習で広く用いられてきた連続最適化アルゴリズムを直接適用できない場合が多い.これに対して,近年,その柔軟なモデリング能力と汎用ソルバーの発展を背景として,整数計画法 (Integer Programming) に基づく最適化手法が注目を集めている.本講演では,機械学習の説明可能性の実現を目的とした最適化問題に対する整数計画法に基づくアプローチとして,(1)最適決定木 (Optimal Decision Trees [Bertsimas+, Mach.Learn.106]) の学習と,(2)反実仮想説明法 (Counterfactual Explanation [Wachter+, Harv.J.LowTechnol.31(2)]) について紹介する.加えて,整数計画法に基づく手法の具体例として,本講演者が取り組んでいる(1)公平性を考慮した決定木編集法と,(2)実現可能性を考慮した反実仮想説明法 [Kanamori+, IJCAI'20, AAAI'21] についても紹介する. PDF: https://drive.google.com/file/d/11OwK2pMRsoUV4di_vfzziMqjn5XAgtob/view?usp=sharing
整数計画法に基づく説明可能性な機械学習へのアプローチ
整数計画法に基づく説明可能性な機械学習へのアプローチ
Kentaro Kanamori
異常検知のまとめ
Anomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめた
ぱんいち すみもと
はじパタ8章 svm
はじパタ8章 svm
tetsuro ito
グラフ:フロー&カット
グラフネットワーク〜フロー&カット〜
グラフネットワーク〜フロー&カット〜
HCPC: 北海道大学競技プログラミングサークル
LTという名のステマ
20140204はじパタlt
20140204はじパタlt
tetsuro ito
『はじめてのパターン認識』読書会の発表資料。 第3章ベイズの識別規則の後半になります。
はじめてのパターン認識勉強会 20130716
はじめてのパターン認識勉強会 20130716
Hiroko Onari
Contenu connexe
Tendances
関数データ解析とはどういうものか、どのような場面で用いられるかについてまとめてみました。
関数データ解析の概要とその方法
関数データ解析の概要とその方法
Hidetoshi Matsui
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜 6/10 (木) 9:30~10:40 講師:平川 翼 氏(中部大学) 概要: 深層強化学習はDeep Q-Network (DQN) の登場以降、様々なアプローチが提案されており、AlphaGoによる囲碁の攻略やロボットの自律制御などの様々な応用がなされています。本チュートリアルでは、従来の強化学習の基本的な考え方に触れ、深層学習を組み合わせた深層強化学習についての紹介を行います。また、時間の許す限り、最新の深層学習手法やAlphaGoの仕組み、深層強化学習の活用例を紹介します。
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII
はじめてのパターン認識(7章後半) NNのバックプロパゲーション(BP)の学習則 BPの最近の傾向からディープラーニングのさわりまで
はじぱた7章F5up
はじぱた7章F5up
Tyee Z
東大数理有志研究会(takamatsu26)、機械学習勉強会(Math-iine Learning)での発表資料.
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向
ohken
2017/8/21 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]Understanding Black-box Predictions via Influence Functions
[DL輪読会]Understanding Black-box Predictions via Influence Functions
Deep Learning JP
Search Engineering Tech Talk #1
「いい検索」を考える
「いい検索」を考える
Shuryo Uchida
2021年9月9日 テックプレナー道場 講演 機械学習を始めて学んでみようという方向けの概説資料です。機械学習とは、データ分析コンペティションとは、機械学習の実サービスへの活用などを紹介しています。
データサイエンティストの仕事とデータ分析コンテスト
データサイエンティストの仕事とデータ分析コンテスト
Ken'ichi Matsui
第20回ステアラボ人工知能セミナー https://stair.connpass.com/event/109983/ 【講演動画】 https://youtu.be/Fgza_C6KphU 【講演タイトル】 機械学習モデルの判断根拠の説明 【講演概要】 本講演では、機械学習モデルの判断根拠を提示するための説明法について紹介する。高精度な認識・識別が可能な機械学習モデルは一般に非常に複雑な構造をしており、どのような基準で判断が下されているかを人間が窺い知ることは困難である。このようなモデルのブラックボックス性を解消するために、近年様々なモデルの説明法が研究・提案されてきている。本講演の前半ではまず近年の代表的な研究について紹介する。後半では、発表者の最近の研究として「ランダムフォレストの簡略化」と「モデル列挙」について紹介する。
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明
Satoshi Hara
数学協働プログラム(数学・数理科学と諸科学・産業との協働によるイノベーション創出のための研究促進プログラム) ワークショップ: 確率的グラフィカルモデル, 電気通信大学
構造方程式モデルによる因果探索と非ガウス性
構造方程式モデルによる因果探索と非ガウス性
Shiga University, RIKEN
MIRU2020チュートリアル講演資料
深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点
Taiji Suzuki
最尤推定やベイズ推定の基本がようやく理解できたため,かみ砕いて説明したプレゼンを作りました.
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
Akira Masuda
【注意:動画について】スライドの背景が黒色のページは動画が埋まっています.一部の動画はここにアップしています: http://www.mprg.cs.chubu.ac.jp/~ryorsk/share/supplemental/presentation/20190316_NagoyaCV/ 主にこれから研究を始める人向けに,研究の心構えやツールなどを広く浅く紹介. 2019/03/16 名古屋CV・PRML研究会@ヤフー株式会社 名古屋オフィス
楽しい研究のために今からできること 〜新しく研究を始める皆さんへ〜
楽しい研究のために今からできること 〜新しく研究を始める皆さんへ〜
諒介 荒木
京都大学大学院情報学研究科 最適化数理分野 Coordinate Descent 法 (座標降下法) のサーベイ
coordinate descent 法について
coordinate descent 法について
京都大学大学院情報学研究科数理工学専攻
2019/07/22 本郷で発表
バンディット問題について
バンディット問題について
jkomiyama
確率分布間の距離とその間の関係をまとめたサーベイ論文 “On choosing and bounding probability metrics” の紹介と, なぜ Wasserstein distance を使うのかの理由付け (の一部).
A summary on “On choosing and bounding probability metrics”
A summary on “On choosing and bounding probability metrics”
Kota Matsui
第34回先端的データベースとWeb技術動向講演会(ACM SIGMOD 日本 支部第71回支部大会)での発表資料です
SIGMOD 2019 参加報告
SIGMOD 2019 参加報告
Masafumi Oyamada
人工知能学会 第115回人工知能基本問題研究会(SIG-FPAI) 招待講演 https://sig-fpai.org/past/fpai115.html タイトル: 整数計画法に基づく説明可能な機械学習へのアプローチ 概要: 深層学習に代表される機械学習手法の発展により,機械学習モデルが医療や金融などといった実社会意思決定の現場に応用され始めている.これに伴い,機械学習モデルの予測根拠や判断基準を人間が理解可能な形で提示できる“説明可能性 (Explainability) ”の実現が重要視されており,近年活発に研究が行われている.説明可能性の実現を目的としたアプローチには,大きく分けて,(1)決定木に代表される大域的に解釈可能なモデル (Interpretable Models) を学習する方法と,(2)学習済みモデルから局所的な説明を抽出する方法 (Post-hoc Local Explanation) の2つが存在する.これらのアプローチの多くは,そのタスクを最適化問題(L0正則化つき経験損失最小化など)として定式化することで,機械学習モデルの“説明”を数理モデル化することを試みている.しかし,このような最適化問題は,離散的な性質を持つ制約条件の存在や目的関数の微分不可能性などにより,従来の機械学習で広く用いられてきた連続最適化アルゴリズムを直接適用できない場合が多い.これに対して,近年,その柔軟なモデリング能力と汎用ソルバーの発展を背景として,整数計画法 (Integer Programming) に基づく最適化手法が注目を集めている.本講演では,機械学習の説明可能性の実現を目的とした最適化問題に対する整数計画法に基づくアプローチとして,(1)最適決定木 (Optimal Decision Trees [Bertsimas+, Mach.Learn.106]) の学習と,(2)反実仮想説明法 (Counterfactual Explanation [Wachter+, Harv.J.LowTechnol.31(2)]) について紹介する.加えて,整数計画法に基づく手法の具体例として,本講演者が取り組んでいる(1)公平性を考慮した決定木編集法と,(2)実現可能性を考慮した反実仮想説明法 [Kanamori+, IJCAI'20, AAAI'21] についても紹介する. PDF: https://drive.google.com/file/d/11OwK2pMRsoUV4di_vfzziMqjn5XAgtob/view?usp=sharing
整数計画法に基づく説明可能性な機械学習へのアプローチ
整数計画法に基づく説明可能性な機械学習へのアプローチ
Kentaro Kanamori
異常検知のまとめ
Anomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめた
ぱんいち すみもと
はじパタ8章 svm
はじパタ8章 svm
tetsuro ito
グラフ:フロー&カット
グラフネットワーク〜フロー&カット〜
グラフネットワーク〜フロー&カット〜
HCPC: 北海道大学競技プログラミングサークル
Tendances
(20)
関数データ解析の概要とその方法
関数データ解析の概要とその方法
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
はじぱた7章F5up
はじぱた7章F5up
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向
[DL輪読会]Understanding Black-box Predictions via Influence Functions
[DL輪読会]Understanding Black-box Predictions via Influence Functions
「いい検索」を考える
「いい検索」を考える
データサイエンティストの仕事とデータ分析コンテスト
データサイエンティストの仕事とデータ分析コンテスト
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明
構造方程式モデルによる因果探索と非ガウス性
構造方程式モデルによる因果探索と非ガウス性
深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
楽しい研究のために今からできること 〜新しく研究を始める皆さんへ〜
楽しい研究のために今からできること 〜新しく研究を始める皆さんへ〜
coordinate descent 法について
coordinate descent 法について
バンディット問題について
バンディット問題について
A summary on “On choosing and bounding probability metrics”
A summary on “On choosing and bounding probability metrics”
SIGMOD 2019 参加報告
SIGMOD 2019 参加報告
整数計画法に基づく説明可能性な機械学習へのアプローチ
整数計画法に基づく説明可能性な機械学習へのアプローチ
Anomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめた
はじパタ8章 svm
はじパタ8章 svm
グラフネットワーク〜フロー&カット〜
グラフネットワーク〜フロー&カット〜
En vedette
LTという名のステマ
20140204はじパタlt
20140204はじパタlt
tetsuro ito
『はじめてのパターン認識』読書会の発表資料。 第3章ベイズの識別規則の後半になります。
はじめてのパターン認識勉強会 20130716
はじめてのパターン認識勉強会 20130716
Hiroko Onari
オイラーの公式で感じる次元の呪い
オイラーの公式で感じる次元の呪い
Yoshiteru Kamiyama
はじパタ2nd 20130702 otanet
はじパタ2nd 20130702 otanet
博三 太田
Rで学ぶデータサイエンス 5 「パターン認識」 第2章 k-平均法
はじパタLT2
はじパタLT2
Tadayuki Onishi
第6章「線形識別関数」(後半)
はじめてのパターン認識 第6章 後半
はじめてのパターン認識 第6章 後半
Prunus 1350
文献紹介のスライドです。学部4年生〜修士課程くらい向けです。
Fisher線形判別分析とFisher Weight Maps
Fisher線形判別分析とFisher Weight Maps
Takao Yamanaka
En vedette
(7)
20140204はじパタlt
20140204はじパタlt
はじめてのパターン認識勉強会 20130716
はじめてのパターン認識勉強会 20130716
オイラーの公式で感じる次元の呪い
オイラーの公式で感じる次元の呪い
はじパタ2nd 20130702 otanet
はじパタ2nd 20130702 otanet
はじパタLT2
はじパタLT2
はじめてのパターン認識 第6章 後半
はじめてのパターン認識 第6章 後半
Fisher線形判別分析とFisher Weight Maps
Fisher線形判別分析とFisher Weight Maps
Similaire à はじパタ2章
2011年11月1日に開催したアイティメディアメディア戦略説明会の発表資料です。
TechTarget新サービス
TechTarget新サービス
リード研究所 / Lead Lab
クラスメソッド主催イベントDevelopers.IO 2020 Connect登壇資料です。 Alteryx活用していますか。そろそろAlteryx初心者から卒業したい、そんなあなたにおすすめしたい中級者向けのトレーニングコース(マクロ・空間分析・データ整形)をご用意いたしました。本セッションでは、気になるコースの内容をダイジェストでご紹介します。
Alteryxの中級者向けトレーニングコース始めます!
Alteryxの中級者向けトレーニングコース始めます!
Yuji Kanemoto
カルマンフィルタの基礎的な内容を、実例を多めに解説しています。 本資料は、DeNAとMobility Technologiesが合同で実施している社内技術交流会での発表資料を一部修正したものです。
カルマンフィルタ入門
カルマンフィルタ入門
Yasunori Nihei
一般社団法人データサイエンティスト協会「2ndシンポジウム」でのスキル委員会による講演資料です。詳細は、データサイエンティスト協会公式サイトをご覧ください。URL:http://www.datascientist.or.jp/
データサイエンティスト協会スキル委員会2ndシンポジウム講演資料
データサイエンティスト協会スキル委員会2ndシンポジウム講演資料
The Japan DataScientist Society
Markezine チラ見せ用
Markezine チラ見せ用
Shinya Nakazawa
人工知能による生産性向上の事例ご紹介
20171201 deep learning lab albert
20171201 deep learning lab albert
Hirono Jumpei
自己紹介にかえて-変化する企業ITと“ワクワク感” 桑原里恵
自己紹介にかえて-変化する企業ITと“ワクワク感” 桑原里恵
Sapporo Sparkle k.k.
機械学習が再度注目を集めている中、皆さんの生活や社会の中で活用され始めています。ところが「AI」という言葉が 先行している事もあり、機械学習の実体の理解が浅いがために、誤解をした使い方なども見受けられています。 ここでは、機械学習に興味のある方や、機械学習のモデルの作成はした事があるものの、実業務や社会などに展開し た事の無い方向けに、機械学習とは何か?プログラミングと何が違うのか?そのモデル作成の手順などをご紹介しま す。
東北大学AIE - 機械学習入門編
東北大学AIE - 機械学習入門編
Daiyu Hatakeyama
2014/10/22に社内で行った講演会のスライドです。
『手を動かしながら学ぶ ビジネスに活かすデータマイニング』で目指したもの・学んでもらいたいもの
『手を動かしながら学ぶ ビジネスに活かすデータマイニング』で目指したもの・学んでもらいたいもの
Takashi J OZAKI
2018/06/27 に開催された DEEP LEARNING LAB の 10:10 - 10:40 のセッションにてご紹介した、Cognitive Services に関するご案内スライドです。
20180627 - DEEP LEARNING LAB / Cognitive Services 最新情報 30 分でズバリ!
20180627 - DEEP LEARNING LAB / Cognitive Services 最新情報 30 分でズバリ!
Takashi Okawa
[db analytics showcase Sapporo 2018] B32 無いなら作ろう!教師データ作成のあれこれ 日立造船株式会社 足立 悠 氏
[db analytics showcase Sapporo 2018] B32 無いなら作ろう!教師データ作成のあれこれ
[db analytics showcase Sapporo 2018] B32 無いなら作ろう!教師データ作成のあれこれ
Insight Technology, Inc.
豊橋技科大で2012/6/12で特別講義で利用した資料です。講義時の資料とは多少異なっています。
tut_pfi_2012
tut_pfi_2012
Preferred Networks
社内勉強会でAndrew Ng先生が提唱するData-Centric AIについて紹介した際の資料です。
Data-Centric AIの紹介
Data-Centric AIの紹介
Kazuyuki Miyazawa
2017-07-17 サポーターズ@京都で使ったスライド
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V e-1
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V e-1
Shunsuke Nakamura
Markezine day 2012 gdo nakazawa
Markezine day 2012 gdo nakazawa
Shinya Nakazawa
ITシステムの開発を主にやっています。為安圭介です。 数年間、リーダという役割をいただいて、数十名のチーム運営を経験してきました。 今回は、自分でも未だにちゃんと理解していないような気がするAIの基礎について、あらためてまとめてみました。 このスライドをまとめる間に、令和1年が令和2年になってしまいました。
ITエンジニアのためのAI基礎2020
ITエンジニアのためのAI基礎2020
Keisuke Tameyasu
ーーーーーーーーーーーーーーーーーーーーーーー schoo WEB-campusは「WEBに誕生した、学校の新しいカタチ」。 WEB生放送の授業を無料で配信しています。 ▼こちらから授業に参加すると、先生への質問や、ユーザーとのチャット、資料の拡大表示等が可能です。 https://schoo.jp/class/221/room ーーーーーーーーーーーーーーーーーーーーーーー
分析のリアルがここに!現場で使えるデータ分析(1限目) 先生:吉永 恵一
分析のリアルがここに!現場で使えるデータ分析(1限目) 先生:吉永 恵一
schoowebcampus
Tokyo
Big data解析ビジネス
Big data解析ビジネス
Mie Mori
本セッションでは、経済評論家 上念司氏から、最新の経済分析を紹介していただくとともに、数字の見方と、トリックにだまされないためのナレッジを紹介。 続いて、渡辺氏から、、事業本部長経験者から、事業本部長レベルが期待するレポート内容を紹介。そして、二人による、これからの時代に必要とされるスキルをトークします。
経済を理解する数字の見方、上司が見たい数字の見せ方
経済を理解する数字の見方、上司が見たい数字の見せ方
MKT International Inc.
SEGA : Growth hacking by Spark ML for Mobile games
SEGA : Growth hacking by Spark ML for Mobile games
SEGA : Growth hacking by Spark ML for Mobile games
DataWorks Summit/Hadoop Summit
Similaire à はじパタ2章
(20)
TechTarget新サービス
TechTarget新サービス
Alteryxの中級者向けトレーニングコース始めます!
Alteryxの中級者向けトレーニングコース始めます!
カルマンフィルタ入門
カルマンフィルタ入門
データサイエンティスト協会スキル委員会2ndシンポジウム講演資料
データサイエンティスト協会スキル委員会2ndシンポジウム講演資料
Markezine チラ見せ用
Markezine チラ見せ用
20171201 deep learning lab albert
20171201 deep learning lab albert
自己紹介にかえて-変化する企業ITと“ワクワク感” 桑原里恵
自己紹介にかえて-変化する企業ITと“ワクワク感” 桑原里恵
東北大学AIE - 機械学習入門編
東北大学AIE - 機械学習入門編
『手を動かしながら学ぶ ビジネスに活かすデータマイニング』で目指したもの・学んでもらいたいもの
『手を動かしながら学ぶ ビジネスに活かすデータマイニング』で目指したもの・学んでもらいたいもの
20180627 - DEEP LEARNING LAB / Cognitive Services 最新情報 30 分でズバリ!
20180627 - DEEP LEARNING LAB / Cognitive Services 最新情報 30 分でズバリ!
[db analytics showcase Sapporo 2018] B32 無いなら作ろう!教師データ作成のあれこれ
[db analytics showcase Sapporo 2018] B32 無いなら作ろう!教師データ作成のあれこれ
tut_pfi_2012
tut_pfi_2012
Data-Centric AIの紹介
Data-Centric AIの紹介
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V e-1
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V e-1
Markezine day 2012 gdo nakazawa
Markezine day 2012 gdo nakazawa
ITエンジニアのためのAI基礎2020
ITエンジニアのためのAI基礎2020
分析のリアルがここに!現場で使えるデータ分析(1限目) 先生:吉永 恵一
分析のリアルがここに!現場で使えるデータ分析(1限目) 先生:吉永 恵一
Big data解析ビジネス
Big data解析ビジネス
経済を理解する数字の見方、上司が見たい数字の見せ方
経済を理解する数字の見方、上司が見たい数字の見せ方
SEGA : Growth hacking by Spark ML for Mobile games
SEGA : Growth hacking by Spark ML for Mobile games
Plus de tetsuro ito
japan.R2017noLT資料です
[Up用]rでqr
[Up用]rでqr
tetsuro ito
データアナリストミートアップで発表したDataOps in MoneyForwardの資料です
20170912 data analyst meetup tokyo vol.5
20170912 data analyst meetup tokyo vol.5
tetsuro ito
20170714 丸の内アナリティクスバンビーノ登壇資料
DataOps in Moneyforward
DataOps in Moneyforward
tetsuro ito
2017年2月7日に六本木アカデミーヒルズで行われたBigData Analytics Tokyoで発表したスライドです。
20170207 bigdata analytics_tokyo講演資料
20170207 bigdata analytics_tokyo講演資料
tetsuro ito
『機械学習エンジニア向け勉強会』の発表資料です
20161029 dots machine learning in money forward
20161029 dots machine learning in money forward
tetsuro ito
GCP_NEXT後のBQ_Sushiで発表した資料です
20160906 bq sushi
20160906 bq sushi
tetsuro ito
2015/10/10 Tokyo.R #51のLT資料です
TokyoR LT Rで連続データを離散化
TokyoR LT Rで連続データを離散化
tetsuro ito
2015/05/31 Bizreach✕Cookpad✕Gunosy✕UserLocal 分析プラットホームとその技術で発表した内容です
20150531分析プラットホームとその技術(bizreach) cookpad ito #dcube_analysis
20150531分析プラットホームとその技術(bizreach) cookpad ito #dcube_analysis
tetsuro ito
続わかりやすいパターン認識5章後半部分
20150303続パタ5章後半
20150303続パタ5章後半
tetsuro ito
社内における読書会のスライドです。 毎回この作り込んだスライドは辛いので、以後はpublicには鳴り得ないのですが、せっかく作ったので、公開しています。
PRML読書会1スライド(公開用)
PRML読書会1スライド(公開用)
tetsuro ito
20140614 tokyo r lt
20140614 tokyo r lt
tetsuro ito
20140329 tokyo r lt 「カーネルとsvm」
20140329 tokyo r lt 「カーネルとsvm」
tetsuro ito
20131207 Japan.R発表
Japan.r 2013 「実ビジネスデータへのrの活用とその限界」
Japan.r 2013 「実ビジネスデータへのrの活用とその限界」
tetsuro ito
2013年11月9日 第35回TokyoRのLT 「ロバスティーヌのお悩み」(ロバスト推定)
Tokyo R LT 20131109
Tokyo R LT 20131109
tetsuro ito
第31回TokyoR LT資料
第31回TokyoR LT資料
tetsuro ito
集合知プログラミング5章発表
集合知プログラミング5章発表
tetsuro ito
集合知プログラミング11章
集合知プログラミング11章
tetsuro ito
集合知プログラミング勉強会キックオフMTGの第1章LT資料です
集合知プログラミング勉強会キックオフMTG LT用資料
集合知プログラミング勉強会キックオフMTG LT用資料
tetsuro ito
20120326 zansa勉強会発表資料 (公開用) 02 04-38
20120326 zansa勉強会発表資料 (公開用) 02 04-38
tetsuro ito
複雑ネットワーク勉強会 第6章 後半
複雑ネットワーク勉強会 第6章 後半
tetsuro ito
Plus de tetsuro ito
(20)
[Up用]rでqr
[Up用]rでqr
20170912 data analyst meetup tokyo vol.5
20170912 data analyst meetup tokyo vol.5
DataOps in Moneyforward
DataOps in Moneyforward
20170207 bigdata analytics_tokyo講演資料
20170207 bigdata analytics_tokyo講演資料
20161029 dots machine learning in money forward
20161029 dots machine learning in money forward
20160906 bq sushi
20160906 bq sushi
TokyoR LT Rで連続データを離散化
TokyoR LT Rで連続データを離散化
20150531分析プラットホームとその技術(bizreach) cookpad ito #dcube_analysis
20150531分析プラットホームとその技術(bizreach) cookpad ito #dcube_analysis
20150303続パタ5章後半
20150303続パタ5章後半
PRML読書会1スライド(公開用)
PRML読書会1スライド(公開用)
20140614 tokyo r lt
20140614 tokyo r lt
20140329 tokyo r lt 「カーネルとsvm」
20140329 tokyo r lt 「カーネルとsvm」
Japan.r 2013 「実ビジネスデータへのrの活用とその限界」
Japan.r 2013 「実ビジネスデータへのrの活用とその限界」
Tokyo R LT 20131109
Tokyo R LT 20131109
第31回TokyoR LT資料
第31回TokyoR LT資料
集合知プログラミング5章発表
集合知プログラミング5章発表
集合知プログラミング11章
集合知プログラミング11章
集合知プログラミング勉強会キックオフMTG LT用資料
集合知プログラミング勉強会キックオフMTG LT用資料
20120326 zansa勉強会発表資料 (公開用) 02 04-38
20120326 zansa勉強会発表資料 (公開用) 02 04-38
複雑ネットワーク勉強会 第6章 後半
複雑ネットワーク勉強会 第6章 後半
はじパタ2章
1.
はじめてのパターン認識 第2章 「識別規則と学習法の概要」 後半 2013/7/2 @リクルート
2.
あんた誰? 名前 伊藤 徹郎 (@tetsuroito) 所属 株式会社ALBERT データ分析部 好きなもの サッカー、スキー、オレオ!
3.
株式会社ALBERTについて 「分析力をコアとするマーケティングソリューションカンパニー」 ALBERTの事業領域 CRMソリューションの開発・提供 レコメンドエンジンの開発・提供 行動ターゲティング広告システムの 開発・提供 データサイエンティスト、エンジニア大募集中です! 一緒にデータサイエンスしませんか?
4.
では、本題 2.2 汎化能力とは?
5.
2.2 汎化能力とは? ちょっとおさらい 学習:学習データに対する識別関数の出力値と学習データとの誤差が最小に なるように、識別関数のパラメータを調整すること 未知のデータに対しての性能保証はなし! 学習データから動作確認のためにテストデータを除いて試そう! 汎化能力:未知データに対する識別能力 汎化誤差:未知データを識別した時の誤差
6.
学習データとテストデータ 手元にある学習データセットを分割してテストデータセットを作ります。 重さ 透磁率 etc‥ d個の特徴 d次元の特徴ベクトルの分布p 真の誤り率ε(p,p) 重さ 透磁率 etc‥ 10,000枚 8,000枚 2,000枚 母集団 学習データセット テストデータセット d個の特徴 d次元の特徴ベクトルの分布pL 再代入誤り率ε(pL,pL) d個の特徴重さ 透磁率 etc‥ d次元の特徴ベクトルの分布pT
7.
用語たち 母集団:先の事例では、全硬貨の集合(事例では10,000枚) 真の分布:母集団のd次元特徴の分布p バイアス:真の分布とランダムサンプルのズレ (平均値や分散など) 真の誤り率ε(p,p):真の分布pに従う学習データを用いて設計し、真の分布 pに従うテストデータを用いてテストしたときの誤り率 再代入誤り率:学習データを母集団からサンプルし、テストにも同じデータを 用いて測定した誤り率
8.
例題だよ 再代入誤り率が大きい場合、 どのような対処法が考えられ ますか?
9.
ANSWER 学習データに対する誤りが多いので、 識別機の能力が足りません。 何らかの方法で 識別機の性能をあげましょう!
10.
データの主な分割方法 1、ホールドアウト法(holdout法) 2、交差確認法(cross validation法) 3、一つ抜き法(leave-one-out法) (ジャックナイフ法) 4、ブートストラップ法(bootstrap法)
11.
1、ホールドアウト法 母集団 学習データ テストデータ ホールドアウト誤り率 分割の配分はご自由に ★欠点 学習データを増やす→学習精度は向上するが、性能評価がいまいち 検証データを増やす→学習精度が悪くなってしまう
12.
2、交差確認法 手元の各クラスのデータをm個に分割し、m-1個のグループのデータを使って 識別機を学習し、残りの1つで検証を行う方法です。これをm回繰り返し、 それらの誤り率の平均を性能予測値とします。 学習データテスト 学習データテスト 学習データ テスト m個に分割 m 回 識別率の予測値 全データを検証できるので、
13.
3、一つ抜き法(ジャックナイフ法) 交差確認法において、データの数とグループの数を等しくした場合のこと。 1つを除いたデータすべてのデータで学習し、除いた1つでテストすることを データ数分繰り返す。 またの名をジャックナイフ法ともいい、重複をしない分、計算効率がいいとか 悪いとか‥ なんかいまいちわからないので、 知ってる人、教えてください
14.
4、ブートストラップ法 再代入誤り率のバイアス補正に用いられる。 データ #1 データ #2 データ #3 ‥ データ #N-1 データ #N 復元抽出×N回 ブートストラップサンプル データ #3 データ #20 データ #1 ‥ データ #3 データ #5 N個 ブートストラップサンプルを最低50は生成し、それらによって得られる 誤認識率の差の平均値でバイアスを推定する!
15.
汎化能力の評価法とモデル選択 学習データでパラメータを調整して、テストデータで誤り率を評価しても 誤りが目標より小さくならないという場面ありますね。 この場合はどうしようもないので、識別関数を変えましょう。
16.
モデル選択 変えると言っても、方法はたくさんあります! ・線形識別関数→非線形識別関数に変える ・多項式のパラメータの数(次数)を変える etc‥ パラメータの数を変え、テストデータに対する誤り率が最も小さくなる パラメータを選択する方法をモデル選択と言います このように‥
17.
具体例:多項式回帰で あるノイズが乗った多項式から等間隔にサンプルされたデータに多項式近似を 行います。 f(x)=0.5+0.4sin(2πx)+ε=h(x)+ε N~(ε|0,0.05) 11個の学習データから信号成分h(x)を取り出す! 信号成分h(x)との近似の良さは平均2乗誤差(MSE)で表す テキストでは、1次、3次、6次、10次多項式で近似している
18.
多項式近似の例 データから大きく外れている(バイアスが大きい) ノイズに惑わされず信号成分をよく近似 バイアスも小さく、分散も小さい 6次になると、ノイズを追うようになる 10次は完全にノイズを追ってしまう
19.
バイアス・分散トレードオフ 関数が複雑になるほど学習データに対する近似能力は向上する (学習データに対するバイアス小さいが、分散が大きい) このように バイアスを小さくすれば分散が大きくなり、逆に分散を小さく すれば、バイアスが大きくなる現象をバイアス・分散トレードオフ という 汎化能力を決める大きな要因となる!
20.
過学習(オーバーフィッティング) 先の事例のように、多項式の次数を大きくすると個々のノイズ成分を追従する ようになるので、学習誤差が単調に減少します。 このような事象を過学習と言います。 ※深堀したい人はぜひPRML上巻1章の多項式フィッティングを読もう!
21.
識別関数の最適選択 多項式の最適次数選択は先ほどの説明の通りです。 同様に、識別関数でも同様に考えることができます。 識別関数y=f(x;w)のf()の形やwの要素数を変化させ、交差確認法やブートスト ラップ法によって汎化誤差を推定します。 データの分布に統計モデルを仮定する場合 AIC(赤池情報量基準)やBIC(ベイズ情報量基準)、MDL(最小距離基準) などを使って解析的に汎化誤差を評価し、モデル選択をします。 詳細は自分で調べてね!
22.
章末問題は省略するね
23.
最後に大事なので もう1回言います あっ!
24.
データサイエンティスト、エンジニア大募集中です! 一緒にデータサイエンスしませんか?
25.
おわり ご清聴ありがとうございました!
Télécharger maintenant