SlideShare une entreprise Scribd logo
1  sur  48
Télécharger pour lire hors ligne
「機械学習とは?」から始める
Deep Learning実践入門
自己紹介
• 名前
• 舛岡英人(@hidetomasuoka)
• 略歴
• 株式会社ソピア(現アクセンチュア)入社
• 中小企業向けERPのスクラッチ開発を提案からサポートまですべてを担当
• 株式会社Preferred Infrastructure 入社
• 各製品の提案からサポートまですべてを担当
• 株式会社Intimate Merger に出向
• 株式会社 レトリバ創業メンバー
自己紹介
• 社外活動
• PyConJP 2016 スタッフ
• 招待講演担当
• Chainer OSS活動
• communityイベントのリード
会社概要
株式会社レトリバ
• 設立:2016年8月
• 場所:東京都千代田区大手町
• 役員:代表取締役 社長 河原 一哉
取締役 西鳥羽 二郎
• 従業員数:11名
• 事業内容:ソフトウェア製品の開発・販売
• ミッション:お客様の課題を最先端の技術で解決する
• HP:https://retrieva.jp/
• Twitter:@retrieva_jp
アジェンダ
• Part1: 機械学習とDeepLearningの概要
• 機械学習とは
• DeepLearningとは?
• Chainerとは?
• Part2: jupyter notebookとChainerを使ってDeep Learningに
触れてみよう
• jupyter notebookをセットアップしよう!
• Deep LearningのHello worldであるMinstをやってみよう!
• chainerで線画自動着色してみよう!
Part1: 機械学習とDeep Learningの概要
機械学習とは
• 機械学習の定義
- 「経験(データ)によって
賢くなるアルゴリズム」
• 古典的な統計手法に比べた
特徵
- 確率分布の仮定などの制限が
少ない
- 大規模・高次元データにも有
効
7
Dimensionality Reduction by Learning an Invariant Mapping
Raia Hadsell, Sumit Chopra, Yann LeCun, CVPR, 2006
学習データ
分類モデル
機械学習の典型的なプロセス
8
(0, 1, 2.5, -1, …)
(1, 0.5, -2, 3, …)
(0, 1, 1.5, 2, …)
特徴ベクトル
グラフィカルモデル
分類/回帰
SVM/LogReg/PA
CW/ALOW/Naïve
Bayes/CNB/DT
RF/ANN…
クラスタリング
K-means/Spectral
Clustering/MMC/L
SI/LDA/GM…
構造分析
HMM/MRF/CRF…
分野に依存しない
抽象化データ
様々な手法
理論を適用
機械
学習
文書
画像 センサー
行動履歴
様々な様式の
生データ
特徴
抽出
文章からの特徴抽出
• 例:固有名詞を取り出してニュース記事の特徴とする
9
2020年の東京五輪・パラリンピックの主会
場となる新国立競技場をめぐり、安倍晋三首相
は、総工費が2520億円に膨らんだ建設計画
を見直す考えを17日に表明する方向で最終調
整に入った。競技場を19年のラグビーワール
ドカップ(W杯)の主会場にする計画は断念す
る。同日、東京五輪・パラリンピック組織委員
会会長の森喜朗元首相と会談し、計画見直しへ
の協力を求める方針だ。
2020年の東京五輪・パラリンピックの主会
場となる新国立競技場をめぐり、安倍晋三首相
は、総工費が2520億円に膨らんだ建設計画
を見直す考えを17日に表明する方向で最終調
整に入った。競技場を19年のラグビーワール
ドカップ(W杯)の主会場にする計画は断念す
る。同日、東京五輪・パラリンピック組織委員
会会長の森喜朗元首相と会談し、計画見直しへ
の協力を求める方針だ。
単語 頻度
東京五輪 2
パラリンピック 2
新国立競技場 1
安倍晋三 1
・・・ ・・・
機械学習アルゴリズム
文章からの固有名詞の抽出は固有表現抽出
(Named Entity Recognition; NER)という
画像からの特徴抽出
• 例:Histogram of Gradient (HoG特徴量)
http://www.vlfeat.org/overview/hog.html
機械学習
アルゴリズム
各ピクセルでの勾配を小ブロック(セル)
単位でまとめてヒストグラム化
各セルでのヒストグラムを(正
規化して)すべてまとめる
精度をあげるのが職人技
• 精度をあげるためには特徴抽出が重要
• 特徴抽出は難しい
• タスクごとに最適な特徴抽出方法は異なる
• 機械学習コンテストは最後は特徴抽出のチューニング勝負
• これまで様々な特徴抽出方法が研究されてきた
• 自然言語:n-gram/BoW 画像:SIFT/SURF/HOG/PHOW/BoVW
• その他にも様々なヒューリスティックが存在
• 精度をあげるにはデータに合わせたチューニングが必要
12
2012年画像認識コンテストで
Deep Learningを用いたチームが優勝
→
ILSVRC2012
優勝チームSupervisonの結果
[Krizhevsky+ ‘12]
衝撃的な出来事
• 限界と思われた認識エラーを4割も減らした
(26%→16%)
• 特徴抽出を行わず、生の画素をNNに与えた
翌年の同コンテストの上位チームは
ほぼDeep Learningベースの手法
ニューラルネットブーム
• 様々なコンペティションでDLが既存手法を凌駕
• 16%(‘12) → 11%(‘13) → 6.6%(’14) → 4.8%('15) → 2.9%('16)
• 各企業がDL研究者の獲得競争
• Google/FaceBook/Microsoft/Baidu
• 実サービスもDLベースに置き換えられる
• Siri/Google画像検索/Google翻訳
GoogLeNetのアーキテクチャ↓
http://research.google.com/archive/un
supervised_icml2012.html
Google Brainによる猫認識↑
[Le, Ng, Jeffrey+ ’12]
音声認識の分野では
10年間の停滞していたが、
DL登場により劇的に精度が
向上した
ニューラルネットワークが利用された
タスク
データ 画像
タスク カテゴリ
分類
顔検出 生成 ゲームAI シーン認識
動画 画像+
自然言語
音声+動画
カテゴリ
分類
動作認識 キャプ
ション生成
表現学習 音声認識
自然言語 音声 化合物
表現学習 翻訳 質問応答 会話検出 QSAR
(活性予測)
応用分野
音声検索
画像キュレーション
eコマース
自動運転
ロボティックス
医療画像
マーケティング
Deep Learningの導入
x1
xN
・・・・・・
h1
hH
・・・・
ニューラルネットワーク(多層パーセプトロン)
k
M
k1
y
M
y1
Forward
Backward
・・
・・
入力層 隠れ層 出力層
文書
画像
センサー
チューリップ
異常確率50%
カテゴリ:政治
Forward Propagation(順伝播)
• 入力層(黄色)に値を与え、
順方向に計算を進める
• Forward計算の過程で損失(Loss)
とエラーを計算する
• 通常エラーは計算グラフの最後のユ
ニット(緑)での値を指す
• 計算グラフの途中の値をエラーに加
えても良い
• Lossは各ユニットの値や各レイ
ヤーのパラメータの関数になって
いる
Forward
Backward Propagation(誤差逆伝播)
• 計算グラフの末端のユニット
(緑)にエラーを与え、逆方
向に計算を進める
• Backwardの過程で各パラ
メータについてのエラーを計
算する
Backward
x1
xN
・・・・・・
h1
hH
・・・・
ニューラルネットワーク(多層パーセプトロン)
k
M
k1
y
M
y1
Forward
Backward
・・
・・
入力層 隠れ層 出力層
文書
画像
センサー
チューリップ
異常確率50%
カテゴリ:政治
代表的なニューラルネットワーク(1)
Convolutional Neural Network
• 畳み込み層とプーリング層を交互に
重ねた構造をしたニューラルネット
ワーク
• 主に画像解析で利用されている
• 畳み込み層
• 前層の近傍のユニットのみと結合し
ている
• ユニット間で重みを共有
• プーリング層
• ユニットの活性をまとめる
• 最大値をとる(Max Pooling)か平均値
をとる(Average Pooling)のが一般的
畳み込み層
プーリング層
同じ色の結合は
重みが等しい
代表的なニューラルネットワーク(2)
Recurrent Neural Network
• 中間層の活性が、前層と前
時刻の自分自身の活性によ
り決定される
• 音声・動画・自然言語など
の可変長データの解析に利
用されている
• 中間層のループ部分を時間
方向に展開すると通常の
フィードフォワードニュー
ラルネットとみなせる
ディープラーニングの応用例
Deep Q Network*(深層学習で強化学習)
* Mnih, Volodymyr, et al. "Human-level control through deep reinforcement learning." Nature 518.7540 (2015): 529-533.
** CaffeでDeep Q-Networkを実装して深層強化学習してみた http://d.hatena.ne.jp/muupan/20141021/1413850461
*** PFIインターン2014 最終発表 http://www.ustream.tv/recorded/53153399
23
ディープラーニングの応用例
画像生成
• 文字を”描く“ニューラルネット
• 入力と同じ「雰囲気」の数字が出力
されている。同じ数字でも、最左画
像と生成画像は異なる事に注意
入力 生成結果
Kingma, Diederik P., et al. "Semi-supervised learning with deep
generative models." Advances in Neural Information Processing
Systems. 2014. の実験を弊社で再現
• 絵を”描く“ニューラルネット
http://soumith.ch/eyescream/
典型的なニューラルネットワーク
(多層パーセプトロン)
x1
xN
・・・・・・
h1
hH
・・・・
k
M
k1
y
M
y1
f1
f2
f3
W2/b2
W1/b1
tM
t1
損失関数で評価
正解ラベル入力
Forward
Backward
出力
・・
・・
・・
学習すべきパラメータ
• W1:1層目のパラメータ行列
• b1:1層目のバイアス項
• W2:2層目のパラメータ行列
• b2:2層目のバイアス項
Forward更新式
• h = f1(x) = Sigmoid(W1x+b1)
• k = f2(h) = Sigmoid(W2h+b2)
• y = f3(k) = SoftMax(k)
f3i(k) = exp(ki)/Σ_{j} exp(kj)
DeepLearningフレームワークの構成要素
変数(n次元配列)
層
計算グラフ
最適化アルゴリズム
順伝播
逆伝播
ニューラルネット変数 層
正解データも入力
の一部とみなすと
見通しが良い
途中で分岐して
もよい
(一般にはDAG)
minibatch j
訓練の流れ
Epoch 1
Epoch N
Epoch 2
Epoch i
Epoch i
全訓練データを
シャッフル
minibatch 1
Forward
minibatch 2
パラメータ更新
時刻
• Epoch (Iteration):全訓練データを1巡する事
→ 各訓練データはNetにN回与える
• Solver:Netを訓練するモジュール
• minibatch:少数の訓練データをまとめたもの
27
パラメータ更新
minibatch j
Backward
ディープラーニングフレームワーク
Chainerの紹介
Chainer概要
• 製作者:得居誠也、開発:Preferred Networks http://chainer.org/
• バージョン:1.0.0 (2015年6月9日)
1.20.1(2017年2月4日現在)
• ライセンス:MIT
• 言語:Python(pip install chainerでインストール可)
• 依存モジュール:Python2.7+/3.4+/ 3.5.+、Numpy1.9+/1.10/1.11、Six1.9+
• CUDA依存モジュール:CUDA6.5+
• 特徴
• Powerful:CUDA・マルチGPU対応
• Flexible:ほぼ任意のアーキテクチャーを実現可能
• Intuitive:計算グラフを通常のPythonコードで記述可能
計算グラフ構築のパラダイム:
Define-and-Run
• 計算グラフを構築した後に、データを計算グラフに順伝播する
• 計算グラフ構築方法はフレームワークにより異なる
• prototxt, yamlファイル, Luaスクリプト etc.
• 多くの深層学習フレームワークが採用
• Caffe/Torch/Theanoベースのフレームワーク
• 長所
• メモリ管理の必要がほとんどない
• 計算グラフの最適化を暗黙的に行える
• 短所
• 1訓練ループの中では計算グラフを変更できない
f g
x f g
計算グラフ構築
データフィード
計算グラフ構築のパラダイム:
Define-by-Run
• データの順伝播とそのデータに対する計算グラ
フの構築を同時に行う
• 長所
• 順伝播を通常のプログラムで記述できる
• コントロールフロー(条件分岐、forループ)を計算グラ
フ構築に利用可能
• 設定ファイル用のミニ言語を作る必要がない
• 訓練データごとに異なる計算グラフを変更可能
• 短所
• 訓練データ全体に渡る最適化は自明ではない
• 計算グラフを動的に構築するので、メモリ管理が必
要
x yf
x = chainer.Variable(...)
y = f(x)
z = g(x)
zg
データフィード
= 計算グラフ構築
Chainerはこの
パラダイムを採用
LSTMをChainerをつかって実装する(1)
入力層 LSTM 出力層
• LSTM(Long short-term memory)は、
RNN(Recurrent Neural Network)の
拡張として1995年に登場した、
時系列データ(sequential data)に対する
モデル、あるいは構造(architecture)の
1種です
LSTMをChainerをつかって実装する(2)
class RNN(Chain):
def __init__(self):
super(RNN, self).__init__(
embed=L.EmbedID(1000, 100), # word embedding
mid=L.LSTM(100, 50), # the first LSTM layer
out=L.Linear(50, 1000), # the feed-forward output layer
)
def reset_state(self):
self.mid.reset_state()
def __call__(self, cur_word):
# Given the current word ID, predict the next word.
x = self.embed(cur_word)
h = self.mid(x)
y = self.out(h)
return y
rnn = RNN()
model = L.Classifier(rnn)
optimizer = optimizers.SGD()
optimizer.setup(model)
LSTMをChainerをつかって実装する(3)
class RNN(Chain):
def __init__(self):
super(RNN, self).__init__(
embed=L.EmbedID(1000, 100), # word embedding
mid=L.LSTM(100, 50), # the first LSTM layer
out=L.Linear(50, 1000), # the feed-forward output layer
)
def reset_state(self):
self.mid.reset_state()
def __call__(self, cur_word):
# Given the current word ID, predict the next word.
x = self.embed(cur_word)
h = self.mid(x)
y = self.out(h)
return y
入力層 LSTM 出力層
DLの層を定義する
(今回だと右のよう
な3層)
LSTMをChainerをつかって実装する(4)
class RNN(Chain):
def __init__(self):
super(RNN, self).__init__(
embed=L.EmbedID(1000, 100), # word embedding
mid=L.LSTM(100, 50), # the first LSTM layer
out=L.Linear(50, 1000), # the feed-forward output layer
)
def reset_state(self):
self.mid.reset_state()
def __call__(self, cur_word):
# Given the current word ID, predict the next word.
x = self.embed(cur_word)
h = self.mid(x)
y = self.out(h)
return y
入力層 LSTM 出力層
各層に値をセットする
LSTMをChainerをつかって実装する(5)
class RNN(Chain):
def __init__(self):
super(RNN, self).__init__(
embed=L.EmbedID(1000, 100), # word embedding
mid=L.LSTM(100, 50), # the first LSTM layer
out=L.Linear(50, 1000), # the feed-forward output layer
)
def reset_state(self):
self.mid.reset_state()
def __call__(self, cur_word):
# Given the current word ID, predict the next word.
x = self.embed(cur_word)
h = self.mid(x)
y = self.out(h)
return y
rnn = RNN()
model = L.Classifier(rnn)
optimizer = optimizers.SGD()
optimizer.setup(model)
使用するネットワークを
定義する
LSTMをChainerをつかって実装する(6)
class RNN(Chain):
def __init__(self):
super(RNN, self).__init__(
embed=L.EmbedID(1000, 100), # word embedding
mid=L.LSTM(100, 50), # the first LSTM layer
out=L.Linear(50, 1000), # the feed-forward output layer
)
def reset_state(self):
self.mid.reset_state()
def __call__(self, cur_word):
# Given the current word ID, predict the next word.
x = self.embed(cur_word)
h = self.mid(x)
y = self.out(h)
return y
rnn = RNN()
model = L.Classifier(rnn)
optimizer = optimizers.SGD()
optimizer.setup(model)上記で設定したモデルを
SGDというアルゴリズムを
使って最適化する
jupyter notebookをセットアップ
しよう!
jupyter notebook
• jupyter notebook
• ノートブックと呼ばれる形式で作成したプログラムを実行し、実行結果を
記録しながら、データの分析作業を進めるためのツール
• Chainer
• jupyter notebookをセットアップしよう!
• https://github.com/hidetomasuoka/chainer-handson
chainerで線画自動着色してみよう!
PaintChainer
• 線画着色webサービスPaintsChainerを公開してみた
• http://qiita.com/taizan/items/7119e16064cc11500f32
• 初心者がchainerで線画着色してみた。わりとできた。
• http://qiita.com/taizan/items/cf77fd37ec3a0bef5d9d
© 2017 Retrieva, Inc. 41
Paint Chainerの作成の過程(近くでみてて)
1. Chainerで色を塗らせたいという強い欲望(問題設定)
2. いいアルゴリズムがないか調べる(アルゴリズムの選定)
3. カラー画像と線画データを作成して、教師データを作成する
(教師データの作成)
4. うまくいくか試してみる(試行錯誤)
5. うまくいったので、サービス化
© 2017 Retrieva, Inc. 42
画像提供
• https://whomor.com/
• 成果をつぶやくのはOKですが、作成者の佐藤弘康様(株式会社フーモ
ア所属)の名前をつけてくださ!
© 2017 Retrieva, Inc. 43
Dockerを使用して線画アプリを実行する
• 出典:https://docs.com/asashiho/4719/web-docker
© 2017 Retrieva, Inc. 44
Dockerfileをみてみる
© 2017 Retrieva, Inc. 45
Dockerファイル
• https://github.com/liamjones/PaintsChainer-
Docker/blob/master/Dockerfile
© 2017 Retrieva, Inc. 46
すいません!!!
• Windowsの方は、Dockerが使えないため、今回ローカルで設
定することができません。。。。。。。
• https://github.com/pfnet/PaintsChainer/wiki/Installation-Guide
© 2017 Retrieva, Inc. 47
「機械学習とは?」から始める Deep learning実践入門

Contenu connexe

Tendances

DeNAにおける機械学習・深層学習活用
DeNAにおける機械学習・深層学習活用DeNAにおける機械学習・深層学習活用
DeNAにおける機械学習・深層学習活用Kazuki Fujikawa
 
Cvim saisentan-6-4-tomoaki
Cvim saisentan-6-4-tomoakiCvim saisentan-6-4-tomoaki
Cvim saisentan-6-4-tomoakitomoaki0705
 
強化学習の基礎的な考え方と問題の分類
強化学習の基礎的な考え方と問題の分類強化学習の基礎的な考え方と問題の分類
強化学習の基礎的な考え方と問題の分類佑 甲野
 
Dots deep learning部_20161221
Dots deep learning部_20161221Dots deep learning部_20161221
Dots deep learning部_20161221陽平 山口
 
画像認識と深層学習
画像認識と深層学習画像認識と深層学習
画像認識と深層学習Yusuke Uchida
 
Deep Learningについて(改訂版)
Deep Learningについて(改訂版)Deep Learningについて(改訂版)
Deep Learningについて(改訂版)Brains Consulting, Inc.
 
ICLR読み会 奥村純 20170617
ICLR読み会 奥村純 20170617ICLR読み会 奥村純 20170617
ICLR読み会 奥村純 20170617Jun Okumura
 
ディープラーニングの車載応用に向けて
ディープラーニングの車載応用に向けてディープラーニングの車載応用に向けて
ディープラーニングの車載応用に向けてIkuro Sato
 
多層NNの教師なし学習 コンピュータビジョン勉強会@関東 2014/5/26
多層NNの教師なし学習 コンピュータビジョン勉強会@関東 2014/5/26多層NNの教師なし学習 コンピュータビジョン勉強会@関東 2014/5/26
多層NNの教師なし学習 コンピュータビジョン勉強会@関東 2014/5/26Takashi Abe
 
これから始める人の為のディープラーニング基礎講座
これから始める人の為のディープラーニング基礎講座これから始める人の為のディープラーニング基礎講座
これから始める人の為のディープラーニング基礎講座NVIDIA Japan
 
鳥肌必至のニューラルネットワークによる近未来の画像認識技術を体験し、IoTの知られざるパワーを知る
鳥肌必至のニューラルネットワークによる近未来の画像認識技術を体験し、IoTの知られざるパワーを知る鳥肌必至のニューラルネットワークによる近未来の画像認識技術を体験し、IoTの知られざるパワーを知る
鳥肌必至のニューラルネットワークによる近未来の画像認識技術を体験し、IoTの知られざるパワーを知るKazuki Nakajima
 
ディープニューラルネット入門
ディープニューラルネット入門ディープニューラルネット入門
ディープニューラルネット入門TanUkkii
 
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
LCCC2010:Learning on Cores,  Clusters and Cloudsの解説LCCC2010:Learning on Cores,  Clusters and Cloudsの解説
LCCC2010:Learning on Cores, Clusters and Cloudsの解説Preferred Networks
 
機械学習 入門
機械学習 入門機械学習 入門
機械学習 入門Hayato Maki
 
Deep Learningの基礎と応用
Deep Learningの基礎と応用Deep Learningの基礎と応用
Deep Learningの基礎と応用Seiya Tokui
 
Deep learningの概要とドメインモデルの変遷
Deep learningの概要とドメインモデルの変遷Deep learningの概要とドメインモデルの変遷
Deep learningの概要とドメインモデルの変遷Taiga Nomi
 
Semi supervised, weakly-supervised, unsupervised, and active learning
Semi supervised, weakly-supervised, unsupervised, and active learningSemi supervised, weakly-supervised, unsupervised, and active learning
Semi supervised, weakly-supervised, unsupervised, and active learningYusuke Uchida
 
機械学習 / Deep Learning 大全 (1) 機械学習基礎編
機械学習 / Deep Learning 大全 (1) 機械学習基礎編機械学習 / Deep Learning 大全 (1) 機械学習基礎編
機械学習 / Deep Learning 大全 (1) 機械学習基礎編Daiyu Hatakeyama
 

Tendances (20)

DeNAにおける機械学習・深層学習活用
DeNAにおける機械学習・深層学習活用DeNAにおける機械学習・深層学習活用
DeNAにおける機械学習・深層学習活用
 
Cvim saisentan-6-4-tomoaki
Cvim saisentan-6-4-tomoakiCvim saisentan-6-4-tomoaki
Cvim saisentan-6-4-tomoaki
 
強化学習の基礎的な考え方と問題の分類
強化学習の基礎的な考え方と問題の分類強化学習の基礎的な考え方と問題の分類
強化学習の基礎的な考え方と問題の分類
 
Deep Learningについて
Deep LearningについてDeep Learningについて
Deep Learningについて
 
Dots deep learning部_20161221
Dots deep learning部_20161221Dots deep learning部_20161221
Dots deep learning部_20161221
 
画像認識と深層学習
画像認識と深層学習画像認識と深層学習
画像認識と深層学習
 
Deep Learningについて(改訂版)
Deep Learningについて(改訂版)Deep Learningについて(改訂版)
Deep Learningについて(改訂版)
 
ICLR読み会 奥村純 20170617
ICLR読み会 奥村純 20170617ICLR読み会 奥村純 20170617
ICLR読み会 奥村純 20170617
 
ディープラーニングの車載応用に向けて
ディープラーニングの車載応用に向けてディープラーニングの車載応用に向けて
ディープラーニングの車載応用に向けて
 
多層NNの教師なし学習 コンピュータビジョン勉強会@関東 2014/5/26
多層NNの教師なし学習 コンピュータビジョン勉強会@関東 2014/5/26多層NNの教師なし学習 コンピュータビジョン勉強会@関東 2014/5/26
多層NNの教師なし学習 コンピュータビジョン勉強会@関東 2014/5/26
 
20150414seminar
20150414seminar20150414seminar
20150414seminar
 
これから始める人の為のディープラーニング基礎講座
これから始める人の為のディープラーニング基礎講座これから始める人の為のディープラーニング基礎講座
これから始める人の為のディープラーニング基礎講座
 
鳥肌必至のニューラルネットワークによる近未来の画像認識技術を体験し、IoTの知られざるパワーを知る
鳥肌必至のニューラルネットワークによる近未来の画像認識技術を体験し、IoTの知られざるパワーを知る鳥肌必至のニューラルネットワークによる近未来の画像認識技術を体験し、IoTの知られざるパワーを知る
鳥肌必至のニューラルネットワークによる近未来の画像認識技術を体験し、IoTの知られざるパワーを知る
 
ディープニューラルネット入門
ディープニューラルネット入門ディープニューラルネット入門
ディープニューラルネット入門
 
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
LCCC2010:Learning on Cores,  Clusters and Cloudsの解説LCCC2010:Learning on Cores,  Clusters and Cloudsの解説
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
 
機械学習 入門
機械学習 入門機械学習 入門
機械学習 入門
 
Deep Learningの基礎と応用
Deep Learningの基礎と応用Deep Learningの基礎と応用
Deep Learningの基礎と応用
 
Deep learningの概要とドメインモデルの変遷
Deep learningの概要とドメインモデルの変遷Deep learningの概要とドメインモデルの変遷
Deep learningの概要とドメインモデルの変遷
 
Semi supervised, weakly-supervised, unsupervised, and active learning
Semi supervised, weakly-supervised, unsupervised, and active learningSemi supervised, weakly-supervised, unsupervised, and active learning
Semi supervised, weakly-supervised, unsupervised, and active learning
 
機械学習 / Deep Learning 大全 (1) 機械学習基礎編
機械学習 / Deep Learning 大全 (1) 機械学習基礎編機械学習 / Deep Learning 大全 (1) 機械学習基礎編
機械学習 / Deep Learning 大全 (1) 機械学習基礎編
 

En vedette

C cleanerマニュアル
C cleanerマニュアルC cleanerマニュアル
C cleanerマニュアルHideto Masuoka
 
自分のテンプレートを作ろう
自分のテンプレートを作ろう  自分のテンプレートを作ろう
自分のテンプレートを作ろう Hideto Masuoka
 
Aws io tとsoracomを 使ってiotの世界に触れてみる
Aws io tとsoracomを 使ってiotの世界に触れてみるAws io tとsoracomを 使ってiotの世界に触れてみる
Aws io tとsoracomを 使ってiotの世界に触れてみるHideto Masuoka
 
非エンジニアのためのIt業界
非エンジニアのためのIt業界非エンジニアのためのIt業界
非エンジニアのためのIt業界Hideto Masuoka
 
基幹システムから学ぶ業務知識 ~販売業務を知る~
基幹システムから学ぶ業務知識 ~販売業務を知る~基幹システムから学ぶ業務知識 ~販売業務を知る~
基幹システムから学ぶ業務知識 ~販売業務を知る~Hideto Masuoka
 
Chainerのcommunity活動の 今までとこれから
Chainerのcommunity活動の今までとこれからChainerのcommunity活動の今までとこれから
Chainerのcommunity活動の 今までとこれからHideto Masuoka
 
20150219 初めての「embulk」
20150219 初めての「embulk」20150219 初めての「embulk」
20150219 初めての「embulk」Hideto Masuoka
 
Chainerチュートリアル -v1.5向け- ViEW2015
Chainerチュートリアル -v1.5向け- ViEW2015Chainerチュートリアル -v1.5向け- ViEW2015
Chainerチュートリアル -v1.5向け- ViEW2015Ryosuke Okuta
 
系列ラベリングの基礎
系列ラベリングの基礎系列ラベリングの基礎
系列ラベリングの基礎Takatomo Isikawa
 
情報抽出入門 〜非構造化データを構造化させる技術〜
情報抽出入門 〜非構造化データを構造化させる技術〜情報抽出入門 〜非構造化データを構造化させる技術〜
情報抽出入門 〜非構造化データを構造化させる技術〜Yuya Unno
 
条件付き確率場の推論と学習
条件付き確率場の推論と学習条件付き確率場の推論と学習
条件付き確率場の推論と学習Masaki Saito
 
【入門】3時間でアプリ公開!ゼロからのプログラミングRails講座
【入門】3時間でアプリ公開!ゼロからのプログラミングRails講座【入門】3時間でアプリ公開!ゼロからのプログラミングRails講座
【入門】3時間でアプリ公開!ゼロからのプログラミングRails講座DIVE INTO CODE Corp.
 
20170211クレジットカード認識
20170211クレジットカード認識20170211クレジットカード認識
20170211クレジットカード認識Takuya Minagawa
 
20160525はじめてのコンピュータビジョン
20160525はじめてのコンピュータビジョン20160525はじめてのコンピュータビジョン
20160525はじめてのコンピュータビジョンTakuya Minagawa
 
言語と知識の深層学習@認知科学会サマースクール
言語と知識の深層学習@認知科学会サマースクール言語と知識の深層学習@認知科学会サマースクール
言語と知識の深層学習@認知科学会サマースクールYuya Unno
 
Lamar Schrei presentation
Lamar Schrei presentationLamar Schrei presentation
Lamar Schrei presentationlschrei
 

En vedette (20)

C cleanerマニュアル
C cleanerマニュアルC cleanerマニュアル
C cleanerマニュアル
 
自分のテンプレートを作ろう
自分のテンプレートを作ろう  自分のテンプレートを作ろう
自分のテンプレートを作ろう
 
Aws io tとsoracomを 使ってiotの世界に触れてみる
Aws io tとsoracomを 使ってiotの世界に触れてみるAws io tとsoracomを 使ってiotの世界に触れてみる
Aws io tとsoracomを 使ってiotの世界に触れてみる
 
非エンジニアのためのIt業界
非エンジニアのためのIt業界非エンジニアのためのIt業界
非エンジニアのためのIt業界
 
基幹システムから学ぶ業務知識 ~販売業務を知る~
基幹システムから学ぶ業務知識 ~販売業務を知る~基幹システムから学ぶ業務知識 ~販売業務を知る~
基幹システムから学ぶ業務知識 ~販売業務を知る~
 
Chainerのcommunity活動の 今までとこれから
Chainerのcommunity活動の今までとこれからChainerのcommunity活動の今までとこれから
Chainerのcommunity活動の 今までとこれから
 
20150219 初めての「embulk」
20150219 初めての「embulk」20150219 初めての「embulk」
20150219 初めての「embulk」
 
Chainerチュートリアル -v1.5向け- ViEW2015
Chainerチュートリアル -v1.5向け- ViEW2015Chainerチュートリアル -v1.5向け- ViEW2015
Chainerチュートリアル -v1.5向け- ViEW2015
 
系列ラベリングの基礎
系列ラベリングの基礎系列ラベリングの基礎
系列ラベリングの基礎
 
深層学習生き地獄
深層学習生き地獄深層学習生き地獄
深層学習生き地獄
 
LinAction Theme Docker
LinAction Theme DockerLinAction Theme Docker
LinAction Theme Docker
 
情報抽出入門 〜非構造化データを構造化させる技術〜
情報抽出入門 〜非構造化データを構造化させる技術〜情報抽出入門 〜非構造化データを構造化させる技術〜
情報抽出入門 〜非構造化データを構造化させる技術〜
 
条件付き確率場の推論と学習
条件付き確率場の推論と学習条件付き確率場の推論と学習
条件付き確率場の推論と学習
 
【入門】3時間でアプリ公開!ゼロからのプログラミングRails講座
【入門】3時間でアプリ公開!ゼロからのプログラミングRails講座【入門】3時間でアプリ公開!ゼロからのプログラミングRails講座
【入門】3時間でアプリ公開!ゼロからのプログラミングRails講座
 
20170211クレジットカード認識
20170211クレジットカード認識20170211クレジットカード認識
20170211クレジットカード認識
 
20160525はじめてのコンピュータビジョン
20160525はじめてのコンピュータビジョン20160525はじめてのコンピュータビジョン
20160525はじめてのコンピュータビジョン
 
Semantic segmentation
Semantic segmentationSemantic segmentation
Semantic segmentation
 
HMM, MEMM, CRF メモ
HMM, MEMM, CRF メモHMM, MEMM, CRF メモ
HMM, MEMM, CRF メモ
 
言語と知識の深層学習@認知科学会サマースクール
言語と知識の深層学習@認知科学会サマースクール言語と知識の深層学習@認知科学会サマースクール
言語と知識の深層学習@認知科学会サマースクール
 
Lamar Schrei presentation
Lamar Schrei presentationLamar Schrei presentation
Lamar Schrei presentation
 

Similaire à 「機械学習とは?」から始める Deep learning実践入門

[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用
[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用
[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用de:code 2017
 
はじめての人のためのDeep Learning
はじめての人のためのDeep Learningはじめての人のためのDeep Learning
はじめての人のためのDeep LearningTadaichiro Nakano
 
PythonによるDeep Learningの実装
PythonによるDeep Learningの実装PythonによるDeep Learningの実装
PythonによるDeep Learningの実装Shinya Akiba
 
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hareDAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也harePreferred Networks
 
20180613 [TensorFlow分散学習] Horovodによる分散学習の実装方法と解説
20180613 [TensorFlow分散学習] Horovodによる分散学習の実装方法と解説20180613 [TensorFlow分散学習] Horovodによる分散学習の実装方法と解説
20180613 [TensorFlow分散学習] Horovodによる分散学習の実装方法と解説LeapMind Inc
 
ChainerでDeep Learningを試すために必要なこと
ChainerでDeep Learningを試すために必要なことChainerでDeep Learningを試すために必要なこと
ChainerでDeep Learningを試すために必要なことRetrieva inc.
 
ハンズオン セッション 3: リカレント ニューラル ネットワーク入門
ハンズオン セッション 3: リカレント ニューラル ネットワーク入門ハンズオン セッション 3: リカレント ニューラル ネットワーク入門
ハンズオン セッション 3: リカレント ニューラル ネットワーク入門NVIDIA Japan
 
なにわテック20180127
なにわテック20180127なにわテック20180127
なにわテック20180127Natsutani Minoru
 
Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)Kenta Oono
 
2018/06/23 Sony"s deep learning software and the latest information
2018/06/23 Sony"s deep learning software and the latest information2018/06/23 Sony"s deep learning software and the latest information
2018/06/23 Sony"s deep learning software and the latest informationSony Network Communications Inc.
 
今、最もイケてるPHPフレームワークLaravel4
今、最もイケてるPHPフレームワークLaravel4今、最もイケてるPHPフレームワークLaravel4
今、最もイケてるPHPフレームワークLaravel4アシアル株式会社
 
【macOSにも対応】AI入門「第3回:数学が苦手でも作って使えるKerasディープラーニング」
【macOSにも対応】AI入門「第3回:数学が苦手でも作って使えるKerasディープラーニング」【macOSにも対応】AI入門「第3回:数学が苦手でも作って使えるKerasディープラーニング」
【macOSにも対応】AI入門「第3回:数学が苦手でも作って使えるKerasディープラーニング」fukuoka.ex
 
20171206 Sony Neural Network Console 活用テクニック
20171206 Sony Neural Network Console 活用テクニック20171206 Sony Neural Network Console 活用テクニック
20171206 Sony Neural Network Console 活用テクニックSony Network Communications Inc.
 
Enjoy handwritten digits recognition AI !!
Enjoy handwritten digits recognition AI !!Enjoy handwritten digits recognition AI !!
Enjoy handwritten digits recognition AI !!KAIKenzo
 
Spanner移行について本気出して考えてみた
Spanner移行について本気出して考えてみたSpanner移行について本気出して考えてみた
Spanner移行について本気出して考えてみたtechgamecollege
 
ConditionalPointDiffusion.pdf
ConditionalPointDiffusion.pdfConditionalPointDiffusion.pdf
ConditionalPointDiffusion.pdfTakuya Minagawa
 
カスタムSIで使ってみよう ~ OpenAI Gym を使った強化学習
カスタムSIで使ってみよう ~ OpenAI Gym を使った強化学習カスタムSIで使ってみよう ~ OpenAI Gym を使った強化学習
カスタムSIで使ってみよう ~ OpenAI Gym を使った強化学習Hori Tasuku
 
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGA
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGAAn Introduction of DNN Compression Technology and Hardware Acceleration on FPGA
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGALeapMind Inc
 

Similaire à 「機械学習とは?」から始める Deep learning実践入門 (20)

[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用
[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用
[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用
 
はじめての人のためのDeep Learning
はじめての人のためのDeep Learningはじめての人のためのDeep Learning
はじめての人のためのDeep Learning
 
PythonによるDeep Learningの実装
PythonによるDeep Learningの実装PythonによるDeep Learningの実装
PythonによるDeep Learningの実装
 
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hareDAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
 
20180613 [TensorFlow分散学習] Horovodによる分散学習の実装方法と解説
20180613 [TensorFlow分散学習] Horovodによる分散学習の実装方法と解説20180613 [TensorFlow分散学習] Horovodによる分散学習の実装方法と解説
20180613 [TensorFlow分散学習] Horovodによる分散学習の実装方法と解説
 
ChainerでDeep Learningを試すために必要なこと
ChainerでDeep Learningを試すために必要なことChainerでDeep Learningを試すために必要なこと
ChainerでDeep Learningを試すために必要なこと
 
ハンズオン セッション 3: リカレント ニューラル ネットワーク入門
ハンズオン セッション 3: リカレント ニューラル ネットワーク入門ハンズオン セッション 3: リカレント ニューラル ネットワーク入門
ハンズオン セッション 3: リカレント ニューラル ネットワーク入門
 
なにわテック20180127
なにわテック20180127なにわテック20180127
なにわテック20180127
 
Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)
 
2018/06/23 Sony"s deep learning software and the latest information
2018/06/23 Sony"s deep learning software and the latest information2018/06/23 Sony"s deep learning software and the latest information
2018/06/23 Sony"s deep learning software and the latest information
 
今、最もイケてるPHPフレームワークLaravel4
今、最もイケてるPHPフレームワークLaravel4今、最もイケてるPHPフレームワークLaravel4
今、最もイケてるPHPフレームワークLaravel4
 
【macOSにも対応】AI入門「第3回:数学が苦手でも作って使えるKerasディープラーニング」
【macOSにも対応】AI入門「第3回:数学が苦手でも作って使えるKerasディープラーニング」【macOSにも対応】AI入門「第3回:数学が苦手でも作って使えるKerasディープラーニング」
【macOSにも対応】AI入門「第3回:数学が苦手でも作って使えるKerasディープラーニング」
 
20171206 Sony Neural Network Console 活用テクニック
20171206 Sony Neural Network Console 活用テクニック20171206 Sony Neural Network Console 活用テクニック
20171206 Sony Neural Network Console 活用テクニック
 
Enjoy handwritten digits recognition AI !!
Enjoy handwritten digits recognition AI !!Enjoy handwritten digits recognition AI !!
Enjoy handwritten digits recognition AI !!
 
Fpgax20180217
Fpgax20180217Fpgax20180217
Fpgax20180217
 
Spanner移行について本気出して考えてみた
Spanner移行について本気出して考えてみたSpanner移行について本気出して考えてみた
Spanner移行について本気出して考えてみた
 
ConditionalPointDiffusion.pdf
ConditionalPointDiffusion.pdfConditionalPointDiffusion.pdf
ConditionalPointDiffusion.pdf
 
カスタムSIで使ってみよう ~ OpenAI Gym を使った強化学習
カスタムSIで使ってみよう ~ OpenAI Gym を使った強化学習カスタムSIで使ってみよう ~ OpenAI Gym を使った強化学習
カスタムSIで使ってみよう ~ OpenAI Gym を使った強化学習
 
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGA
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGAAn Introduction of DNN Compression Technology and Hardware Acceleration on FPGA
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGA
 
Scrum alliance regional gathering tokyo 2013 pub
Scrum alliance regional gathering tokyo 2013 pubScrum alliance regional gathering tokyo 2013 pub
Scrum alliance regional gathering tokyo 2013 pub
 

「機械学習とは?」から始める Deep learning実践入門

Notes de l'éditeur

  1. 2013/3 GoogleがUniv of TrontoのDNN researchを買収 2013/4 Baiduがinstitute of Deep Learningを設立 2013/8 YahooがIQ Enginesを買収 2013/10 YahooがLookFlowを買収 2013/12 FacebookがAI Labを設立 2014/1 GoogleがDeep Mindを買収 2014/10 DeepMind がUKのDarkBlue、Vision Factoryを買収、Oxfordと連携 http://image-net.org/challenges/LSVRC/2014/slides/GoogLeNet.pptx http://static.googleusercontent.com/media/research.google.com/ja//archive/unsupervised_icml2012.pdf http://googleblog.blogspot.jp/2012/06/using-large-scale-brain-simulations-for.html http://googlepolicyeurope.blogspot.be/2014/10/teaming-up-with-oxford-university-on.html
  2. https://github.com/muupan/caffe/tree/dqn https://www.youtube.com/watch?v=p88R2_3yWPA