SlideShare une entreprise Scribd logo
1  sur  73
Télécharger pour lire hors ligne
Pythonによる機械学習⼊⾨
〜基礎からDeep Learningまで〜
電⼦情報通信学会総合⼤会 2016 企画セッション
「パターン認識・メディア理解」必須ソフトウェアライブラリ ⼿とり⾜とりガイド
名古屋⼤学 情報科学研究科 メディア科学専攻 助教
川⻄康友
1
⾃⼰紹介
l 経歴
Ø 2012年 京都⼤学⼤学院 情報学研究科 博⼠後期課程修了
Ø 2012年 京都⼤学 学術情報メディアセンター 特定研究員
Ø 2014年 名古屋⼤学 未来社会創造機構 特任助教
Ø 2015年 名古屋⼤学 情報科学研究科 助教
l 研究テーマ
Ø ⼈物画像処理
²⼈物検出
²⼈物追跡
²⼈物検索
²⼈物照合
²歩⾏者属性認識
Ø 背景画像推定
2
← PRMUでサーベイ発表しています
← PRMUでサーベイ発表しています ← Pythonを使用
← 一部Pythonを使用
← 一部Pythonを使用
本チュートリアルの流れ
lPython⼊⾨編
ØPythonの簡単な説明
ØPythonでのデータ(⾏列)の扱い
l機械学習編
Øトイデータで機械学習にチャレンジ
Ø実際のデータの読み込み
Ø学習した識別器の保存,読み込み
Ø結果の集計
Øクロスバリデーション
ØDeep Learningを試してみる
3
理論の話は殆どありません
Python⼊⾨編
4
Pythonを勉強するための資料集
l@shima__shimaさん
Ø機械学習の Python との出会い
²numpyと簡単な機械学習への利⽤
l@payashimさん
ØPyConJP 2014での「OpenCVのpythonインター
フェース⼊⾨」の資料
²Pythonユーザ向けの,OpenCVを使った画像処理解説
lPython Scientific Lecture Notes
Ø⽇本語訳
Ø⾮常におすすめ
Ønumpy/scipyから画像処理,
3D可視化まで幅広く学べる
Pythonの簡単な説明
lまずはHello world!
lスクリプトの作成と保存
l基本的な型,制御構⽂,関数
lモジュールとパッケージ
lよく使うパッケージ
6
まずはHello world!
lSpyderの起動
7
ランチャーに登録してある
Spyder をクリックします
まずはHello world!
lSpyderの使い⽅
8
コードを書く画面
変数などの情報が
表示される画面
1行ずつ実行できる
対話型シェル
まずはHello world!
lipythonの起動
9
高機能なシェルの
ipythonを使う場合
まずはHello world!
l対話型シェルでHello world!
10
Print(“Hello	world”)
と入力してEnter
結果が表示される
まずはHello world!
lファイルに記述して実⾏する場合
11
書いて
実行!
結果が表示される
スクリプトの作成と保存 12
新規作成
スクリプトの作成と保存 13
新しいファイルができる
(untitled)
スクリプトの作成と保存 14
保存
スクリプトの作成と保存 15
このチュートリアルでは,この場所
(	/home/tutorial/python	 )
にファイルを保存してください
ファイル名を入力
スクリプトの作成と保存 16
ファイルを保存した場所に
作業ディレクトリを移動
現在の作業ディレクトリ
基本的な型,制御構⽂,関数
l数値型
Ø整数,浮動⼩数点数,複素数,真偽値
lコンテナ
Øリスト,タプル,集合,辞書
²基本的にどんな型でも⼊れられる(型の混在可)
Ø⽂字列
l定数
ØTrue, False
²真偽値のリテラル
ØNone
²C⾔語でいうNULLのようなもの
17
基本的な型,制御構⽂,関数
l⽂字列の連結
Ø+ 演算⼦で連結可能
l⽂字列の整形⽅法
ØC⾔語でのprintf系関数の処理
Ø % 演算⼦を利⽤
Ø複数の場合は ( ) で囲む
18
str = "文字列" + "別の文字列"
val = 10
str = "整数: %d" % val
val = 10; f = 0.01; s = "abc"
str = "整数: %d, 浮動小数点数: %f, 文字列: %s" % (val, f, s)
基本的な型,制御構⽂,関数
lif⽂
lwhile⽂
lfor⽂
19
if 条件1:
条件1の場合の処理
elif 条件2:
条件2の場合の処理
else:
それ以外の場合の処理
while 条件:
条件が真の間繰り返し
c = [0.1, 2.34, 5.6, 7.89] # コンテナ
for x in c:
# c の要素を x で参照しながら繰り返し
print(x)
スペース4個分
コロン
基本的な型,制御構⽂,関数
l関数の定義
l関数の呼び出し
20
a = 10
b = 20
c = sample(a, b)
def sample(x, y):
# 色々な処理
z = x + y
return z
スペース4個分
その他 tips
l多重代⼊
ØC⾔語等と違い,複数の値を同時にreturnできる
Øswapも可能
21
def test(a, b):
c = a + 1
d = b * 2
return c, d
x, y = test(1, 2)
a, b = b, a
x, y には 2 と 4 がそれぞれ⼊る
その他 tips
lリストの⽣成 range 関数
lリストの要素とインデックスを取得
22
range(5)
# [0, 1, 2, 3, 4]
for i in range(10):
print(i)
a = ["a", "b", "c"]
for i, v in enumerate(a):
print("a[%d]=%s" % (i, v))
多重代⼊
インデックスと要素の値を i, vで参照可能
その他 tips
lオプション引数
Øデフォルト値の指定
l名前付き引数
23
def func(a, b=10, c=False):
# 関数
# 関数呼び出し時
func(10, c=True)
引数 b には指定せず
引数 c だけ値を指定するとき
引数を指定しないとb=10, c=False となる
モジュールとパッケージ
lモジュール
ØPythonで書いた関数やクラスをまとめた
1つのファイル
lパッケージ
Øモジュールが複数まとめられたもの
l使い⽅
Øインポートすれば利⽤可能
24
import モジュール名
from モジュール名 import 関数名
from パッケージ名 import モジュール名
import モジュール名 as 別名
Pythonでのデータ(⾏列)の扱い
l数値計算ライブラリ numpy
Ønumpyの⾏列
Ø⾏列に対する演算
25
numpyの⾏列
lN次元配列 ndarray
ØOpenCVの cv::Mat みたいな感じで利⽤
²今回は特徴量やラベルの配列として利⽤
²1⾏が1つの特徴量
Ø通常のリストとは違い,型は統⼀
26
import numpy as np
a = np.array([[0,0,1],[0,0,2]], dtype=np.float32)
b = np.array([[1,2,3],[4,5,6]], dtype=np.float32)
c = a + b
d = a * b
e = np.dot(a, b.T)
要素ごとの演算
⾏列の積を求める場合はnp.dot関数
.T は転置⾏列
型を指定(np.float32, np.int8など)
numpyの⾏列
l インデキシング(特定の要素の値を取り出す)
l スライシング(特定の範囲を取り出す)
Ø 特徴量のうち特定のサンプルだけ使う,特定の次元だけ使う,など
l ファンシーインデキシング(条件に合う⾏,列を取り出す)
Ø 認識失敗したものに対応する特徴量を取り出す,など
27
a[i, j] # 行列 a の (i, j) 要素
a[i, :] # 行列 a の i 行目(のベクトル)
a[:, j] # 行列 a の j 列目
a[:, 0:3] # 行列 a の 0, 1, 2列目の部分行列
a[b==1, :] # 行列 a のうち,
# 行列 b の要素が 1 であるものに
# 対応する行列
⾏列に対する演算
lユニバーサル関数
Ø⾏列の各要素に関数を適⽤,⾏列を返す
l集計⽤の関数
28
import numpy as np
a = np.array([[0,0,1],[0,0,2]])
print(np.count_nonzero(a))
⾮ゼロの要素数を返す
import numpy as np
a = np.array([[1,2,3],[4,5,6]], dtype=np.int32)
b = np.power(a, 2.0)
⾏列 a の各要素を2乗した⾏列を返す
機械学習編
29
機械学習ライブラリ
lscikit-learn
Øhttp://scikit-learn.org/
Ø機械学習に関する
様々な⼿法が実装されたライブラリ
²クラス分類
²クラスタリング
²回帰
²データマイニング
ØBSDライセンス
30
機械学習ガイド 31
解きたい問題に対して何を使えば良いのかのガイドも載っています
今回チャレンジする問題
l多クラス分類問題
Ø⼊⾨編
²Iris Dataset
– 花(あやめ)の3クラス分類
Ø実践編
²Pedestrian Direction Classification Dataset
– 歩⾏者の向き8⽅向分類
32
機械学習ガイド 33
解きたい問題に対して何を使えば良いのかのガイドも載っています
ここに相当する問題です
使⽤するクラス分類器
lクラス分類器
ØLinear SVM
Øk Nearest Neighbors
Ø(Kernel) SVM
ØAdaBoost
ØRandom Forest
ØNeural Network
ØConvolutional Neural Network
34
この部分は chainer という
パッケージを利用
クラス分類器(乱暴に図と⼀⾔で表しています) 35
Linear SVM
Kernel SVM
k-NN
AdaBoost
Random Forest
Neural Network CNN
・・・
弱識別器
苦⼿な問題を他の弱識別器へ
多数決
マージン最⼤化
⾮線形の識別平⾯
複数の決定⽊をランダムに⽣成
畳み込み層による特徴抽出も⾏う線形結合と活性化関数
アンサンブル学習
Deep	Learning
機械学習にチャレンジ
lIris Dataset
Øクラス
²3種類のあやめ
Ø特徴量(4次元)
²がくの⻑さ,幅
²花弁の⻑さ,幅
l⼊⼿⽅法,使い⽅
Øscikit-learnでは, sklearn.datasets.load_iris()
という関数でデータを読み込みできる
36
機械学習にチャレンジ
l機械学習の流れ
Ø特徴量の読み込み
²学習データ,学習データのラベル
²テストデータ,テストデータのラベル
Ø識別器の準備
Ø識別器の学習
Øテストデータの評価
Ø結果の出⼒
37
機械学習にチャレンジ
l特徴量の読み込み
l特徴量の分割
from sklearn.datasets import load_iris
dataset = load_iris()
features = np.array(dataset["data"], dtype=np.float32)
labels = np.array(dtaset["target"], dtype=np.int32)
#	学習データとテストデータに分ける
train_features,	test_features,	train_labels,	test_labels =	(行続く)
train_test_split(features,	labels,	test_size=0.3)
scikit-learnに用意されている,
Iris	Datasetを読み込むための関数
型を修正しておく
特徴量とラベルを取り出す
特徴量を学習用とテスト用に分割する関数
何割をテストに使うかの引数(この例だと3割)
機械学習にチャレンジ
l識別器の準備
l識別器の学習
39
from	sklearn.svm import	LinearSVC
#	識別器の用意
classifier	=	LinearSVC()
#	学習
classifier.fit(train_features,	train_labels)
識別器のインスタンスを生成
引数で色々なオプションがあるの
で調べてみてください
特徴量と,そのクラスラベルを渡す
使いたい識別器を予めインポート
しておく(ここではLinearSVC)
機械学習にチャレンジ
lテストデータの評価
l結果の出⼒
40
#	テスト
results	=	classifier.predict(test_features)
from	sklearn.metrics import	accuracy_score
#	認識率を計算
score	=	accuracy_score(test_labels,	results)
print(score)
認識率を計算してくれる関数
テスト用のデータを渡すだけ
各データに対する認識結果が返る
【実践1】試してみましょう 41
線形SVM識別器を利用して,
Iris	Datasetの認識率を評価しましょう
LinearSVC()	にパラメータを渡して
結果の違いを見てみましょう
スライシングを使い,
4次元の特徴量のうち幾つかの特徴量
だけを用いて認識率を評価しましょう
train_test_split の前に実行
実際のデータの読み込み
l普通は事前にOpenCVなどで特徴抽出
Ø特徴量を保存しておく
Ø保存形式は svmlight / libsvm の形式が便利
²特徴量とラベルを分けて読み込める
lscikit-learnには以下の関数が存在
42
from sklearn.datasets import load_svmlight_file
from sklearn.datasets import dump_svmlight_file
# 読み込み
data = load_svmlight_file("ファイル名")
features = data[0].todense()
labels = data[1]
# 書き出し
dump_svmlight_file(features, labels, "ファイル名")
SparseMatなので
denseに変換
svmlight / libsvm 形式
llibsvmなどのツールで利⽤されている形式
Øそのまま svm-train などのコマンドで利⽤可
43
1 1:0.111 2:0.253 3:0.123 4:-0.641 …
1 1:0.121 2:0.226 3:0.143 4:-0.661 …
-1 1:0.511 2:-0.428 3:0.923 4:0.348 …
-1 1:0.751 2:-0.273 3:0.823 4:0.632 …
クラスラベル
特徴量の次元番号:特徴量の値 の組が次元数分ある
学習した識別器の保存,読み込み
l普通は学習した識別器を保存して別途テスト
Ø保存にはPythonでは⼀般的にシリアライズ関数
(オブジェクトをそのまま保存)を利⽤することが多い
²pickleというパッケージ
lscikit-learnには以下の関数が存在
Øpickleよりも効率的らしい
44
# 保存
from sklearn.externals import joblib
joblib.dump(classifier, "ファイル名")
# 読み込み
classifier = joblib.load("ファイル名")
学習した識別器の保存,読み込み
l保存ができると…
Ø学習スクリプトと評価スクリプトを分離可能
45
from sklearn.svm import LinearVC
from sklearn.externals import joblib
# 学習
classifier = SVC()
classifier.fit(X, t)
# 保存
joblib.dump(classifier, "svc.model")
from sklearn.externals import joblib
# 読み込み
classifier = joblib.load("svc.model")
# 評価
result = classifier.predict(X)
学習スクリプト 評価スクリプト
学習まで終わった段階で
識別器の状態を保存
学習済みの識別器を読み込んで
すぐに評価
【実践2】試してみましょう
lデータを読み込んで認識
Ø今回の課題
²歩⾏者向き認識
– samples/images/ に 8⽅向別の画像
²HOG特徴量を抽出済み
Ø⽤意したデータ
²学習⽤:samples/features/train.scale
²評価⽤:samples/features/test.scale
46
識別器を切り替えてみる
l今までの説明は線形SVMを利⽤
l他の識別器を使ってみよう
Ø書き換えるべき部分は以下の3⾏だけ!
47
from sklearn.svm import LinearSVC
〜中略〜
# 学習
classifier = SVC()
〜中略〜
# 保存
joblib.dump(classifier, "svc.model")
識別器
l使いたい識別器を決める
l保存ファイル名を識別器に合わせて変える
48
from sklearn.svm import LinearSVC # 線形SVM
from sklearn.svm import SVC # 非線形SVM
from sklearn.neighbors import KNeighborsClassifier # kNN識別器
from sklearn.ensemble import AdaBoostClassifier # AdaBoost
from sklearn.ensemble import RandomForestClassifier # Random Forest
classifier = LinearSVC()
classifier = SVC()
classifier = KNeighborsClassifier()
classifier = AdaBoostClassifier()
classifier = RandomForestClassifier()
joblib.dump(classifier, "svc.model")
使いたいものを
インポート
使いたいものを
classifierに代入
Confusion Matrix
l結果の集計
Ø全体の平均スコアだけでなく,
クラスごとの誤りを知りたい場合
²Confusion Matrixの利⽤
lsklearn.metrics 内に confusion_matrix 関数が存在
Øconfusion_matrix(test_labels, results)
²正解と認識結果を⼊れると結果の ndarray が返る
²printすれば表⽰可能
49
クラス0 クラス1 クラス2
クラス0 13 0 0
クラス1 0 11 3
クラス2 0 3 15
【実践3】試してみましょう 50
複数の識別器を切り替えて学習し,
認識率を比較してみましょう
Confusion	Matrixを表示して
結果を見てみましょう
クロスバリデーション
l1つの学習・テストデータセットでは
結果がかたよる可能性
Øデータを複数個に分割し,
何回か学習・テストを試して平均を取る
Ø例:10-fold cross validation
²100個のデータを10分割
– 90個で学習→10個でテスト
– テストに使うセットを替えて10回実⾏
51
lsklearn.cross_validation 内に
cross_val_score という関数が存在
result =	cross_val_score(clf,	data_x,	data_y,	cv=10)
print(“accuracy:	%f	±%f”	%	(result.mean(),	result.std())
クロスバリデーション 52
10-fold	cross	validationを実行
好きなクラス分類器
学習用のデータセット
平均と標準偏差を表示
【実践4】試してみましょう
l好きな識別器を使い,
10-fold cross validationしてみよう
Øこれまでの,「学習」「評価」の部分を,
前述の corss_validation_score 関数に置換
53
Deep Learningを試してみる
lDeep Learningの代表的なパッケージ
Øcaffe (by BVLC)
Øchainer (by Preferred Networks)
ØTensorFlow (by Google)
54
ニューラルネットワークの基礎
l多層パーセプトロン
55
重み付き和→活性化関数 重み付き和→活性化関数
多クラス分類の場合,
クラス数分の出力ユニット
特徴量の次元数分の
入力ユニット
CNNの基礎
lフィルタ畳み込み層+全結合層
Ø特徴抽出と分類を同時に学習
56
図: http://systemdesign.altera.com/can-you-see-using-convolutional-neural-networks/
(CNN:	Convolutional	Neural	Network)
Deep Learningでのキーワード
l活性化関数
Ø線形結合した後に適⽤する関数
Ø例
²シグモイド関数
²ReLU (Rectified Linear Unit)
²maxout
lバックプロパゲーション(誤差逆伝播法)
Øネットワークの出⼒値と正解値との誤差を逆伝播
Ø誤差が⼩さくなるようにパラメータを更新
57
Deep Learningでのキーワード
lドロップアウト
Ø学習時に⼀部のノードの出⼒を0にする
Ø過学習を防ぎ,汎化性能を向上させる
l確率的勾配法(ミニバッチ)
Ø⼤量データの場合,メモリの制限で⼀括で学
習できない
Ø学習データを⼩さく分割し,
少しずつ学習してパラメータ更新を⾏う
58
chainerを使ってみる
lchainerでの処理⼿順
Øネットワークの構築
Ø最適化⼿法の選択
Øミニバッチの作成・学習
Ø評価
l今回の課題
Øirisをニューラルネットで識別
ØPDCをCNNで識別
59
ネットワークの構築
l決めないといけないこと
Ø層数
Ø各層のユニット数
Ø層間に適⽤する関数
60
from chainer import FunctionSet
import chainer.functions as F
model = FunctionSet(
l1=F.Linear(4, 200),
l2=F.Linear(200, 100),
l3=F.Linear(100, 3))
入力層=特徴量次元
線形結合を3層
4次元(入力)→200次元
200次元→100次元
100次元→3次元(出力)
層数
ユニット数 ユニット数
・・・
・・・
関数 関数
ネットワークの構築
l伝播のさせ⽅
Ø活性化関数,ドロップアウトなどの設定
Ø評価関数の設定
61
from chainer import Variable
def forward(feature, label, train=True):
x = Variable(feature)
y = Variable(label)
h1 = F.dropout(F.relu(model.l1(x)), train=train)
h2 = F.dropout(F.relu(model.l2(h1)), train=train)
p = model.l3(h2)
return F.softmax_cross_entropy(p, y), F.accuracy(p, y)
Dropoutをする場合
chainer用の変数へ変換
活性化関数
train=Trueの時のみ
Dropoutを実行
引数の初期値
学習データでの予測精度誤差関数としてsoftmaxの
cross_entropyを利用
最適化⼿法の選択
loptimizersで定義されている
Ø⾊々なパラメータ更新⽅法
²SGD ( Stochastic Gradient Descent)
²AdaGrad
²RMSprop
²Adam (ADAptive Moment estimation)
62
from chainer import optimizers
optimizer = optimizers.Adam()
optimizer.setup(model.collect_parameters())
最適化のモジュール
modelのパラメータを登録する
学習率を
自動的に
調整する
改良
ミニバッチの作成・学習
l データを分割して順番に伝播,誤差逆伝播
63
import numpy as np
n_epoch = 100
batchsize = 20
N = len(features)
for epoch in range(n_epoch):
print('epoch: %d' % (epoch+1))
perm = np.random.permutation(N)
sum_accuracy = 0
sum_loss = 0
for i in range(0, N, batchsize):
x_batch = features[perm[i:i+batchsize]]
y_batch = labels[perm[i:i+batchsize]]
optimizer.zero_grads()
loss, acc = forward(x_batch, y_batch)
loss.backward()
optimizer.update()
sum_loss += float(loss.data) * batchsize
sum_accuracy += float(acc.data) * batchsize
print("loss: %f, accuracy: %f", sum_loss / N, sum_accuracy / N)
繰り返し回数
ミニバッチの分割
各ミニバッチ毎にパラメータ更新
勾配の初期化
順伝播
誤差の逆伝播
パラメータの更新
評価
lテストデータをネットワークに通す
64
#%%
# 伝播のさせ方
def forward_predict(features, label, train=True):
x = Variable(features)
y = Variable(label)
h1 = F.max_pooling_2d(F.relu(model.conv1(x)), ksize=5)
h2 = F.max_pooling_2d(F.relu(model.conv2(h1)), ksize=5)
h3 = F.dropout(F.relu(model.fc1(h2)), train=train)
p = model.fc2(h3)
return p.data
#%%
# テスト
result_scores = forward_predict(test_features, train=False)
results = np.argmax(result_scores, axis=1)
各クラスのスコアが出てくるので argmax を取る
ネットワークの出力を返すように修正
【実践5】試してみましょう 65
Iris	Datasetをニューラルネットワーク
で学習・評価してみましょう
これまでの識別器の代わりにNeural	Networkを利用
層数やユニット数を変えてみて
結果の違いを見てみましょう
CNNを試してみる
l変更点
Ø特徴量ではなく,画像を読み込む
²これまでは抽出済みの特徴量を読み込んでいた
– サンプル数 x 特徴量次元数 の ndarray を利⽤
²CNNでは2次元の画像を読み込む
– サンプル数 x チャンネル数 x 画像の⾼さ x 画像の幅 の
ndarray を利⽤
ØConvolution層を追加
²Convolution+ReLU+Maxout
– フィルタ畳み込み
– 活性化関数を通して
– 領域内の最⼤値を出⼒
66
CNNの構築
l画像の読み込み
lネットワークの構造
67
from chainer import FunctionSet
import chainer.functions as F
#	ネットワークの構築
model	=	FunctionSet(
conv1=F.Convolution2D(1,	 32,	3),	
conv2=F.Convolution2D(32,	 64,	3),	
fc1=F.Linear(512,	200),
fc2=F.Linear(200,	8))
入力層=1チャンネル(モノクロ画像)
Convolution層が2つ,
全結合層が2つ
1→32チャンネル
32→64チャンネル
512次元→200次元
200次元→8次元(出力)
##	画像ファイル分の容量を確保
##	画像枚数xチャンネル数(1)x高さx幅
features	=	np.ndarray((len(filenames),	 1,	96,	48),	dtype=np.float32)
labels	=	np.ndarray((len(filenames),),	 dtype=np.int32)
CNNの構築
l伝播のさせ⽅
Ø活性化関数,ドロップアウトなどの設定
Ø評価関数の設定
68
from chainer import Variable
def forward(feature, label, train=True):
x = Variable(feature)
y = Variable(label)
h1 = F.max_pooling_2d(F.relu(model.conv1(x)), ksize=5)
h2 = F.max_pooling_2d(F.relu(model.conv2(h1)), ksize=5)
h3 = F.dropout(F.relu(model.fc1(h2)), train=train)
p = model.fc2(h3)
return F.softmax_cross_entropy(p, y), F.accuracy(p, y)
chainer用の変数へ変換
学習データでの予測精度誤差関数としてsoftmaxの
cross_entropyを利用
カーネルサイズ5で
max	pooling
【実践6】試してみましょう
lCNNを⽤いて歩⾏者向き認識
Øコードが少し⻑いので
サンプルコードをダウンロードして
動かしてみましょう
Ø/home/tutorial/python へ保存
Øspyder で開いて実⾏してみましょう
69
http://www.murase.m.is.nagoya-u.ac.jp/~kawanishiy/data/cnn.py
実⾏にかなり時間がかかるので,
学習のエポックごとに徐々に誤差が
減っていく様⼦を確認できればOK
まとめ
lPythonによる機械学習
Ønumpyによるデータの扱い
Øscikit-learnによる各種機械学習
ØchainerによるDeep Learning
70
71
様々な⾔語でのライブラリ紹介
lC++⽤
ØCaffe
²http://caffe.berkeleyvision.org/
lJava⽤
ØDeep Learning 4j
²http://deeplearning4j.org/ja-index.html
lLua⽤
ØTorch
²http://torch.ch
lPython⽤
Øchainer
²http://chainer.org
72
メモ
lGDとSGDの違い
Øhttp://sinhrks.hatenablog.com/entry/201
4/11/24/205305
lchainerからcaffemodel読み込み
Øhttp://d.hatena.ne.jp/shi3z/20150711/1
436566217
73

Contenu connexe

Tendances

心理学のためのPsychパッケージ
心理学のためのPsychパッケージ心理学のためのPsychパッケージ
心理学のためのPsychパッケージ考司 小杉
 
RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...
RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...
RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...Kei Nakagawa
 
RStanとShinyStanによるベイズ統計モデリング入門
RStanとShinyStanによるベイズ統計モデリング入門RStanとShinyStanによるベイズ統計モデリング入門
RStanとShinyStanによるベイズ統計モデリング入門Masaki Tsuda
 
Stanコードの書き方 中級編
Stanコードの書き方 中級編Stanコードの書き方 中級編
Stanコードの書き方 中級編Hiroshi Shimizu
 
[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習Deep Learning JP
 
「生態学における統計的因果推論」という大ネタへの挑戦:その理論的背景と適用事例
「生態学における統計的因果推論」という大ネタへの挑戦:その理論的背景と適用事例「生態学における統計的因果推論」という大ネタへの挑戦:その理論的背景と適用事例
「生態学における統計的因果推論」という大ネタへの挑戦:その理論的背景と適用事例takehikoihayashi
 
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)Shota Imai
 
Rでisomap(多様体学習のはなし)
Rでisomap(多様体学習のはなし)Rでisomap(多様体学習のはなし)
Rでisomap(多様体学習のはなし)Kohta Ishikawa
 
Oracle property and_hdm_pkg_rigorouslasso
Oracle property and_hdm_pkg_rigorouslassoOracle property and_hdm_pkg_rigorouslasso
Oracle property and_hdm_pkg_rigorouslassoSatoshi Kato
 
ベイズファクターとモデル選択
ベイズファクターとモデル選択ベイズファクターとモデル選択
ベイズファクターとモデル選択kazutantan
 
情報抽出入門 〜非構造化データを構造化させる技術〜
情報抽出入門 〜非構造化データを構造化させる技術〜情報抽出入門 〜非構造化データを構造化させる技術〜
情報抽出入門 〜非構造化データを構造化させる技術〜Yuya Unno
 
数学カフェ 確率・統計・機械学習回 「速習 確率・統計」
数学カフェ 確率・統計・機械学習回 「速習 確率・統計」数学カフェ 確率・統計・機械学習回 「速習 確率・統計」
数学カフェ 確率・統計・機械学習回 「速習 確率・統計」Ken'ichi Matsui
 
Python 学習教材 (~299ページ)
Python 学習教材 (~299ページ)Python 学習教材 (~299ページ)
Python 学習教材 (~299ページ)Jun MITANI
 
金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデルKei Nakagawa
 
Rで因子分析 商用ソフトで実行できない因子分析のあれこれ
Rで因子分析 商用ソフトで実行できない因子分析のあれこれRで因子分析 商用ソフトで実行できない因子分析のあれこれ
Rで因子分析 商用ソフトで実行できない因子分析のあれこれHiroshi Shimizu
 
東京都市大学 データ解析入門 3 行列分解 2
東京都市大学 データ解析入門 3 行列分解 2東京都市大学 データ解析入門 3 行列分解 2
東京都市大学 データ解析入門 3 行列分解 2hirokazutanaka
 
スパース推定法による統計モデリング(入門)
スパース推定法による統計モデリング(入門)スパース推定法による統計モデリング(入門)
スパース推定法による統計モデリング(入門)Hidetoshi Matsui
 
『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会takehikoihayashi
 

Tendances (20)

心理学のためのPsychパッケージ
心理学のためのPsychパッケージ心理学のためのPsychパッケージ
心理学のためのPsychパッケージ
 
RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...
RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...
RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...
 
正準相関分析
正準相関分析正準相関分析
正準相関分析
 
RStanとShinyStanによるベイズ統計モデリング入門
RStanとShinyStanによるベイズ統計モデリング入門RStanとShinyStanによるベイズ統計モデリング入門
RStanとShinyStanによるベイズ統計モデリング入門
 
Stanコードの書き方 中級編
Stanコードの書き方 中級編Stanコードの書き方 中級編
Stanコードの書き方 中級編
 
[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習
 
「生態学における統計的因果推論」という大ネタへの挑戦:その理論的背景と適用事例
「生態学における統計的因果推論」という大ネタへの挑戦:その理論的背景と適用事例「生態学における統計的因果推論」という大ネタへの挑戦:その理論的背景と適用事例
「生態学における統計的因果推論」という大ネタへの挑戦:その理論的背景と適用事例
 
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)
 
Rでisomap(多様体学習のはなし)
Rでisomap(多様体学習のはなし)Rでisomap(多様体学習のはなし)
Rでisomap(多様体学習のはなし)
 
Oracle property and_hdm_pkg_rigorouslasso
Oracle property and_hdm_pkg_rigorouslassoOracle property and_hdm_pkg_rigorouslasso
Oracle property and_hdm_pkg_rigorouslasso
 
ベイズファクターとモデル選択
ベイズファクターとモデル選択ベイズファクターとモデル選択
ベイズファクターとモデル選択
 
情報抽出入門 〜非構造化データを構造化させる技術〜
情報抽出入門 〜非構造化データを構造化させる技術〜情報抽出入門 〜非構造化データを構造化させる技術〜
情報抽出入門 〜非構造化データを構造化させる技術〜
 
数学カフェ 確率・統計・機械学習回 「速習 確率・統計」
数学カフェ 確率・統計・機械学習回 「速習 確率・統計」数学カフェ 確率・統計・機械学習回 「速習 確率・統計」
数学カフェ 確率・統計・機械学習回 「速習 確率・統計」
 
Python 学習教材 (~299ページ)
Python 学習教材 (~299ページ)Python 学習教材 (~299ページ)
Python 学習教材 (~299ページ)
 
劣微分
劣微分劣微分
劣微分
 
金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル
 
Rで因子分析 商用ソフトで実行できない因子分析のあれこれ
Rで因子分析 商用ソフトで実行できない因子分析のあれこれRで因子分析 商用ソフトで実行できない因子分析のあれこれ
Rで因子分析 商用ソフトで実行できない因子分析のあれこれ
 
東京都市大学 データ解析入門 3 行列分解 2
東京都市大学 データ解析入門 3 行列分解 2東京都市大学 データ解析入門 3 行列分解 2
東京都市大学 データ解析入門 3 行列分解 2
 
スパース推定法による統計モデリング(入門)
スパース推定法による統計モデリング(入門)スパース推定法による統計モデリング(入門)
スパース推定法による統計モデリング(入門)
 
『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会
 

En vedette

機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual TalksYuya Unno
 
基礎からのベイズ統計学 2章 勉強会資料
基礎からのベイズ統計学 2章 勉強会資料基礎からのベイズ統計学 2章 勉強会資料
基礎からのベイズ統計学 2章 勉強会資料at grandpa
 
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理Ken'ichi Matsui
 
統計学の基礎の基礎
統計学の基礎の基礎統計学の基礎の基礎
統計学の基礎の基礎Ken'ichi Matsui
 
機械学習ゴリゴリ派のための数学とPython
機械学習ゴリゴリ派のための数学とPython機械学習ゴリゴリ派のための数学とPython
機械学習ゴリゴリ派のための数学とPythonKimikazu Kato
 
TensorFlowとは? ディープラーニング (深層学習) とは?
TensorFlowとは? ディープラーニング (深層学習) とは?TensorFlowとは? ディープラーニング (深層学習) とは?
TensorFlowとは? ディープラーニング (深層学習) とは?KSK Analytics Inc.
 
ルールベースから機械学習への道 公開用
ルールベースから機械学習への道 公開用ルールベースから機械学習への道 公開用
ルールベースから機械学習への道 公開用nishio
 
実戦投入する機械学習
実戦投入する機械学習実戦投入する機械学習
実戦投入する機械学習Takahiro Kubo
 
Chainerチュートリアル -v1.5向け- ViEW2015
Chainerチュートリアル -v1.5向け- ViEW2015Chainerチュートリアル -v1.5向け- ViEW2015
Chainerチュートリアル -v1.5向け- ViEW2015Ryosuke Okuta
 
機械学習概論 講義テキスト
機械学習概論 講義テキスト機械学習概論 講義テキスト
機械学習概論 講義テキストEtsuji Nakai
 
Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識Ken Morishita
 
TensorFlow を使った 機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った 機械学習ことはじめ (GDG京都 機械学習勉強会)徹 上野山
 
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tatsuya Tojima
 
Deep Learningと画像認識   ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識   ~歴史・理論・実践~nlab_utokyo
 
scikit-learnを用いた機械学習チュートリアル
scikit-learnを用いた機械学習チュートリアルscikit-learnを用いた機械学習チュートリアル
scikit-learnを用いた機械学習チュートリアル敦志 金谷
 
機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話Ryota Kamoshida
 

En vedette (16)

機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks
 
基礎からのベイズ統計学 2章 勉強会資料
基礎からのベイズ統計学 2章 勉強会資料基礎からのベイズ統計学 2章 勉強会資料
基礎からのベイズ統計学 2章 勉強会資料
 
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
 
統計学の基礎の基礎
統計学の基礎の基礎統計学の基礎の基礎
統計学の基礎の基礎
 
機械学習ゴリゴリ派のための数学とPython
機械学習ゴリゴリ派のための数学とPython機械学習ゴリゴリ派のための数学とPython
機械学習ゴリゴリ派のための数学とPython
 
TensorFlowとは? ディープラーニング (深層学習) とは?
TensorFlowとは? ディープラーニング (深層学習) とは?TensorFlowとは? ディープラーニング (深層学習) とは?
TensorFlowとは? ディープラーニング (深層学習) とは?
 
ルールベースから機械学習への道 公開用
ルールベースから機械学習への道 公開用ルールベースから機械学習への道 公開用
ルールベースから機械学習への道 公開用
 
実戦投入する機械学習
実戦投入する機械学習実戦投入する機械学習
実戦投入する機械学習
 
Chainerチュートリアル -v1.5向け- ViEW2015
Chainerチュートリアル -v1.5向け- ViEW2015Chainerチュートリアル -v1.5向け- ViEW2015
Chainerチュートリアル -v1.5向け- ViEW2015
 
機械学習概論 講義テキスト
機械学習概論 講義テキスト機械学習概論 講義テキスト
機械学習概論 講義テキスト
 
Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識
 
TensorFlow を使った 機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った 機械学習ことはじめ (GDG京都 機械学習勉強会)
 
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
 
Deep Learningと画像認識   ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識   ~歴史・理論・実践~
 
scikit-learnを用いた機械学習チュートリアル
scikit-learnを用いた機械学習チュートリアルscikit-learnを用いた機械学習チュートリアル
scikit-learnを用いた機械学習チュートリアル
 
機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話
 

Similaire à Pythonによる機械学習入門〜基礎からDeep Learningまで〜

NumPyが物足りない人へのCython入門
NumPyが物足りない人へのCython入門NumPyが物足りない人へのCython入門
NumPyが物足りない人へのCython入門Shiqiao Du
 
画像処理でのPythonの利用
画像処理でのPythonの利用画像処理でのPythonの利用
画像処理でのPythonの利用Yasutomo Kawanishi
 
はじめての人のためのDeep Learning
はじめての人のためのDeep Learningはじめての人のためのDeep Learning
はじめての人のためのDeep LearningTadaichiro Nakano
 
Cython intro prelerease
Cython intro prelereaseCython intro prelerease
Cython intro prelereaseShiqiao Du
 
ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイド
 ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイド ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイド
ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイドEtsuji Nakai
 
第1回 Jubatusハンズオン
第1回 Jubatusハンズオン第1回 Jubatusハンズオン
第1回 JubatusハンズオンJubatusOfficial
 
第1回 Jubatusハンズオン
第1回 Jubatusハンズオン第1回 Jubatusハンズオン
第1回 JubatusハンズオンYuya Unno
 
PythonによるDeep Learningの実装
PythonによるDeep Learningの実装PythonによるDeep Learningの実装
PythonによるDeep Learningの実装Shinya Akiba
 
Chainerの使い方と 自然言語処理への応用
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と 自然言語処理への応用Yuya Unno
 
Deep Learningの基礎と応用
Deep Learningの基礎と応用Deep Learningの基礎と応用
Deep Learningの基礎と応用Seiya Tokui
 
Introduction to cython
Introduction to cythonIntroduction to cython
Introduction to cythonAtsuo Ishimoto
 
2010 icse-an analysis of the variability in forty preprocessor-based software...
2010 icse-an analysis of the variability in forty preprocessor-based software...2010 icse-an analysis of the variability in forty preprocessor-based software...
2010 icse-an analysis of the variability in forty preprocessor-based software...n-yuki
 
Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用Seiya Tokui
 
[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用
[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用
[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用de:code 2017
 
深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開Seiya Tokui
 
ChainerでDeep Learningを試す為に必要なこと
ChainerでDeep Learningを試す為に必要なことChainerでDeep Learningを試す為に必要なこと
ChainerでDeep Learningを試す為に必要なことJiro Nishitoba
 

Similaire à Pythonによる機械学習入門〜基礎からDeep Learningまで〜 (20)

Introduction of Python
Introduction of PythonIntroduction of Python
Introduction of Python
 
NumPyが物足りない人へのCython入門
NumPyが物足りない人へのCython入門NumPyが物足りない人へのCython入門
NumPyが物足りない人へのCython入門
 
画像処理でのPythonの利用
画像処理でのPythonの利用画像処理でのPythonの利用
画像処理でのPythonの利用
 
はじめての人のためのDeep Learning
はじめての人のためのDeep Learningはじめての人のためのDeep Learning
はじめての人のためのDeep Learning
 
Cython intro prelerease
Cython intro prelereaseCython intro prelerease
Cython intro prelerease
 
ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイド
 ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイド ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイド
ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイド
 
第1回 Jubatusハンズオン
第1回 Jubatusハンズオン第1回 Jubatusハンズオン
第1回 Jubatusハンズオン
 
第1回 Jubatusハンズオン
第1回 Jubatusハンズオン第1回 Jubatusハンズオン
第1回 Jubatusハンズオン
 
PythonによるDeep Learningの実装
PythonによるDeep Learningの実装PythonによるDeep Learningの実装
PythonによるDeep Learningの実装
 
C#勉強会
C#勉強会C#勉強会
C#勉強会
 
2023_freshman
2023_freshman2023_freshman
2023_freshman
 
Chainerの使い方と 自然言語処理への応用
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と 自然言語処理への応用
 
Deep Learningの基礎と応用
Deep Learningの基礎と応用Deep Learningの基礎と応用
Deep Learningの基礎と応用
 
Introduction to cython
Introduction to cythonIntroduction to cython
Introduction to cython
 
2010 icse-an analysis of the variability in forty preprocessor-based software...
2010 icse-an analysis of the variability in forty preprocessor-based software...2010 icse-an analysis of the variability in forty preprocessor-based software...
2010 icse-an analysis of the variability in forty preprocessor-based software...
 
ATN No.2 Scala事始め
ATN No.2 Scala事始めATN No.2 Scala事始め
ATN No.2 Scala事始め
 
Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用
 
[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用
[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用
[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用
 
深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開
 
ChainerでDeep Learningを試す為に必要なこと
ChainerでDeep Learningを試す為に必要なことChainerでDeep Learningを試す為に必要なこと
ChainerでDeep Learningを試す為に必要なこと
 

Plus de Yasutomo Kawanishi

TransPose: Towards Explainable Human Pose Estimation by Transformer
TransPose: Towards Explainable Human Pose Estimation by TransformerTransPose: Towards Explainable Human Pose Estimation by Transformer
TransPose: Towards Explainable Human Pose Estimation by TransformerYasutomo Kawanishi
 
全日本コンピュータビジョン勉強会:Disentangling and Unifying Graph Convolutions for Skeleton-B...
全日本コンピュータビジョン勉強会:Disentangling and Unifying Graph Convolutions for Skeleton-B...全日本コンピュータビジョン勉強会:Disentangling and Unifying Graph Convolutions for Skeleton-B...
全日本コンピュータビジョン勉強会:Disentangling and Unifying Graph Convolutions for Skeleton-B...Yasutomo Kawanishi
 
サーベイ論文:画像からの歩行者属性認識
サーベイ論文:画像からの歩行者属性認識サーベイ論文:画像からの歩行者属性認識
サーベイ論文:画像からの歩行者属性認識Yasutomo Kawanishi
 
Pythonによる画像処理について
Pythonによる画像処理についてPythonによる画像処理について
Pythonによる画像処理についてYasutomo Kawanishi
 
背景モデリングに関する研究など
背景モデリングに関する研究など背景モデリングに関する研究など
背景モデリングに関する研究などYasutomo Kawanishi
 
第17回関西CVPRML勉強会 (一般物体認識) 1,2節
第17回関西CVPRML勉強会 (一般物体認識) 1,2節第17回関西CVPRML勉強会 (一般物体認識) 1,2節
第17回関西CVPRML勉強会 (一般物体認識) 1,2節Yasutomo Kawanishi
 
SNSでひろがるプライバシ制御センシング
SNSでひろがるプライバシ制御センシングSNSでひろがるプライバシ制御センシング
SNSでひろがるプライバシ制御センシングYasutomo Kawanishi
 

Plus de Yasutomo Kawanishi (9)

TransPose: Towards Explainable Human Pose Estimation by Transformer
TransPose: Towards Explainable Human Pose Estimation by TransformerTransPose: Towards Explainable Human Pose Estimation by Transformer
TransPose: Towards Explainable Human Pose Estimation by Transformer
 
全日本コンピュータビジョン勉強会:Disentangling and Unifying Graph Convolutions for Skeleton-B...
全日本コンピュータビジョン勉強会:Disentangling and Unifying Graph Convolutions for Skeleton-B...全日本コンピュータビジョン勉強会:Disentangling and Unifying Graph Convolutions for Skeleton-B...
全日本コンピュータビジョン勉強会:Disentangling and Unifying Graph Convolutions for Skeleton-B...
 
サーベイ論文:画像からの歩行者属性認識
サーベイ論文:画像からの歩行者属性認識サーベイ論文:画像からの歩行者属性認識
サーベイ論文:画像からの歩行者属性認識
 
Pythonによる画像処理について
Pythonによる画像処理についてPythonによる画像処理について
Pythonによる画像処理について
 
ACCV2014参加報告
ACCV2014参加報告ACCV2014参加報告
ACCV2014参加報告
 
背景モデリングに関する研究など
背景モデリングに関する研究など背景モデリングに関する研究など
背景モデリングに関する研究など
 
第17回関西CVPRML勉強会 (一般物体認識) 1,2節
第17回関西CVPRML勉強会 (一般物体認識) 1,2節第17回関西CVPRML勉強会 (一般物体認識) 1,2節
第17回関西CVPRML勉強会 (一般物体認識) 1,2節
 
SNSでひろがるプライバシ制御センシング
SNSでひろがるプライバシ制御センシングSNSでひろがるプライバシ制御センシング
SNSでひろがるプライバシ制御センシング
 
SHOGUN使ってみました
SHOGUN使ってみましたSHOGUN使ってみました
SHOGUN使ってみました
 

Dernier

業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)Hiroshi Tomioka
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイスCRI Japan, Inc.
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Gamesatsushi061452
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video UnderstandingToru Tamaki
 
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Hiroshi Tomioka
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルCRI Japan, Inc.
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NTT DATA Technology & Innovation
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...Toru Tamaki
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 

Dernier (11)

業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
 
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
 

Pythonによる機械学習入門〜基礎からDeep Learningまで〜