SlideShare une entreprise Scribd logo
1  sur  62
Télécharger pour lire hors ligne
数学カフェ
「確率・統計・機械学習」
(Part1)
2017年4⽉22⽇数学カフェ
Yahoo! Japan コワーキングスペース LODGE
株式会社Preferred Networks ⼤野健太
oono@preferred.jp
⼤野健太
• twitter: @delta2323_
• 経歴
• 数学専攻(修⼠) → 2012.4 PFI → 2014.10 PFN
• 担当
• バイオプロジェクト
• Chainerコアチーム
• インターン・採⽤チーム
2
• 2014年3⽉設⽴
• 本社:東京 アメリカ⼦会社:カリフォルニア州サンマテオ
• 社員数:約70名(8割以上はエンジニア・リサーチャー)
• 事業内容:深層学習の産業、特に産業⽤ロボット・交通・バイオ
ヘルスケアへの応⽤
3
夏季インターン(5/7締切)
フルタイム募集中!
4
ニューラルネット愛護協会
5
http://bit.ly/dl-spcn
※エイプリルフールネタです
アジェンダ
• 導⼊
• 機械学習の理論
• 深層学習
6
⼈⼯知能?
• ロボット?アンドロイド?
• 鉄腕アトム・初⾳ミク・Pepper etc. …
• ⽂章を理解する・話し⾔葉を理解する・写真から顔を⾒つける・
ゲームの次の⼿を決める・経営をする・⼈間とチャットする・⾞
を⾃動運転する・複雑な問題を解く etc. …
• 機械が⼈間のように認識・判断・⾏動するための技術?
• 今⽇はあまり⼈⼯知能の話はしません
• ⼈⼯知能を実現するかもしれないと期待されている機械学習・深層学習
技術についてお話しします
photo: flickr
なぜ機械学習が必要か?
例:⼈物写真から年齢を判定する
• 何を基準に分類する?
• ⾝⻑が⾼かったら⼤⼈? ー> そうとも限らない
• ⽩髪だったら⾼齢? ー> そうとも限らない
• 顔?服装?体格?
• 判断に必要な情報をどうやって抽出する?
• ⼈物の写っている位置・スケール・姿勢はバラバラ
• 顔・髪・肩が写っている場所をどうやって⾒つける?
• ⼈間がルールを列挙するのは実質的に不可能
8http://how-old.net
機械学習によるアプローチ
• 年齢情報のついた画像を機械に⼤量に与えて、それぞれの年代に
特徴的な傾向・パターンを機械⾃⾝に発⾒させる
• ⼈間は機械にどの部分を注⽬すべきかを明⽰的には与えない
9
photo: flicker
機械学習を⽤いた画像分類
10
ILSVRC2012 Supervison
Krizhevsky, A., Sutskever, I., & Hinton, G. E. (2012). Imagenet classification with
deep convolutional neural networks. In Advances in neural information
processing systems (pp. 1097-1105).
画像認識精度
11
http://www.image-net.org/challenges/LSVRC/
機械学習・深層学習の応⽤先
画像 ⾳声 動画 ⾃然⾔語 センサー ゲノム 化合物 パケット
分類 回帰 異常検知
⽣成
モデル
クラスタ
リング
パターン
認識
推薦 強化学習
⼈物検出
シーン
認識
ゲームAI ⾳声認識 動作認識 ⾔語認識 ⾏動解析 画像⽣成
対話 広告配信 ⾃動運転 医療診断
セキュ
リティ
ロボット
マーケ
ティング
翻訳
ドローンの運転制御
13
https://www.youtube.com/watch?v=yFCCanSxOE4
アジェンダ
• 導⼊
• 機械学習の理論
• 定式化
• 最適化
• 汎化性能
• 深層学習
14
参考スライド
15http://www.slideshare.net/irrrrr/2015-46395273
同僚の楠本さんが情報オリンピック春合宿で⾏った講義
Toy example
• ⾚丸と⿊丸うまく分類したい
• 1点 = 1データ
• データの情報:x, y座標、⾊
16
●●
●
● ●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
● ●
●
●
●
●
●
●
●
●
●
●
●
●
→y
→ x
●
● : +1
: -1
直線で完全に分類できる 放物線ならば完全に分類できる
Toy example
どう直線を引いても分類できない
↓
分類間違いが少なくなるように
最適な直線を選ぶ
17
●●
●
● ●
●
●
●
●
●
●
●
●
●
●
●
●
考えないといけない問題
• どういう分類曲線を引いても良いことにするか?
– 直線に限定する、2次曲線も含めるetc.
• 分類間違いをどうやって測るか?「最適」とは何か?
• 許される曲線の中で最適なものをどうやって⾒つけるか?
機械学習のレシピ
• ⼊⼒:訓練データ
D = {(x1, y1), (x2, y2), …, (xN, yN)}, xi ∈ X = Rd, yi ∈ Y = R
• 出⼒:予測モデル
未知のデータ x から y を予測するアルゴリズム
• 設計者の⽤意するもの
仮説集合 Θ、損失関数 L(x, y; θ)
18
今⽇は頻度論的な⽴場での教師あり学習につ
いて説明します
機械学習のレシピ1:仮説集合 Θ
各 θ∈Θ に、x から y を予測する「予測モデル」を対応させる
設計者が決めること
• Θ をどういう集合にするか?
• 各 θ にどういう予測モデルを対応させるか?
• 予測モデルが決定的か確率的か?
• 決定的:x から y が⼀意的に決まる、つまり関数 f θ: X → Y
• 確率的:決まらない、例えば確率分布 pθ(x, y) や pθ(y | x)
19
記号について
今⽇の講演では
f (x, y; θ) と f θ (x, y)
p (x, y; θ) と pθ (x, y)
は同じ関数を表しています
20
仮説集合の例
例1:直線全体(決定的)
{ l (x1, x2, y) = 1 [y > ax1 + bx2 + c] | (a, b, c) ∈ Θ = R3}
例2:指数型分布族(確率的)
{ p (y = 1 | x; θ) = exp (C (x) + θ・F(x) – ψ (θ)) | θ ∈ Θ = Rd}
C, F : Rd → Rn, ψ: 分配関数
例3:ニューラルネット(確率的)→詳しく
{ p (y = 1 | x; θ) = sigmoid (µ (x; θ)) | θ ∈ Θ ⊂ Rd } y ∈ {±1}
µ は θ をパラメータとする決定的な関数(NNとか)
21
1[…]:…が真なら1、そうでないなら-1
sigmoid(s) = 1/(1 + exp(-s)) :シグモイド関数
ニューラルネットで確率を表現する
yが連続値の場合
y = NN (x; θ) + ε
ε ~ N(ε | 0, I)
22
NNx
ε
_ + _ y
p(y | x; θ) = N (y - NN(x; θ) | 0, I)
ニューラルネットで確率を表現する
yが連続値の場合
µ, σ = NN (x; θ)
ε ~ N (ε | 0, 1)
y = µ + σ ε
23
NNx
µ
σ
Gauss y
ε
p (y | x; θ) = N (y | µ, σ)
ニューラルネットで確率を表現する
yが2値の場合
z = NN(x; θ)
p(y=1 | x; θ) = sigmoid(z)
24
NNx z
sig
moid
p
sigmoid(s) = 1/(1 + exp(-s)) :シグモイド関数
ニューラルネットで確率を表現する
yがK個のカテゴリ値の場合
z = NN(x; θ) ∈ RK
P = softmax(z)
p (y=k | x; θ) = Pk for k = 1, …, K
25
NNx z
soft
max
y
softmax(z) = (p1, . . . , pK)
pi =
exp(zi)
PK
i=1 exp(zi)
機械学習のレシピ2:損失関数 L(x, y; θ)
予測モデルの「精度」を測る関数
• L の関数形は設計者次第だが、通常 x に対する予測結果が望ましい
結果 y に近いほどL (x, y, θ) が⼩さくなるように定義する
26
損失関数の例
例1:Toy example
L(x, y; (a, b, c)) = 1[y^(x) ≠ y], y^(x) = 1[ax1 + bx2 + c > 0]
例2:2乗誤差
L(x, y; θ) = (f (x; θ) – y)2
例3:負の対数尤度(Negative Log Likelihood, NLL)
L(x, y; θ) = - log p(y | x; θ)
27
●●
●
● ●
●
●
●
●
●
●
●
●
●
●
●
●
→x2
→ x1
2乗誤差 =ガウスノイズ + 最尤推定
次のようなモデルを考える
• 仮説集合:{ fθ : X → Y | θ ∈ Θ}(決定的な関数)
• 損失関数:L(x, y; θ) = (fθ (x) - y)2(⼆乗誤差)
これは、次のモデルと同等
• 仮説集合:{gθ | gθ = fθ(x) + ε, θ ∈ Θ, ε = N(0, 1)}(確率的)
• 損失関数:L(x, y; θ) = - log p(y | gθ(x))(負の対数尤度)
28
訓練誤差最⼩化
• 最適化に利⽤できるLの情報は問題設定によって異なる
argminθ ∑i L(xi, yi; θ)
θ:パラメータ
x:⼊⼒ベクトル
y:正解ラベル
L:損失関数
29
クエリ 使える情報
ブラックボックス最適化 (x, y) L(x, y)
ニューラルネット (x, y) L(x, y), ∇θ L(x, y)
argminθ f (θ):f (θ)を最⼩にするθ
↑あとで
訓練誤差 E^ (θ)という
この定式化に乗らない例
Generative Adversarial Network (GAN)
[Goodfellow+14]
⽣成器 Gと識別器 Dからなる
⽣成器は本物のデータと⾒分けがつかない偽データを⽣成するのが⽬標
識別器は本物のデータと偽データを区別するのが⽬標
2プレーヤーのmin maxゲームとして定式化される
30
Gen xgenz Dis prob
x
minφ maxθ Ex~D [log Dθ (x)] + Ez~N(0, I) [log (1 – Dθ (Gφ (z)))]
Goodfellow, Ian, et al. "Generative adversarial nets." Advances in neural
information processing systems. 2014.
GANの⽣成結果
• 正確にはGANの改良版であるWasserstein GAN (WGAN)
[Arjovsky+17]の結果
• Wasserstein GANの論⽂では関数空間の位相について議論し
ていて、数学の⼈にも⾯⽩いと思う
31Arjovsky, Martin, Soumith Chintala, and Léon Bottou. "Wasserstein
gan." arXiv preprint arXiv:1701.07875 (2017).
アジェンダ
• 導⼊
• 機械学習の理論
• 定式化
• 最適化
• 汎化性能
• 深層学習
32
⼀番楽な⽅法:解析解が求まる
∇θ E^(θ) = 0 が(θ に関する⽅程式として)解析的に計算できる
ならば、最⼩解を直接計算すれば良い
例:線形モデル + 2乗誤差 + L2 正則化
33
E^(θ) = 1/N ∑i L(xi, yi; θ)
→ E^(θ) の最⼩解は、θ = (XTX + λ)-1XT Y
• x∈ Rd, y∈R, Θ = Rd
• L(x, y; θ) = 1/2 (y – θTx)2 + λ/2 ||θ||2
2
数値最適化
34
argminθ ∑i L(xi, yi; θ)
• ⼀般には解析的には解けないので数値最適化アルゴリズムを利
⽤して、最適解に近い解を探索する
• L や Θ の形によって、様々な最適化の⼿法が提案されており、
理論的な保証や⼯学的な⼯夫がある
勾配降下法 (Gradient Descent, GD)
35
initialize θ
until some criterion is satisfied:
θ ← θ - η ∇θ E^(θ)
output θ η:学習率
E^(θ) = 1/N ∑i L(xi, yi; θ)
関数の傾きが最も急な
⽅向に少しだけ動く
θt+1
E^
-∇θE^(θ)
θt
凸関数
f : Rd →Rが凸関数であるとは任意のa, b∈Rd, t∈[0, 1]に対して、
f (ta + (1-t) b) ≦ t f (a) + (1-t) f (b)
が成り⽴つこと
36
GDの収束の理論保証(凸関数の場合)
勾配法による最適化で最適解への収束や、そのスピードを評価できる
• 仮説空間がユークリッド空間のコンパクト集合
• 損失関数が凸関数でリプシッツ性を持つ
37
厳密に⾔うとparameter averaging
した出⼒について証明している
Gradient Descentの問題点
• 計算量が重い
• 各訓練データに対して勾配を計算するので、計算量はO(訓練データ)
• Saddle pointやlocal minimumにはまる(後半で詳しく)
38
Stochastic Gradient Descent (SGD)
39
until some criterion is satisfied:
get data (x, y) randomly
θ ← θ – η N ∇θ L(x, y; θ)
output θ
until some criterion is satisfied:
θ ← θ - η Σi∇θ L(xi, yi; θ)
output θ
GD
SGD
SGDの収束保証(凸関数)
40
ここが期待値に
変わっただけ
凸関数の場合
strongly convexを仮定すると、GDによる最適化で、より早い
global minimumへの収束を証明できる
41
※この定理で証明されているSGDのアルゴリズムでは、学
習率ηは⼀定ではなく、イテレーションごとにηt=O(1/t)
と変えている
アジェンダ
• 導⼊
• 機械学習の理論
• 定式化
• 最適化
• 汎化性能
• 深層学習
42
素朴な疑問
こういう分類器を作れば分類精度
100% !!
→ あまり良くない
複雑な分類曲線を引ける
= 仮説集合 Θ が「⼤きい」
= 候補となる予測モデルが多い
43
●●
●
● ●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
● ●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
過学習 (Overfitting)
• 機械学習を適⽤したいタスクでは、今⼿元にあるデータだけではな
く、未知のデータに対する予測能⼒(汎化能⼒, generalization)
を持つようにしたい
• 複雑な仮説集合では、真のデータ分布だけではなく、データとは無
関係なノイズもモデリングし、汎化能⼒が得られない
44
https://research.preferred.jp/2010/12/subgradient-optimization-3/
過学習
45
q
データ分布
サンプリング
(xi, yi) ~ q i.i.d
D ={(xi, yi)i=1,…,n}
推定
(訓練誤差最⼩解)
pθ^
訓練データ
学習モデル
データが真のデータ分布 q からi.i.d.で
サンプリングされていると仮定する
qとpθ^の乖離が著しい
と汎化能⼒が得られない
適切な仮説集合の⼤きさ
46
Under fitting
仮説集合が⼩さすぎると
すでにある訓練データを正しく予測できない
Over fitting
仮説集合が⼤きすぎると、訓練データを予測できるが、
未知のデータの予測が悪くなる(かもしれない)
正則化
予測モデルが持つモデルに適当な制約をかけることにより、過
学習を防ぐテクニック
47
E^ (θ) = 1/N ∑i L(xi, yi; θ) + λ ||θ||2
2
例:L2正則化
訓練誤差にパラメータのノルムに関するペナルティを加えて、モ
デルのパラメータが⼤きくならないように制約をつける
正則化はとても重要なテクニックで理論的な研究も
沢⼭あるのですが、今⽇はあまりお話できません…
アジェンダ
• 導⼊
• 機械学習の理論
• 深層学習
48
深層学習(ディープラーニング)
• 機械学習の⼀種
• 予測器(先ほどの L)として、⼊⼒データに対して、単純かつ
微分可能な変換を何回も適⽤するモデルを利⽤する
49
http://www.wsdm-conference.org/2016/slides/WSDM2016-Jeff-Dean.pdf
深層学習の基本計算
• 下層の⼊⼒ x を重み付きで⾜しあわせ、活性化関数 h をかけて出
⼒
50
x1
x2
x3
+1
a
w1
w2
w3
w4
h
a = h(x1w1+x2w2+x3w3+w4) = h(wtx)
hの例 ReLU: h(x) = max(0, x)
θ = (w1, w2, w3, w4)
Multi Layer Perceptron (MLP)
この計算を何層にも重ねる
51
x1
x2
x3
x4
y
0.3
-0.2
0.4
重み
結合ユニット
アーキテクチャ
(ユニット数や層数を指定して、重みは指定しない)
深いネットワーク
52http://image-net.org/challenges/talks/ilsvrc2015_deep_residual_learning_kaiminghe.pdf
深層学習モデルのパラメータ数
53
Dean, Jeffrey, et al. "Large scale distributed deep networks." Advances in neural information processing
systems. 2012.
Adam Coates, et al. ICML'13 Proceedings of the 30th International Conference on International Conference
on Machine Learning - Volume 28Pages III-1337-III-1345
Shazeer, Noam, et al. "Outrageously large neural networks: The sparsely-gated mixture-of-experts
layer." arXiv preprint arXiv:1701.06538 (2017).
[Dean+12]
1.7 billion [Adam+13] 11 billion
[Shazeer+17]
137 billion
学習アルゴリズム(SGD)
ニューラルネットは誤差逆伝播により勾配を効率的に計算できる
54
initialize θ
until convergence:
get data (x, y)
θ ← θ - η ∇θ L(x, y; θ)
η:学習率
← この更新式にはバリエーション
がある(あとで)
Neural Network as a Computational Graph
• 多くのフレームワークでは、NNは計算グラフとして実現される
• データノードと計算ノードからなる2部グラフのDAGとして表現す
るのが計算グラフの最も簡単な表現⽅法
55
y = x1 * x2
z = y - x3
x1 mul suby
x3
z
x2
データノード
計算ノード
順伝播(forward propagation)
56
y = x1 * x2
x1 mul suby
x3
z
x2
z = y - x3
連鎖律(Chain Rule)
57
活性の伝播⽅向
エラーの伝播⽅向
x f y
x f y
→ 勾配は活性と逆向きに伝播する
Forward Propagation
損失をLとすると、連鎖律より
誤差逆伝播(Backpropagation)
58
y = x1 * x2
* ga is a derivative of z w.r.t. a i.e. ga =∇a z
x1 mul suby
x3
z
x2
z = y - x3
gx1 = gy * x2
gx2 = gy * x1
gz = 1
gy = gz
gx3 = -gz
gzgy
gx3
gx1
gx2
まとめ
• 機械学習では、ルールでは記述できないようなデータの傾向・
法則を捉えることで、未知データに対する予測を⾏える事を⽬
指します
• 頻度論でのアプローチでの教師あり分類問題は、そのためには
仮説集合と損失関数から訓練誤差を定義し、それを最適化する
という⾵に定式化できます
• 深層学習では、単純で微分可能な変換を何回も繰り返すモデル
を使います。
59
後半の内容の予告
60
残念なお知らせ:
深層学習のモデルが作る損失関数は⾮凸
⼼配事1
「勾配法はsaddle pointにはまってしまうのでは!?」
⼼配事2
「勾配法ではlocal minimumにしかたどりつけないのでは!?」
• Q. 深層学習のモデルが作る損失関数はどのような形をしているか?
• Q. その損失関数の最適化するのに適したアルゴリズムは何か?
61
深層学習の汎化性能
深層学習のモデルはとてつもない数のパラメータ数を持つにも
関わらず、過学習せずに学習できる(こともある)
深層学習モデルの汎化性能を理論的に説明できないか?
62

Contenu connexe

Tendances

ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learningゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement LearningPreferred Networks
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情Yuta Kikuchi
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向Motokawa Tetsuya
 
『データ解析におけるプライバシー保護』勉強会 #2
『データ解析におけるプライバシー保護』勉強会 #2『データ解析におけるプライバシー保護』勉強会 #2
『データ解析におけるプライバシー保護』勉強会 #2MITSUNARI Shigeo
 
ディープラーニングでラーメン二郎(全店舗)を識別してみた
ディープラーニングでラーメン二郎(全店舗)を識別してみたディープラーニングでラーメン二郎(全店舗)を識別してみた
ディープラーニングでラーメン二郎(全店舗)を識別してみたknjcode
 
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門hoxo_m
 
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tatsuya Tojima
 
高速な倍精度指数関数expの実装
高速な倍精度指数関数expの実装高速な倍精度指数関数expの実装
高速な倍精度指数関数expの実装MITSUNARI Shigeo
 
[DL輪読会]Deep Learning 第5章 機械学習の基礎
[DL輪読会]Deep Learning 第5章 機械学習の基礎[DL輪読会]Deep Learning 第5章 機械学習の基礎
[DL輪読会]Deep Learning 第5章 機械学習の基礎Deep Learning JP
 
Relational Binarized HOG特徴量とReal AdaBoostによるバイナリ選択を用いた物体検出
Relational Binarized HOG特徴量とReal AdaBoostによるバイナリ選択を用いた物体検出Relational Binarized HOG特徴量とReal AdaBoostによるバイナリ選択を用いた物体検出
Relational Binarized HOG特徴量とReal AdaBoostによるバイナリ選択を用いた物体検出MPRG_Chubu_University
 
組合せ最適化入門:線形計画から整数計画まで
組合せ最適化入門:線形計画から整数計画まで組合せ最適化入門:線形計画から整数計画まで
組合せ最適化入門:線形計画から整数計画までShunji Umetani
 
三次元点群を取り扱うニューラルネットワークのサーベイ
三次元点群を取り扱うニューラルネットワークのサーベイ三次元点群を取り扱うニューラルネットワークのサーベイ
三次元点群を取り扱うニューラルネットワークのサーベイNaoya Chiba
 
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化RCCSRENKEI
 
Pythonではじめる競技プログラミング
Pythonではじめる競技プログラミングPythonではじめる競技プログラミング
Pythonではじめる競技プログラミングcocodrips
 
球面フィッティングの導出と実装
球面フィッティングの導出と実装球面フィッティングの導出と実装
球面フィッティングの導出と実装j_rocket_boy
 
SGD+α: 確率的勾配降下法の現在と未来
SGD+α: 確率的勾配降下法の現在と未来SGD+α: 確率的勾配降下法の現在と未来
SGD+α: 確率的勾配降下法の現在と未来Hidekazu Oiwa
 
機械学習とその理論 (情報オリンピック2015春合宿講義資料)
機械学習とその理論 (情報オリンピック2015春合宿講義資料)機械学習とその理論 (情報オリンピック2015春合宿講義資料)
機械学習とその理論 (情報オリンピック2015春合宿講義資料)irrrrr
 
ベルヌーイ分布における超パラメータ推定のための経験ベイズ法
ベルヌーイ分布における超パラメータ推定のための経験ベイズ法ベルヌーイ分布における超パラメータ推定のための経験ベイズ法
ベルヌーイ分布における超パラメータ推定のための経験ベイズ法智文 中野
 

Tendances (20)

ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learningゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
 
BERT入門
BERT入門BERT入門
BERT入門
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向
 
『データ解析におけるプライバシー保護』勉強会 #2
『データ解析におけるプライバシー保護』勉強会 #2『データ解析におけるプライバシー保護』勉強会 #2
『データ解析におけるプライバシー保護』勉強会 #2
 
ディープラーニングでラーメン二郎(全店舗)を識別してみた
ディープラーニングでラーメン二郎(全店舗)を識別してみたディープラーニングでラーメン二郎(全店舗)を識別してみた
ディープラーニングでラーメン二郎(全店舗)を識別してみた
 
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
 
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
 
高速な倍精度指数関数expの実装
高速な倍精度指数関数expの実装高速な倍精度指数関数expの実装
高速な倍精度指数関数expの実装
 
[DL輪読会]Deep Learning 第5章 機械学習の基礎
[DL輪読会]Deep Learning 第5章 機械学習の基礎[DL輪読会]Deep Learning 第5章 機械学習の基礎
[DL輪読会]Deep Learning 第5章 機械学習の基礎
 
Relational Binarized HOG特徴量とReal AdaBoostによるバイナリ選択を用いた物体検出
Relational Binarized HOG特徴量とReal AdaBoostによるバイナリ選択を用いた物体検出Relational Binarized HOG特徴量とReal AdaBoostによるバイナリ選択を用いた物体検出
Relational Binarized HOG特徴量とReal AdaBoostによるバイナリ選択を用いた物体検出
 
組合せ最適化入門:線形計画から整数計画まで
組合せ最適化入門:線形計画から整数計画まで組合せ最適化入門:線形計画から整数計画まで
組合せ最適化入門:線形計画から整数計画まで
 
三次元点群を取り扱うニューラルネットワークのサーベイ
三次元点群を取り扱うニューラルネットワークのサーベイ三次元点群を取り扱うニューラルネットワークのサーベイ
三次元点群を取り扱うニューラルネットワークのサーベイ
 
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化
 
Pythonではじめる競技プログラミング
Pythonではじめる競技プログラミングPythonではじめる競技プログラミング
Pythonではじめる競技プログラミング
 
球面フィッティングの導出と実装
球面フィッティングの導出と実装球面フィッティングの導出と実装
球面フィッティングの導出と実装
 
機械学習と主成分分析
機械学習と主成分分析機械学習と主成分分析
機械学習と主成分分析
 
SGD+α: 確率的勾配降下法の現在と未来
SGD+α: 確率的勾配降下法の現在と未来SGD+α: 確率的勾配降下法の現在と未来
SGD+α: 確率的勾配降下法の現在と未来
 
機械学習とその理論 (情報オリンピック2015春合宿講義資料)
機械学習とその理論 (情報オリンピック2015春合宿講義資料)機械学習とその理論 (情報オリンピック2015春合宿講義資料)
機械学習とその理論 (情報オリンピック2015春合宿講義資料)
 
ベルヌーイ分布における超パラメータ推定のための経験ベイズ法
ベルヌーイ分布における超パラメータ推定のための経験ベイズ法ベルヌーイ分布における超パラメータ推定のための経験ベイズ法
ベルヌーイ分布における超パラメータ推定のための経験ベイズ法
 

En vedette

数学つまみぐい入門編
数学つまみぐい入門編数学つまみぐい入門編
数学つまみぐい入門編Akira Yamaguchi
 
楕円曲線入門 トーラスと楕円曲線のつながり
楕円曲線入門トーラスと楕円曲線のつながり楕円曲線入門トーラスと楕円曲線のつながり
楕円曲線入門 トーラスと楕円曲線のつながりMITSUNARI Shigeo
 
数学カフェ 確率・統計・機械学習回 「速習 確率・統計」
数学カフェ 確率・統計・機械学習回 「速習 確率・統計」数学カフェ 確率・統計・機械学習回 「速習 確率・統計」
数学カフェ 確率・統計・機械学習回 「速習 確率・統計」Ken'ichi Matsui
 
Comparison of deep learning frameworks from a viewpoint of double backpropaga...
Comparison of deep learning frameworks from a viewpoint of double backpropaga...Comparison of deep learning frameworks from a viewpoint of double backpropaga...
Comparison of deep learning frameworks from a viewpoint of double backpropaga...Kenta Oono
 
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法Ken'ichi Matsui
 

En vedette (6)

圏とHaskellの型
圏とHaskellの型圏とHaskellの型
圏とHaskellの型
 
数学つまみぐい入門編
数学つまみぐい入門編数学つまみぐい入門編
数学つまみぐい入門編
 
楕円曲線入門 トーラスと楕円曲線のつながり
楕円曲線入門トーラスと楕円曲線のつながり楕円曲線入門トーラスと楕円曲線のつながり
楕円曲線入門 トーラスと楕円曲線のつながり
 
数学カフェ 確率・統計・機械学習回 「速習 確率・統計」
数学カフェ 確率・統計・機械学習回 「速習 確率・統計」数学カフェ 確率・統計・機械学習回 「速習 確率・統計」
数学カフェ 確率・統計・機械学習回 「速習 確率・統計」
 
Comparison of deep learning frameworks from a viewpoint of double backpropaga...
Comparison of deep learning frameworks from a viewpoint of double backpropaga...Comparison of deep learning frameworks from a viewpoint of double backpropaga...
Comparison of deep learning frameworks from a viewpoint of double backpropaga...
 
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
 

Similaire à 20170422 数学カフェ Part1

パターン認識モデル初歩の初歩
パターン認識モデル初歩の初歩パターン認識モデル初歩の初歩
パターン認識モデル初歩の初歩t_ichioka_sg
 
公平性を保証したAI/機械学習
アルゴリズムの最新理論
公平性を保証したAI/機械学習
アルゴリズムの最新理論公平性を保証したAI/機械学習
アルゴリズムの最新理論
公平性を保証したAI/機械学習
アルゴリズムの最新理論Kazuto Fukuchi
 
機械学習の理論と実践
機械学習の理論と実践機械学習の理論と実践
機械学習の理論と実践Preferred Networks
 
PRML 1.5-1.5.5 決定理論
PRML 1.5-1.5.5 決定理論PRML 1.5-1.5.5 決定理論
PRML 1.5-1.5.5 決定理論Akihiro Nitta
 
How to study stat
How to study statHow to study stat
How to study statAk Ok
 
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)Taiji Suzuki
 
深層学習と確率プログラミングを融合したEdwardについて
深層学習と確率プログラミングを融合したEdwardについて深層学習と確率プログラミングを融合したEdwardについて
深層学習と確率プログラミングを融合したEdwardについてryosuke-kojima
 
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介Deep Learning JP
 
クラシックな機械学習の入門 4. 学習データと予測性能
クラシックな機械学習の入門  4.   学習データと予測性能クラシックな機械学習の入門  4.   学習データと予測性能
クラシックな機械学習の入門 4. 学習データと予測性能Hiroshi Nakagawa
 
Infomation geometry(overview)
Infomation geometry(overview)Infomation geometry(overview)
Infomation geometry(overview)Yoshitake Misaki
 
Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識Ken Morishita
 
第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知Chika Inoshita
 
充足可能性問題のいろいろ
充足可能性問題のいろいろ充足可能性問題のいろいろ
充足可能性問題のいろいろHiroshi Yamashita
 
行列計算を利用したデータ解析技術
行列計算を利用したデータ解析技術行列計算を利用したデータ解析技術
行列計算を利用したデータ解析技術Yoshihiro Mizoguchi
 
070 統計的推測 母集団と推定
070 統計的推測 母集団と推定070 統計的推測 母集団と推定
070 統計的推測 母集団と推定t2tarumi
 

Similaire à 20170422 数学カフェ Part1 (20)

Ishihata 150319-final
Ishihata 150319-finalIshihata 150319-final
Ishihata 150319-final
 
パターン認識モデル初歩の初歩
パターン認識モデル初歩の初歩パターン認識モデル初歩の初歩
パターン認識モデル初歩の初歩
 
公平性を保証したAI/機械学習
アルゴリズムの最新理論
公平性を保証したAI/機械学習
アルゴリズムの最新理論公平性を保証したAI/機械学習
アルゴリズムの最新理論
公平性を保証したAI/機械学習
アルゴリズムの最新理論
 
NLPforml5
NLPforml5NLPforml5
NLPforml5
 
機械学習の理論と実践
機械学習の理論と実践機械学習の理論と実践
機械学習の理論と実践
 
PRML 1.5-1.5.5 決定理論
PRML 1.5-1.5.5 決定理論PRML 1.5-1.5.5 決定理論
PRML 1.5-1.5.5 決定理論
 
How to study stat
How to study statHow to study stat
How to study stat
 
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
 
深層学習と確率プログラミングを融合したEdwardについて
深層学習と確率プログラミングを融合したEdwardについて深層学習と確率プログラミングを融合したEdwardについて
深層学習と確率プログラミングを融合したEdwardについて
 
会津合宿2015Day3:D問題
会津合宿2015Day3:D問題会津合宿2015Day3:D問題
会津合宿2015Day3:D問題
 
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
 
クラシックな機械学習の入門 4. 学習データと予測性能
クラシックな機械学習の入門  4.   学習データと予測性能クラシックな機械学習の入門  4.   学習データと予測性能
クラシックな機械学習の入門 4. 学習データと予測性能
 
Infomation geometry(overview)
Infomation geometry(overview)Infomation geometry(overview)
Infomation geometry(overview)
 
Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識
 
Coqチュートリアル
CoqチュートリアルCoqチュートリアル
Coqチュートリアル
 
第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知
 
充足可能性問題のいろいろ
充足可能性問題のいろいろ充足可能性問題のいろいろ
充足可能性問題のいろいろ
 
JSIAM_2019_9_4
JSIAM_2019_9_4JSIAM_2019_9_4
JSIAM_2019_9_4
 
行列計算を利用したデータ解析技術
行列計算を利用したデータ解析技術行列計算を利用したデータ解析技術
行列計算を利用したデータ解析技術
 
070 統計的推測 母集団と推定
070 統計的推測 母集団と推定070 統計的推測 母集団と推定
070 統計的推測 母集団と推定
 

Plus de Kenta Oono

Minimax statistical learning with Wasserstein distances (NeurIPS2018 Reading ...
Minimax statistical learning with Wasserstein distances (NeurIPS2018 Reading ...Minimax statistical learning with Wasserstein distances (NeurIPS2018 Reading ...
Minimax statistical learning with Wasserstein distances (NeurIPS2018 Reading ...Kenta Oono
 
Deep learning for molecules, introduction to chainer chemistry
Deep learning for molecules, introduction to chainer chemistryDeep learning for molecules, introduction to chainer chemistry
Deep learning for molecules, introduction to chainer chemistryKenta Oono
 
Overview of Machine Learning for Molecules and Materials Workshop @ NIPS2017
Overview of Machine Learning for Molecules and Materials Workshop @ NIPS2017Overview of Machine Learning for Molecules and Materials Workshop @ NIPS2017
Overview of Machine Learning for Molecules and Materials Workshop @ NIPS2017Kenta Oono
 
深層学習フレームワーク概要とChainerの事例紹介
深層学習フレームワーク概要とChainerの事例紹介深層学習フレームワーク概要とChainerの事例紹介
深層学習フレームワーク概要とChainerの事例紹介Kenta Oono
 
情報幾何学の基礎、第7章発表ノート
情報幾何学の基礎、第7章発表ノート情報幾何学の基礎、第7章発表ノート
情報幾何学の基礎、第7章発表ノートKenta Oono
 
GTC Japan 2016 Chainer feature introduction
GTC Japan 2016 Chainer feature introductionGTC Japan 2016 Chainer feature introduction
GTC Japan 2016 Chainer feature introductionKenta Oono
 
On the benchmark of Chainer
On the benchmark of ChainerOn the benchmark of Chainer
On the benchmark of ChainerKenta Oono
 
Tokyo Webmining Talk1
Tokyo Webmining Talk1Tokyo Webmining Talk1
Tokyo Webmining Talk1Kenta Oono
 
VAE-type Deep Generative Models
VAE-type Deep Generative ModelsVAE-type Deep Generative Models
VAE-type Deep Generative ModelsKenta Oono
 
Common Design of Deep Learning Frameworks
Common Design of Deep Learning FrameworksCommon Design of Deep Learning Frameworks
Common Design of Deep Learning FrameworksKenta Oono
 
Introduction to Chainer and CuPy
Introduction to Chainer and CuPyIntroduction to Chainer and CuPy
Introduction to Chainer and CuPyKenta Oono
 
Stochastic Gradient MCMC
Stochastic Gradient MCMCStochastic Gradient MCMC
Stochastic Gradient MCMCKenta Oono
 
Chainer Contribution Guide
Chainer Contribution GuideChainer Contribution Guide
Chainer Contribution GuideKenta Oono
 
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用 2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用 Kenta Oono
 
Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)Kenta Oono
 
日本神経回路学会セミナー「DeepLearningを使ってみよう!」資料
日本神経回路学会セミナー「DeepLearningを使ってみよう!」資料日本神経回路学会セミナー「DeepLearningを使ってみよう!」資料
日本神経回路学会セミナー「DeepLearningを使ってみよう!」資料Kenta Oono
 
提供AMIについて
提供AMIについて提供AMIについて
提供AMIについてKenta Oono
 
Chainerインストール
ChainerインストールChainerインストール
ChainerインストールKenta Oono
 
Caffeインストール
CaffeインストールCaffeインストール
CaffeインストールKenta Oono
 
ディープラーニング最近の発展とビジネス応用への課題
ディープラーニング最近の発展とビジネス応用への課題ディープラーニング最近の発展とビジネス応用への課題
ディープラーニング最近の発展とビジネス応用への課題Kenta Oono
 

Plus de Kenta Oono (20)

Minimax statistical learning with Wasserstein distances (NeurIPS2018 Reading ...
Minimax statistical learning with Wasserstein distances (NeurIPS2018 Reading ...Minimax statistical learning with Wasserstein distances (NeurIPS2018 Reading ...
Minimax statistical learning with Wasserstein distances (NeurIPS2018 Reading ...
 
Deep learning for molecules, introduction to chainer chemistry
Deep learning for molecules, introduction to chainer chemistryDeep learning for molecules, introduction to chainer chemistry
Deep learning for molecules, introduction to chainer chemistry
 
Overview of Machine Learning for Molecules and Materials Workshop @ NIPS2017
Overview of Machine Learning for Molecules and Materials Workshop @ NIPS2017Overview of Machine Learning for Molecules and Materials Workshop @ NIPS2017
Overview of Machine Learning for Molecules and Materials Workshop @ NIPS2017
 
深層学習フレームワーク概要とChainerの事例紹介
深層学習フレームワーク概要とChainerの事例紹介深層学習フレームワーク概要とChainerの事例紹介
深層学習フレームワーク概要とChainerの事例紹介
 
情報幾何学の基礎、第7章発表ノート
情報幾何学の基礎、第7章発表ノート情報幾何学の基礎、第7章発表ノート
情報幾何学の基礎、第7章発表ノート
 
GTC Japan 2016 Chainer feature introduction
GTC Japan 2016 Chainer feature introductionGTC Japan 2016 Chainer feature introduction
GTC Japan 2016 Chainer feature introduction
 
On the benchmark of Chainer
On the benchmark of ChainerOn the benchmark of Chainer
On the benchmark of Chainer
 
Tokyo Webmining Talk1
Tokyo Webmining Talk1Tokyo Webmining Talk1
Tokyo Webmining Talk1
 
VAE-type Deep Generative Models
VAE-type Deep Generative ModelsVAE-type Deep Generative Models
VAE-type Deep Generative Models
 
Common Design of Deep Learning Frameworks
Common Design of Deep Learning FrameworksCommon Design of Deep Learning Frameworks
Common Design of Deep Learning Frameworks
 
Introduction to Chainer and CuPy
Introduction to Chainer and CuPyIntroduction to Chainer and CuPy
Introduction to Chainer and CuPy
 
Stochastic Gradient MCMC
Stochastic Gradient MCMCStochastic Gradient MCMC
Stochastic Gradient MCMC
 
Chainer Contribution Guide
Chainer Contribution GuideChainer Contribution Guide
Chainer Contribution Guide
 
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用 2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
 
Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)
 
日本神経回路学会セミナー「DeepLearningを使ってみよう!」資料
日本神経回路学会セミナー「DeepLearningを使ってみよう!」資料日本神経回路学会セミナー「DeepLearningを使ってみよう!」資料
日本神経回路学会セミナー「DeepLearningを使ってみよう!」資料
 
提供AMIについて
提供AMIについて提供AMIについて
提供AMIについて
 
Chainerインストール
ChainerインストールChainerインストール
Chainerインストール
 
Caffeインストール
CaffeインストールCaffeインストール
Caffeインストール
 
ディープラーニング最近の発展とビジネス応用への課題
ディープラーニング最近の発展とビジネス応用への課題ディープラーニング最近の発展とビジネス応用への課題
ディープラーニング最近の発展とビジネス応用への課題
 

Dernier

クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfFumieNakayama
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NTT DATA Technology & Innovation
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...博三 太田
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfFumieNakayama
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)Hiroshi Tomioka
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?akihisamiyanaga1
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineerYuki Kikuchi
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)UEHARA, Tetsutaro
 

Dernier (8)

クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
 

20170422 数学カフェ Part1