CatBoost on GPU のひみつ

CatBoost on GPU の ひみつ
2023/09/23 第1回関東Kaggler会
@tawatawara
自己紹介
SaaS企業の某某 R&D所属
◦ 社会人からMLを始める
◦ 元 JTC Kaggler
Kaggle * Master
◦ GMになりたい. . .
おことわり
知っている人にはごく当たり前の話かもしれません
◦ CatBoost ガチ勢はどうかご容赦を🙏
調査結果は網羅的でない可能性があります
◦ この先は君の眼で確かめてくれ
今からあなたはテーブルコンペに参加します
???「ここに3匹の GBMon がおるじゃろ?」
今からあなたはテーブルコンペに参加します
???「初手はどれを選ぶんじゃ?」
今からあなたはテーブルコンペに参加します
???「なるほど、LightGBMか」
👆
初手 は定番
CPUでお手軽かつ高速に学習できる
性能が他のGBMonに勝る傾向がある
◦ ただしこれはデータやタスクによる
欠点は木(森)が増えすぎたときに推論が遅いこと
参考:「初手LightGBM」をする7つの理由 by u++ さん
今からあなたはテーブルコンペに参加します
???「ではGPUが使える状況ならどうじゃ?」
今からあなたはテーブルコンペに参加します
???「ふむ、XGBoostか」
👆
GPUが使えるなら は実用に耐えうる
学習の遅さという欠点が解消される
◦ というか GPU で学習させる以外の選択肢が無い
データ次第だが性能が劣ることも(そんなに)ない
推論速度は LightGBM よりは速い(はず)
◦ 木(森)の大きさ次第だと思います
今からあなたはテーブルコンペに参加します
???「CatBoost は... CatBoost はどうなんじゃ?」
GPUを使うと は学習がかなり速い
「最高じゃん!」と思いきや...
CPUとGPUで学習の挙動が結構変化する
◦ ときには CPUでの学習より性能がかなり悪化する場合も...
◦ このせいで CatBoost を大きなデータで使うのを躊躇う人も居ると思われる
推論速度は3匹の GBMon の中で一番速い
今回のお題
CatBoost をGPUで学習するときの
性能悪化の原因を突き止めたい
結論
異なるハイパラが
暗黙的に設定される
ハイパラのページを頑張って探索すると…
ここ!
https://catboost.ai/en/docs/references/training-parameters/
勝手に異なるハイパラが設定される(!!)
Name Default Value
border_count
a.k.a. max_bin
CPU: 254
GPU in PairLogitPairwise and YetiRankPairwise modes: 32
GPU in all other modes: 128
ctr_target_border_count
Number_of_classes - 1 for Multiclassification problems when training on CPU, 1
otherwise
max_ctr_complexity
GPU for categorical features in MultiClass and MultiClassOneVsAll modes: 1
In all other cases: 4
bootstrap_type
When the objective parameter is QueryCrossEntropy, YetiRankPairwise,
and the bagging_temperature parameter is not set: Bernoulli with the subsample
set to 0.5.
Neither MultiClass nor MultiClassOneVsAll, task_type = CPU and sampling_unit =
Object: MVS with the subsample parameter set to 0.8.
Otherwise: Bayesian.
勝手に異なるハイパラが設定される(!!)
特に回帰・二値分類ではこのふたつが悪さをする
Name Default Value
border_count
a.k.a. max_bin
CPU: 254
GPU in PairLogitPairwise and YetiRankPairwise modes: 32
GPU in all other modes: 128
bootstrap_type
When the objective parameter is QueryCrossEntropy, YetiRankPairwise,
PairLogitPairwise and the bagging_temperature parameter is not set:
the subsample parameter set to 0.5.
Neither MultiClass nor MultiClassOneVsAll, task_type = CPU and
= Object: MVS with the subsample parameter set to 0.8.
Otherwise: Bayesian.
勝手に異なるハイパラが設定される(!!)
device(task_type)以外は揃えたつもりでも…
※豆知識:allow_writing_files=False にすると catboost_info が出力されなくなります
勝手に異なるハイパラが設定される(!!)
device(task_type)以外は揃えたつもりでも…実際はこうなる
※補足:これ以外にも暗黙的に設定されるハイパラが存在しますが割愛
実験 – 設定
以下の4つを比較 (5-fold CV で学習)
1. CPU使用時のデフォルトパラメータ
2. GPU使用時のデフォルトパラメータ
3. CPU使用時に bootstrap_type=Bernoulli、subsample=0.8 に
4. GPU使用時に bootstrap_type=Bernoulli、subsample=0.8、max_bin=254
に
◦ 補足
◦ bootstrap_type=Bernoulli は CPU でも GPU でも選択でき、subsample を使用できる
◦ max_depth は 6、learning_rate は 0.1 で統一する
◦ GPUでの学習は seed を固定してもぶれるため、10回行って平均を取る
◦ 関連 Issue: Random seed issue on classifier when run on GPU
実験 – データ
American Express - Default Prediction†(二値分類) のデータで検証
◦ データがログデータなので特徴量エンジニアリングが必要
◦ 今回は以下の公開 Notebook のものを拝借した
◦ Amex LGBM Dart CV 0.7963
◦ 特徴量エンジニアリング後のデータの規模
◦ Train: 458,913行、Test: 924,621行、特徴量: 1095個
†:https://www.kaggle.com/competitions/amex-default-prediction
実験 – 結果
◦ GPUのデフォルトはCPUのデフォルトに全ての数値で下回る(2 < 1)
◦ GPUのハイパラを変更したものはCPUのデフォルトに全ての数値で上回る(4 > 1)
◦ CPUのハイパラを変更したものが Public/Private が最も高い (黒太字)
ID Device ハイパラ 学習時間(sec) CV Public LB Private LB
1 CPU デフォルト 1616 0.79056 0.79361 0.80124
2 GPU デフォルト 313 0.79042 0.79327 0.80103
3 CPU 変更 1818 0.79097 0.79388 0.80172
4 GPU 変更 305 0.79114 0.79366 0.80164
暗黙的に設定されていたハイパラを変更することにより
CPU(デフォルト)と同等かそれ以上の性能をGPUで出せた
まとめ
CatBoost はGPUで超高速に学習できるが性能面に問題があった
◦ なぜか CPU と GPU で性能に差がある
◦ 一番活用できるはずの大規模データでの使用が躊躇われる
CPU と GPU で暗黙的に異なるハイパラが設定されていた
◦ 特に回帰と二値分類では max_bin と bootstrap_type が影響している
暗黙的に設定されていたハイパラを変更し過去コンペデータで検証
◦ GPU(ハイパラ変更)がCPU(デフォルト)と同等の性能になった
◦ CPU(ハイパラ変更)の性能が上がったのは予想外だったが、CPU(デフォルト)と
GPU(デフォルト)の性能差の原因を一部解明できたとは思われる
良かったね!
🎉 🎉
🎊
おまけ: 他の GBMon との比較
こいつらと比較するとどうなの?
追加実験 – 設定
以下の6つを比較 (5-fold CV で学習)
1. CatBoost(CPU), bootstrap_type=Bernoulli、subsample=0.8
2. CatBoost(GPU), bootstrap_type=Bernoulli、subsample=0.8、max_bin=254
3. XGBoost(CPU), subsample=0.8
4. XGBoost(GPU), subsample=0.8
5. LightGBM(CPU), subsample=0.8
6. LightGBM(GPU(CUDA)), subsample=0.8
◦ 補足:max_depth は 6、learning_rate は 0.1、CPUスレッド数は 8、で統一する
追加実験 – 性能比較
◦ 今回の設定では CatBoost が一番性能が良い(ハイパラ tuning で変わるかも…)
◦ Amex が制約の強いモデルの方が有効なコンペだったのかもしれない
◦ XGBoost は CPU と GPU であまり性能が変わらないように見える
◦ LightGBM(CUDA) の性能が妙に低いが原因は不明
ID Model Device CV Public LB Private LB
1 CB CPU 0.79097 0.79388 0.80172
2 CB GPU 0.79114 0.79366 0.80164
3 XGB CPU 0.78799 0.79143 0.79944
4 XGB GPU 0.78807 0.79097 0.79974
5 LGB CPU 0.78822 0.79061 0.79948
6 LGB GPU(CUDA) 0.77396 0.77596 0.78441
追加実験 – 学習・推論速度比較
◦ 今まで比較したことが無かったが、学習速度(CPU)は LGB > CB >> XGB
◦ 学習速度(GPU)は CB > XGB > LGB
◦ 推論速度(CPU)は CB > XGB > LGB
ID Model Device 合計
iteration
学習時間
(sec)
学習時間/iter
(ms/it)
推論時間
(sec)
推論時間/iter
(ms/it)
1 CB CPU 5309 1818.29 342.50 10.70 2.02
2 CB GPU 5038 305.06 60.55 11.10 2.20
3 XGB CPU 1870 21738.02 11624.61 14.29 7.64
4 XGB GPU 1714 139.88 81.61 17.45 10.18
5 LGB CPU 1867 401.55 215.08 40.50 21.69
6 LGB GPU(CUDA) 755 155.16 205.52 34.00 45.03
※特に推論速度についてはそのときのCPUの調子にもよるかも
追加実験 – まとめ
性能についてはデータにも tuning にもよるので一概には言えない
◦ ただ LightGBM(CUDA) についてだけは何かおかしい気がする
◦ CPU に比べてやたらと早く early stopping がかかっていた
◦ Build をミスったのか、それとも CatBoost 同様に”ひみつ”があるのか...
学習速度について
◦ CatBoost(CPU)が遅いと言われがちだが実はXGBoost(CPU)の方がめちゃくちゃ遅い
◦ ただし Categorical Feature が沢山あったりすると話は変わるかも
◦ GPUについては CatBoost > XGBoost、LightGBM は CPU とほぼ一緒
推論速度について
◦ CatBoost が圧倒的に速い
◦ Iteration 数が少ないので目立っていないが LightGBM はやはり遅い
おしまい
???「みんなも GBMon、ゲットじゃぞ!」
1 sur 30

Recommandé

学習時に使ってはいないデータの混入「リーケージを避ける」 par
学習時に使ってはいないデータの混入「リーケージを避ける」学習時に使ってはいないデータの混入「リーケージを避ける」
学習時に使ってはいないデータの混入「リーケージを避ける」西岡 賢一郎
1.9K vues17 diapositives
近年のHierarchical Vision Transformer par
近年のHierarchical Vision Transformer近年のHierarchical Vision Transformer
近年のHierarchical Vision TransformerYusuke Uchida
13.9K vues46 diapositives
グラフニューラルネットワーク入門 par
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門ryosuke-kojima
51.4K vues65 diapositives
数学で解き明かす深層学習の原理 par
数学で解き明かす深層学習の原理数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理Taiji Suzuki
3.8K vues42 diapositives
機械学習のためのベイズ最適化入門 par
機械学習のためのベイズ最適化入門機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門hoxo_m
185.7K vues67 diapositives
モデル高速化百選 par
モデル高速化百選モデル高速化百選
モデル高速化百選Yusuke Uchida
24.8K vues64 diapositives

Contenu connexe

Tendances

[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー... par
[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...Deep Learning JP
2.5K vues29 diapositives
BlackBox モデルの説明性・解釈性技術の実装 par
BlackBox モデルの説明性・解釈性技術の実装BlackBox モデルの説明性・解釈性技術の実装
BlackBox モデルの説明性・解釈性技術の実装Deep Learning Lab(ディープラーニング・ラボ)
22.5K vues96 diapositives
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎 par
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」  佐野正太郎明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」  佐野正太郎
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎Preferred Networks
14.8K vues80 diapositives
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning par
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learningゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement LearningPreferred Networks
117.4K vues93 diapositives
DQNからRainbowまで 〜深層強化学習の最新動向〜 par
DQNからRainbowまで 〜深層強化学習の最新動向〜DQNからRainbowまで 〜深層強化学習の最新動向〜
DQNからRainbowまで 〜深層強化学習の最新動向〜Jun Okumura
87.1K vues94 diapositives
失敗から学ぶ機械学習応用 par
失敗から学ぶ機械学習応用失敗から学ぶ機械学習応用
失敗から学ぶ機械学習応用Hiroyuki Masuda
51.4K vues90 diapositives

Tendances(20)

[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー... par Deep Learning JP
[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
Deep Learning JP2.5K vues
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎 par Preferred Networks
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」  佐野正太郎明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」  佐野正太郎
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎
Preferred Networks14.8K vues
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning par Preferred Networks
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learningゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
Preferred Networks117.4K vues
DQNからRainbowまで 〜深層強化学習の最新動向〜 par Jun Okumura
DQNからRainbowまで 〜深層強化学習の最新動向〜DQNからRainbowまで 〜深層強化学習の最新動向〜
DQNからRainbowまで 〜深層強化学習の最新動向〜
Jun Okumura87.1K vues
失敗から学ぶ機械学習応用 par Hiroyuki Masuda
失敗から学ぶ機械学習応用失敗から学ぶ機械学習応用
失敗から学ぶ機械学習応用
Hiroyuki Masuda51.4K vues
みんなが知らない pytorch-pfn-extras par Takuji Tahara
みんなが知らない pytorch-pfn-extrasみんなが知らない pytorch-pfn-extras
みんなが知らない pytorch-pfn-extras
Takuji Tahara2.6K vues
SSII2020SS: 微分可能レンダリングの最新動向 〜「見比べる」ことによる3次元理解 〜​ par SSII
SSII2020SS:  微分可能レンダリングの最新動向 〜「見比べる」ことによる3次元理解 〜​SSII2020SS:  微分可能レンダリングの最新動向 〜「見比べる」ことによる3次元理解 〜​
SSII2020SS: 微分可能レンダリングの最新動向 〜「見比べる」ことによる3次元理解 〜​
SSII6.2K vues
時系列予測にTransformerを使うのは有効か? par Fumihiko Takahashi
時系列予測にTransformerを使うのは有効か?時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?
Fumihiko Takahashi6.9K vues
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜 par SSII
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII3.7K vues
[DL輪読会]Dense Captioning分野のまとめ par Deep Learning JP
[DL輪読会]Dense Captioning分野のまとめ[DL輪読会]Dense Captioning分野のまとめ
[DL輪読会]Dense Captioning分野のまとめ
実践多クラス分類 Kaggle Ottoから学んだこと par nishio
実践多クラス分類 Kaggle Ottoから学んだこと実践多クラス分類 Kaggle Ottoから学んだこと
実践多クラス分類 Kaggle Ottoから学んだこと
nishio38.7K vues
機械学習モデルの判断根拠の説明(Ver.2) par Satoshi Hara
機械学習モデルの判断根拠の説明(Ver.2)機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)
Satoshi Hara47.9K vues
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat... par 西岡 賢一郎
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
西岡 賢一郎1.9K vues
Noisy Labels と戦う深層学習 par Plot Hong
Noisy Labels と戦う深層学習Noisy Labels と戦う深層学習
Noisy Labels と戦う深層学習
Plot Hong619 vues
[DL輪読会]ICLR2020の分布外検知速報 par Deep Learning JP
[DL輪読会]ICLR2020の分布外検知速報[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報
Deep Learning JP5.4K vues
強化学習アルゴリズムPPOの解説と実験 par 克海 納谷
強化学習アルゴリズムPPOの解説と実験強化学習アルゴリズムPPOの解説と実験
強化学習アルゴリズムPPOの解説と実験
克海 納谷2.8K vues
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング par mlm_kansai
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
mlm_kansai67.6K vues
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料) par Shota Imai
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
Shota Imai274.7K vues

Similaire à CatBoost on GPU のひみつ

【旧版】2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来 par
【旧版】2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来【旧版】2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来
【旧版】2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来Preferred Networks
1.7K vues111 diapositives
2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来 par
2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来
2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来Preferred Networks
16.7K vues115 diapositives
【とらのあなラボ Tech Day #3】新規システムにおける技術選定〜GoとgRPCを採用した話〜 par
【とらのあなラボ Tech Day #3】新規システムにおける技術選定〜GoとgRPCを採用した話〜	【とらのあなラボ Tech Day #3】新規システムにおける技術選定〜GoとgRPCを採用した話〜
【とらのあなラボ Tech Day #3】新規システムにおける技術選定〜GoとgRPCを採用した話〜 虎の穴 開発室
1.1K vues30 diapositives
Slurmのジョブスケジューリングと実装 par
Slurmのジョブスケジューリングと実装Slurmのジョブスケジューリングと実装
Slurmのジョブスケジューリングと実装Ryuichi Sakamoto
1.9K vues34 diapositives
Isca13 study par
Isca13 studyIsca13 study
Isca13 studyToshiya Komoda
1.6K vues20 diapositives
04 これが(多分)最後! ベンチマークs par
04 これが(多分)最後! ベンチマークs04 これが(多分)最後! ベンチマークs
04 これが(多分)最後! ベンチマークsMonta Yashi
520 vues27 diapositives

Similaire à CatBoost on GPU のひみつ(20)

【旧版】2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来 par Preferred Networks
【旧版】2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来【旧版】2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来
【旧版】2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来
Preferred Networks1.7K vues
2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来 par Preferred Networks
2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来
2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来
Preferred Networks16.7K vues
【とらのあなラボ Tech Day #3】新規システムにおける技術選定〜GoとgRPCを採用した話〜 par 虎の穴 開発室
【とらのあなラボ Tech Day #3】新規システムにおける技術選定〜GoとgRPCを採用した話〜	【とらのあなラボ Tech Day #3】新規システムにおける技術選定〜GoとgRPCを採用した話〜
【とらのあなラボ Tech Day #3】新規システムにおける技術選定〜GoとgRPCを採用した話〜
Slurmのジョブスケジューリングと実装 par Ryuichi Sakamoto
Slurmのジョブスケジューリングと実装Slurmのジョブスケジューリングと実装
Slurmのジョブスケジューリングと実装
Ryuichi Sakamoto1.9K vues
04 これが(多分)最後! ベンチマークs par Monta Yashi
04 これが(多分)最後! ベンチマークs04 これが(多分)最後! ベンチマークs
04 これが(多分)最後! ベンチマークs
Monta Yashi520 vues
AWS Step FunctionとLambdaでディープラーニングの訓練を全自動化する par mizugokoro
AWS Step FunctionとLambdaでディープラーニングの訓練を全自動化するAWS Step FunctionとLambdaでディープラーニングの訓練を全自動化する
AWS Step FunctionとLambdaでディープラーニングの訓練を全自動化する
mizugokoro29.4K vues
続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2 par Preferred Networks
続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2
続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2
Preferred Networks1.5K vues
grn_ts の紹介 - Groonga Meatup 2015 par s5yata
grn_ts の紹介 - Groonga Meatup 2015grn_ts の紹介 - Groonga Meatup 2015
grn_ts の紹介 - Groonga Meatup 2015
s5yata1.6K vues
20221116_DBTS_PGStrom_History par Kohei KaiGai
20221116_DBTS_PGStrom_History20221116_DBTS_PGStrom_History
20221116_DBTS_PGStrom_History
Kohei KaiGai125 vues
Routerboard勉強会 tips par kometch H
Routerboard勉強会 tipsRouterboard勉強会 tips
Routerboard勉強会 tips
kometch H4.7K vues
「Windows Azure でスーパーコンピューティング!」for Microsoft MVP camp 2014 大阪会場 par 幸智 Yukinori 黒田 Kuroda
「Windows Azure でスーパーコンピューティング!」for Microsoft MVP camp 2014 大阪会場「Windows Azure でスーパーコンピューティング!」for Microsoft MVP camp 2014 大阪会場
「Windows Azure でスーパーコンピューティング!」for Microsoft MVP camp 2014 大阪会場
2015年度GPGPU実践基礎工学 第14回 GPGPU組込開発環境 par 智啓 出川
2015年度GPGPU実践基礎工学 第14回 GPGPU組込開発環境2015年度GPGPU実践基礎工学 第14回 GPGPU組込開発環境
2015年度GPGPU実践基礎工学 第14回 GPGPU組込開発環境
智啓 出川2.3K vues
AWSとGPUインスタンスのご紹介 par Yasuhiro Matsuo
AWSとGPUインスタンスのご紹介AWSとGPUインスタンスのご紹介
AWSとGPUインスタンスのご紹介
Yasuhiro Matsuo2.8K vues
俺的 Ignite update 萌えポイント portal&arm, compute, network - par Yui Ashikaga
俺的 Ignite update 萌えポイント   portal&arm, compute, network -俺的 Ignite update 萌えポイント   portal&arm, compute, network -
俺的 Ignite update 萌えポイント portal&arm, compute, network -
Yui Ashikaga1K vues
20170310_InDatabaseAnalytics_#1 par Kohei KaiGai
20170310_InDatabaseAnalytics_#120170310_InDatabaseAnalytics_#1
20170310_InDatabaseAnalytics_#1
Kohei KaiGai6.7K vues
1070: CUDA プログラミング入門 par NVIDIA Japan
1070: CUDA プログラミング入門1070: CUDA プログラミング入門
1070: CUDA プログラミング入門
NVIDIA Japan7.6K vues

Dernier

PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」 par
PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」
PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」PC Cluster Consortium
45 vues12 diapositives
PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」 par
PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」
PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」PC Cluster Consortium
23 vues36 diapositives
定例会スライド_キャチs 公開用.pdf par
定例会スライド_キャチs 公開用.pdf定例会スライド_キャチs 公開用.pdf
定例会スライド_キャチs 公開用.pdfKeio Robotics Association
132 vues64 diapositives
The Things Stack説明資料 by The Things Industries par
The Things Stack説明資料 by The Things IndustriesThe Things Stack説明資料 by The Things Industries
The Things Stack説明資料 by The Things IndustriesCRI Japan, Inc.
76 vues29 diapositives
Windows 11 information that can be used at the development site par
Windows 11 information that can be used at the development siteWindows 11 information that can be used at the development site
Windows 11 information that can be used at the development siteAtomu Hidaka
90 vues41 diapositives

Dernier(12)

PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」 par PC Cluster Consortium
PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」
PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」
PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」 par PC Cluster Consortium
PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」
PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」
The Things Stack説明資料 by The Things Industries par CRI Japan, Inc.
The Things Stack説明資料 by The Things IndustriesThe Things Stack説明資料 by The Things Industries
The Things Stack説明資料 by The Things Industries
CRI Japan, Inc.76 vues
Windows 11 information that can be used at the development site par Atomu Hidaka
Windows 11 information that can be used at the development siteWindows 11 information that can be used at the development site
Windows 11 information that can be used at the development site
Atomu Hidaka90 vues
SNMPセキュリティ超入門 par mkoda
SNMPセキュリティ超入門SNMPセキュリティ超入門
SNMPセキュリティ超入門
mkoda453 vues
SSH応用編_20231129.pdf par icebreaker4
SSH応用編_20231129.pdfSSH応用編_20231129.pdf
SSH応用編_20231129.pdf
icebreaker4380 vues
今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20... par NTT DATA Technology & Innovation
今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20...今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20...
今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20...

CatBoost on GPU のひみつ