SlideShare une entreprise Scribd logo
1  sur  10
Télécharger pour lire hors ligne
【SIGMOD2010勉強会】


    Session 8: Leveraging Hardware for
                    Data management
                                   担当: 山室健(NTT)


       Session 8: Leveraging Hardware for Data
1
          management 担当:山室健(NTT)
Research Session 8:
Leveraging Hardware for Data management
       論文中の図参照番号
           [1] FAST: Fast Architecture Sensitive Tree Search on Modern CPUs and GPUs
                Changkyu Kim, Jatin Chhugani, Nadathur Satish, Eric Sedlar, Anthony D. Nguyen, Tim Kaldewey,
                 Victor W. Lee, Scott A. Brandt, Pradeep Dubey
           [2] Fast In-Memory Sort on Modern CPUs and GPUs: A Case for Bandwidth-
            Oblivious SIMD Sort
                Nadathur Satish, Changkyu Kim, Jatin Chhugani, Anthony D. Nguyen, Victor W. Lee, Daehyun Kim,
                 Pradeep Dubey
           [3] Page-Differential Logging: An Efficient and DBMS-independent Approach for
            Storing Data into Flash Memory
                Yi-Reun Kim, Kyu-Young Whang, Il-Yeol Song
           [4] Similarity Search and Locality Sensitive Hashing using Ternary Content
            Addressable Memories
                Rajendra Shinde, Ashish Goel, Pankaj Gupta, Debojyoti Dutta




    2           Session 8: Leveraging Hardware for Data management 担当:山室健(NTT)
FAST: Fast Architecture Sensitive Tree Search on Modern
CPUs and GPUs
       研究概要
           Tree Searchは、メモリアクセスで大きくレイテンシの影響を受ける割に、CPU内の演算処
            理(主に比較処理)は相対的に少ない
                メモリアクセスのレイテンシは、CPUキャッシュの約100倍程度
           キャッシュヒット率を考慮したTreeの構造化と、ベクトル命令を利用した計算密度の向上
            によるTree-Searchの高速化を実現
       Hierarchical Blocking
           3種類のBlockでTree内のノードを配置
                SIMD Blocking: ベクトル命令で同時に実行する比較キーのBlock
                Cache line Blocking: データキャッシュを考慮したBlock
                Page Blocking: アドレスキャッシュ(TLB)を考慮したBlock
       Throughputの最大化分析
           単一クエリを処理する際に発生
            レイテンシを分析し、それを
            隠ぺいするために必要な同時
            クエリ数を推定
                                                                          [1]より引用
    3           Session 8: Leveraging Hardware for Data management 担当:山室健(NTT)
FAST: Fast Architecture Sensitive Tree Search on Modern
CPUs and GPUs
       評価実験
           Hierarchical BlockingをCPUとGPU向けに実装し評価
           データ数が大きくなるとCPU向けの実装では、メモリバンド幅が(CPU処理よりも先に)ボ
            トルネックになる結果
           GPUがCPUと比較し、メモリバンド幅が大きいため、データ数が多いところではGPUが有
            利
       今後のアルゴリズムの方向性
           今後CPUコア当たりが利用可能なメモリバンド幅は減少傾向[27]
           処理あたりに必要なデータ量は極力小さく設計しなければ、今後のコア数増大に伴う性
            能向上の恩恵を得られない
       圧縮評価
           ノード内の比較キーをδ 符号を
            利用して圧縮することで15-20
            %の実行時間の短縮効果



                                                                       [1]より引用
    4        Session 8: Leveraging Hardware for Data management 担当:山室健(NTT)
Fast In-Memory Sort on Modern CPUs and GPUs:
A Case for Bandwidth-Oblivious SIMD Sort
       研究概要
           データベース操作で一般的なオンメモリSort処理の、メモリバンド幅を考慮しながらアー
            キテクチャ志向の最適化を用いた高速化
           比較を行わないRadix-Sortと、比較を行うMerge-Sortの2つを評価
       Radix-Sort
           値を桁ごとに分割し、各桁毎にソートを行う手法
           各桁のソートにはヒストグラムを用いる、Counting-Sort [10]を適用
           ヒストグラムの作成には、prefix-sumを利用した並列リダクションを適用
           2パタンのアーキテクチャ志向の実装
                Buffer-based Scheme: ヒストグラムの書き出しをバッファリングすることで軽減する手法
                Local Sort-based Scheme: ベクトル命令を利用した並列リダクションの高速化 [6,22,24]

       Merge-Sort
           ソート済みのサブリストを連結しながら最終的に1つの
            ソート済みリストを作成
           ベクトル命令を利用したbitonic mergenetwork
            アルゴリズム[8]を適用した並列Merge-Sortを実装


    5           Session 8: Leveraging Hardware for Data management 担当:山室健(NTT) [2]より引用
Fast In-Memory Sort on Modern CPUs and GPUs:
A Case for Bandwidth-Oblivious SIMD Sort
       評価実験
           前述のRadix-SortとMerge-SortをCPUとGPU向けに実装し評価
                CPUのRadix-SortはBuffer-based Schemeを、GPUはLocal Sort-based Schemeを適用(結果が最も良かったもの
                 を採用)
           現状のCPU/GPU性能では、全てのパタンでCPUボトルネック
           データサイズが大きくなった場合、各アルゴリズムの計算量の差が結果に表れている
                Radix-SortはO(N)、Merge-SortはO(NlogN)
           ただし、計算量当たりの必要データ量は断然Radix-Sortが大きい
       今後のアルゴリズムの方向性
           今後CPUコア当たりが利用可能なメモリバンド幅は減少傾向[21]にあるため、Merge-SortがRadix-
            Sortと比較し有利
           ベクトル命令長が増えることも予測され、その場合もMerge-Sortが有利




                                            [2]より引用                          [2]より引用
    6           Session 8: Leveraging Hardware for Data management 担当:山室健(NTT)
Page-Differential Logging: An Efficient and DBMS-independent
Approach for Storing Data into Flash Memory
       研究概要
           2次記憶装置として広く使われているFlash Memory上のデータ読み書きに関して、従来手法の相反す
            る問題を解決するためのデータ管理方式の研究
       2種類の従来手法と、それらの問題
           Page-based
                データに変更が有った場合、ページ(書込みの最小単位)全体をFlash Memory上に書き込む方式
                読み込みは速いが、書込みは変更されていないデータ部分まで書き込む必要有
           Log-based
                変更箇所の差分情報のみを書き込む方式
                書込みは速いが、読み込みはベースとなるページと、差分情報を
                 全て読み込む必要有

       Page-Differential Logging
           writing difference only
                差分のみを書込み
           a-most-one-age writing
                複数回更新が有った場合、差分情報を1つに まとめて書込み
           at-most-two-page reading
                読み込みはベースページと、差分情報が含まれるページの
                 2ページとなるように制御                                               [3]より引用

    7           Session 8: Leveraging Hardware for Data management 担当:山室健(NTT)
Page-Differential Logging: An Efficient and DBMS-independent
Approach for Storing Data into Flash Memory
       評価実験
           提案手法(PDL)と、その他3つの従来手法のI/O timeを比較
                Out-place update(OPU) scheme[9]と、In-place update(IPU) schemeの2つのPage- basedアプロー
                 チ
                in-page logging method[13]のlog-basedアプローチ
           概ね予想通りの結果
                Page-baseアプローチ(OPU, and IPU)は読み込みが速く、書込みが遅い
                Log-basedアプローチは、Page-baseの逆の結果
                それらに対し、提案手法はそれらの中間となるような結果に
                TPC-C(業務系のOLTPを想定)を使った総合的なI/O timeも、提案手法が最も速い




                                               [3]より引用                             [3]より引用
    8           Session 8: Leveraging Hardware for Data management 担当:山室健(NTT)
Similarity Search and Locality Sensitive Hashing
using Ternary Content Addressable Memories
       研究概要
           データマイニングや機会学習に用いられるNearest neighbor Search[29]、特にユークリッド空間上の
            Locality Sensitive Hash(LSH)[4]に着眼し、TCAMを利用して空間コストと探索コストを改善する研究
           TCAM [31]
                L3スイッチでよく用いられる連想メモリ、ビットベクトル<0,1,*>を入力するとそれに対応したアドレス、もしくはデータ
                 を高速に探索可能なデバイス

       TLSH
           LSHは距離の近い値を同じBucketに高確率で割り当てるハッシュ関数
           TLSHはTCAMを利用し、LSHを改善したハッシュ関数
           隣接する超平面を<*>で表現することで’fuzz’な領域を作成し、隣接値を同じbucketに割り当てる確
            率を高くすることが可能
       (l, c)-ANNS: (l, c)-Approximate Nearest Neighbor Search
           l以下の距離の最近傍値がある場合に距離が
            lc以下の値を返す問題
           TLSHを利用することで次元数が大きくなった場合
            にでも、空間コストをデータ量に対してほぼ線形、ま
            た探索コストをO(1)で実現可能



    9           Session 8: Leveraging Hardware for Data management 担当:山室健(NTT) [4]より引用
Similarity Search and Locality Sensitive Hashing
using Ternary Content Addressable Memories
    評価実験対象
        64次元ユークリッド空間上の1M個のWikipediaデータ
        (1, 2)-NNS
        288-bit TCAM
    評価結果
        δ の値を上げた場合に、False positive値は上昇し、逆にFalse negative値が減少するた
         め、ある閾値以下にFalse negativeを抑えながらFalse positiveを最大化するδ の値が存
         在(δ ~2.6)
        緑色の線はデータセットのみから推定した予測値
        その他、TCAMのbit幅を変化させた場合のFalse positiveとF値の評価も論文上では掲載




                                                                       [4]より引用
    10    Session 8: Leveraging Hardware for Data management 担当:山室健(NTT)

Contenu connexe

Tendances

VLDB'10勉強会 -Session 2-
VLDB'10勉強会 -Session 2-VLDB'10勉強会 -Session 2-
VLDB'10勉強会 -Session 2-Takeshi Yamamuro
 
Hybrid computing using a neural network with dynamic
Hybrid computing using a neural network with dynamicHybrid computing using a neural network with dynamic
Hybrid computing using a neural network with dynamicRyutaro Yamauchi
 
2015年度先端GPGPUシミュレーション工学特論 第2回 GPUによる並列計算の概念と メモリアクセス
2015年度先端GPGPUシミュレーション工学特論 第2回 GPUによる並列計算の概念とメモリアクセス2015年度先端GPGPUシミュレーション工学特論 第2回 GPUによる並列計算の概念とメモリアクセス
2015年度先端GPGPUシミュレーション工学特論 第2回 GPUによる並列計算の概念と メモリアクセス智啓 出川
 
2015年度先端GPGPUシミュレーション工学特論 第13回 数値流体力学への応用 (高度な最適化)
2015年度先端GPGPUシミュレーション工学特論 第13回 数値流体力学への応用(高度な最適化)2015年度先端GPGPUシミュレーション工学特論 第13回 数値流体力学への応用(高度な最適化)
2015年度先端GPGPUシミュレーション工学特論 第13回 数値流体力学への応用 (高度な最適化)智啓 出川
 
pg_bigm(ピージーバイグラム)を用いた全文検索のしくみ
pg_bigm(ピージーバイグラム)を用いた全文検索のしくみpg_bigm(ピージーバイグラム)を用いた全文検索のしくみ
pg_bigm(ピージーバイグラム)を用いた全文検索のしくみMasahiko Sawada
 
2015年度GPGPU実践基礎工学 第1回 学際的分野における先端シミュレーション技術の歴史
2015年度GPGPU実践基礎工学 第1回 学際的分野における先端シミュレーション技術の歴史2015年度GPGPU実践基礎工学 第1回 学際的分野における先端シミュレーション技術の歴史
2015年度GPGPU実践基礎工学 第1回 学際的分野における先端シミュレーション技術の歴史智啓 出川
 
pg_bigm(ピージー・バイグラム)を用いた全文検索のしくみ(後編)
pg_bigm(ピージー・バイグラム)を用いた全文検索のしくみ(後編)pg_bigm(ピージー・バイグラム)を用いた全文検索のしくみ(後編)
pg_bigm(ピージー・バイグラム)を用いた全文検索のしくみ(後編)Masahiko Sawada
 
2015年度GPGPU実践基礎工学 第7回 シングルコアとマルチコア
2015年度GPGPU実践基礎工学 第7回 シングルコアとマルチコア2015年度GPGPU実践基礎工学 第7回 シングルコアとマルチコア
2015年度GPGPU実践基礎工学 第7回 シングルコアとマルチコア智啓 出川
 
コード最適化と機械学習. DSIRNLP5 2014/1/11
コード最適化と機械学習. DSIRNLP5 2014/1/11コード最適化と機械学習. DSIRNLP5 2014/1/11
コード最適化と機械学習. DSIRNLP5 2014/1/11Yasunobu Sumikawa
 
2015年度GPGPU実践プログラミング 第6回 パフォーマンス解析ツール
2015年度GPGPU実践プログラミング 第6回 パフォーマンス解析ツール2015年度GPGPU実践プログラミング 第6回 パフォーマンス解析ツール
2015年度GPGPU実践プログラミング 第6回 パフォーマンス解析ツール智啓 出川
 
2015年度先端GPGPUシミュレーション工学特論 第1回 先端シミュレーションおよび産業界におけるGPUの役割
2015年度先端GPGPUシミュレーション工学特論 第1回 先端シミュレーションおよび産業界におけるGPUの役割2015年度先端GPGPUシミュレーション工学特論 第1回 先端シミュレーションおよび産業界におけるGPUの役割
2015年度先端GPGPUシミュレーション工学特論 第1回 先端シミュレーションおよび産業界におけるGPUの役割智啓 出川
 
kagamicomput201713
kagamicomput201713kagamicomput201713
kagamicomput201713swkagami
 
2015年度GPGPU実践基礎工学 第5回 ハードウェアによるCPUの高速化技術
2015年度GPGPU実践基礎工学 第5回 ハードウェアによるCPUの高速化技術2015年度GPGPU実践基礎工学 第5回 ハードウェアによるCPUの高速化技術
2015年度GPGPU実践基礎工学 第5回 ハードウェアによるCPUの高速化技術智啓 出川
 
[DL輪読会]LightTrack: A Generic Framework for Online Top-Down Human Pose Tracking
[DL輪読会]LightTrack: A Generic Framework for Online Top-Down Human Pose Tracking[DL輪読会]LightTrack: A Generic Framework for Online Top-Down Human Pose Tracking
[DL輪読会]LightTrack: A Generic Framework for Online Top-Down Human Pose TrackingDeep Learning JP
 
ディープラーニング最近の発展とビジネス応用への課題
ディープラーニング最近の発展とビジネス応用への課題ディープラーニング最近の発展とビジネス応用への課題
ディープラーニング最近の発展とビジネス応用への課題Kenta Oono
 
TokyoWebMining#18_nukamu
TokyoWebMining#18_nukamuTokyoWebMining#18_nukamu
TokyoWebMining#18_nukamunukamu
 
2015年度先端GPGPUシミュレーション工学特論 第7回 総和計算(Atomic演算)
2015年度先端GPGPUシミュレーション工学特論 第7回 総和計算(Atomic演算)2015年度先端GPGPUシミュレーション工学特論 第7回 総和計算(Atomic演算)
2015年度先端GPGPUシミュレーション工学特論 第7回 総和計算(Atomic演算)智啓 出川
 
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hareDAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也harePreferred Networks
 
まだCPUで消耗してるの?Jubatusによる近傍探索のGPUを利用した高速化
まだCPUで消耗してるの?Jubatusによる近傍探索のGPUを利用した高速化まだCPUで消耗してるの?Jubatusによる近傍探索のGPUを利用した高速化
まだCPUで消耗してるの?Jubatusによる近傍探索のGPUを利用した高速化JubatusOfficial
 
20190418_PGStrom_on_ArrowFdw
20190418_PGStrom_on_ArrowFdw20190418_PGStrom_on_ArrowFdw
20190418_PGStrom_on_ArrowFdwKohei KaiGai
 

Tendances (20)

VLDB'10勉強会 -Session 2-
VLDB'10勉強会 -Session 2-VLDB'10勉強会 -Session 2-
VLDB'10勉強会 -Session 2-
 
Hybrid computing using a neural network with dynamic
Hybrid computing using a neural network with dynamicHybrid computing using a neural network with dynamic
Hybrid computing using a neural network with dynamic
 
2015年度先端GPGPUシミュレーション工学特論 第2回 GPUによる並列計算の概念と メモリアクセス
2015年度先端GPGPUシミュレーション工学特論 第2回 GPUによる並列計算の概念とメモリアクセス2015年度先端GPGPUシミュレーション工学特論 第2回 GPUによる並列計算の概念とメモリアクセス
2015年度先端GPGPUシミュレーション工学特論 第2回 GPUによる並列計算の概念と メモリアクセス
 
2015年度先端GPGPUシミュレーション工学特論 第13回 数値流体力学への応用 (高度な最適化)
2015年度先端GPGPUシミュレーション工学特論 第13回 数値流体力学への応用(高度な最適化)2015年度先端GPGPUシミュレーション工学特論 第13回 数値流体力学への応用(高度な最適化)
2015年度先端GPGPUシミュレーション工学特論 第13回 数値流体力学への応用 (高度な最適化)
 
pg_bigm(ピージーバイグラム)を用いた全文検索のしくみ
pg_bigm(ピージーバイグラム)を用いた全文検索のしくみpg_bigm(ピージーバイグラム)を用いた全文検索のしくみ
pg_bigm(ピージーバイグラム)を用いた全文検索のしくみ
 
2015年度GPGPU実践基礎工学 第1回 学際的分野における先端シミュレーション技術の歴史
2015年度GPGPU実践基礎工学 第1回 学際的分野における先端シミュレーション技術の歴史2015年度GPGPU実践基礎工学 第1回 学際的分野における先端シミュレーション技術の歴史
2015年度GPGPU実践基礎工学 第1回 学際的分野における先端シミュレーション技術の歴史
 
pg_bigm(ピージー・バイグラム)を用いた全文検索のしくみ(後編)
pg_bigm(ピージー・バイグラム)を用いた全文検索のしくみ(後編)pg_bigm(ピージー・バイグラム)を用いた全文検索のしくみ(後編)
pg_bigm(ピージー・バイグラム)を用いた全文検索のしくみ(後編)
 
2015年度GPGPU実践基礎工学 第7回 シングルコアとマルチコア
2015年度GPGPU実践基礎工学 第7回 シングルコアとマルチコア2015年度GPGPU実践基礎工学 第7回 シングルコアとマルチコア
2015年度GPGPU実践基礎工学 第7回 シングルコアとマルチコア
 
コード最適化と機械学習. DSIRNLP5 2014/1/11
コード最適化と機械学習. DSIRNLP5 2014/1/11コード最適化と機械学習. DSIRNLP5 2014/1/11
コード最適化と機械学習. DSIRNLP5 2014/1/11
 
2015年度GPGPU実践プログラミング 第6回 パフォーマンス解析ツール
2015年度GPGPU実践プログラミング 第6回 パフォーマンス解析ツール2015年度GPGPU実践プログラミング 第6回 パフォーマンス解析ツール
2015年度GPGPU実践プログラミング 第6回 パフォーマンス解析ツール
 
2015年度先端GPGPUシミュレーション工学特論 第1回 先端シミュレーションおよび産業界におけるGPUの役割
2015年度先端GPGPUシミュレーション工学特論 第1回 先端シミュレーションおよび産業界におけるGPUの役割2015年度先端GPGPUシミュレーション工学特論 第1回 先端シミュレーションおよび産業界におけるGPUの役割
2015年度先端GPGPUシミュレーション工学特論 第1回 先端シミュレーションおよび産業界におけるGPUの役割
 
kagamicomput201713
kagamicomput201713kagamicomput201713
kagamicomput201713
 
2015年度GPGPU実践基礎工学 第5回 ハードウェアによるCPUの高速化技術
2015年度GPGPU実践基礎工学 第5回 ハードウェアによるCPUの高速化技術2015年度GPGPU実践基礎工学 第5回 ハードウェアによるCPUの高速化技術
2015年度GPGPU実践基礎工学 第5回 ハードウェアによるCPUの高速化技術
 
[DL輪読会]LightTrack: A Generic Framework for Online Top-Down Human Pose Tracking
[DL輪読会]LightTrack: A Generic Framework for Online Top-Down Human Pose Tracking[DL輪読会]LightTrack: A Generic Framework for Online Top-Down Human Pose Tracking
[DL輪読会]LightTrack: A Generic Framework for Online Top-Down Human Pose Tracking
 
ディープラーニング最近の発展とビジネス応用への課題
ディープラーニング最近の発展とビジネス応用への課題ディープラーニング最近の発展とビジネス応用への課題
ディープラーニング最近の発展とビジネス応用への課題
 
TokyoWebMining#18_nukamu
TokyoWebMining#18_nukamuTokyoWebMining#18_nukamu
TokyoWebMining#18_nukamu
 
2015年度先端GPGPUシミュレーション工学特論 第7回 総和計算(Atomic演算)
2015年度先端GPGPUシミュレーション工学特論 第7回 総和計算(Atomic演算)2015年度先端GPGPUシミュレーション工学特論 第7回 総和計算(Atomic演算)
2015年度先端GPGPUシミュレーション工学特論 第7回 総和計算(Atomic演算)
 
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hareDAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
 
まだCPUで消耗してるの?Jubatusによる近傍探索のGPUを利用した高速化
まだCPUで消耗してるの?Jubatusによる近傍探索のGPUを利用した高速化まだCPUで消耗してるの?Jubatusによる近傍探索のGPUを利用した高速化
まだCPUで消耗してるの?Jubatusによる近傍探索のGPUを利用した高速化
 
20190418_PGStrom_on_ArrowFdw
20190418_PGStrom_on_ArrowFdw20190418_PGStrom_on_ArrowFdw
20190418_PGStrom_on_ArrowFdw
 

En vedette

SIGMOD’12勉強会 -Session 7-
SIGMOD’12勉強会 -Session 7-SIGMOD’12勉強会 -Session 7-
SIGMOD’12勉強会 -Session 7-Takeshi Yamamuro
 
Introduction to Modern Analytical DB
Introduction to Modern Analytical DBIntroduction to Modern Analytical DB
Introduction to Modern Analytical DBTakeshi Yamamuro
 
VLDB2013 R1 Emerging Hardware
VLDB2013 R1 Emerging HardwareVLDB2013 R1 Emerging Hardware
VLDB2013 R1 Emerging HardwareTakeshi Yamamuro
 
VLDB'10勉強会 -Session 20-
VLDB'10勉強会 -Session 20-VLDB'10勉強会 -Session 20-
VLDB'10勉強会 -Session 20-Takeshi Yamamuro
 
Sparkのクエリ処理系と周辺の話題
Sparkのクエリ処理系と周辺の話題Sparkのクエリ処理系と周辺の話題
Sparkのクエリ処理系と周辺の話題Takeshi Yamamuro
 
研究動向から考えるx86/x64最適化手法
研究動向から考えるx86/x64最適化手法研究動向から考えるx86/x64最適化手法
研究動向から考えるx86/x64最適化手法Takeshi Yamamuro
 
LLVMで遊ぶ(整数圧縮とか、x86向けの自動ベクトル化とか)
LLVMで遊ぶ(整数圧縮とか、x86向けの自動ベクトル化とか)LLVMで遊ぶ(整数圧縮とか、x86向けの自動ベクトル化とか)
LLVMで遊ぶ(整数圧縮とか、x86向けの自動ベクトル化とか)Takeshi Yamamuro
 

En vedette (12)

SIGMOD’12勉強会 -Session 7-
SIGMOD’12勉強会 -Session 7-SIGMOD’12勉強会 -Session 7-
SIGMOD’12勉強会 -Session 7-
 
20150513 legobease
20150513 legobease20150513 legobease
20150513 legobease
 
20150516 icde2015 r19-4
20150516 icde2015 r19-420150516 icde2015 r19-4
20150516 icde2015 r19-4
 
Introduction to Modern Analytical DB
Introduction to Modern Analytical DBIntroduction to Modern Analytical DB
Introduction to Modern Analytical DB
 
VLDB2013 R1 Emerging Hardware
VLDB2013 R1 Emerging HardwareVLDB2013 R1 Emerging Hardware
VLDB2013 R1 Emerging Hardware
 
VLDB'10勉強会 -Session 20-
VLDB'10勉強会 -Session 20-VLDB'10勉強会 -Session 20-
VLDB'10勉強会 -Session 20-
 
Sparkのクエリ処理系と周辺の話題
Sparkのクエリ処理系と周辺の話題Sparkのクエリ処理系と周辺の話題
Sparkのクエリ処理系と周辺の話題
 
20160908 hivemall meetup
20160908 hivemall meetup20160908 hivemall meetup
20160908 hivemall meetup
 
研究動向から考えるx86/x64最適化手法
研究動向から考えるx86/x64最適化手法研究動向から考えるx86/x64最適化手法
研究動向から考えるx86/x64最適化手法
 
LLVM最適化のこつ
LLVM最適化のこつLLVM最適化のこつ
LLVM最適化のこつ
 
LLVMで遊ぶ(整数圧縮とか、x86向けの自動ベクトル化とか)
LLVMで遊ぶ(整数圧縮とか、x86向けの自動ベクトル化とか)LLVMで遊ぶ(整数圧縮とか、x86向けの自動ベクトル化とか)
LLVMで遊ぶ(整数圧縮とか、x86向けの自動ベクトル化とか)
 
llvm入門
llvm入門llvm入門
llvm入門
 

Similaire à SIGMOD'10勉強会 -Session 8-

VLDB2011勉強会 Research Session 18: MapReduce and Hadoop
VLDB2011勉強会 Research Session 18: MapReduce and HadoopVLDB2011勉強会 Research Session 18: MapReduce and Hadoop
VLDB2011勉強会 Research Session 18: MapReduce and HadoopHiroaki Shiokawa
 
YAPC::Asia 2008 Tokyo - Pathtraq - building a computation-centric web service
YAPC::Asia 2008 Tokyo - Pathtraq - building a computation-centric web serviceYAPC::Asia 2008 Tokyo - Pathtraq - building a computation-centric web service
YAPC::Asia 2008 Tokyo - Pathtraq - building a computation-centric web serviceKazuho Oku
 
マイニング探検会#10
マイニング探検会#10マイニング探検会#10
マイニング探検会#10Yoji Kiyota
 
MemoryPlus Workshop
MemoryPlus WorkshopMemoryPlus Workshop
MemoryPlus WorkshopHitoshi Sato
 
ポスト・ラムダアーキテクチャの切り札? Apache Hudi(NTTデータ テクノロジーカンファレンス 2020 発表資料)
ポスト・ラムダアーキテクチャの切り札? Apache Hudi(NTTデータ テクノロジーカンファレンス 2020 発表資料)ポスト・ラムダアーキテクチャの切り札? Apache Hudi(NTTデータ テクノロジーカンファレンス 2020 発表資料)
ポスト・ラムダアーキテクチャの切り札? Apache Hudi(NTTデータ テクノロジーカンファレンス 2020 発表資料)NTT DATA Technology & Innovation
 
[db tech showcase Tokyo 2015] B12:カラムストアデータベースの技術と活用法 by 日本電気株式会社 田村稔
[db tech showcase Tokyo 2015] B12:カラムストアデータベースの技術と活用法 by 日本電気株式会社 田村稔[db tech showcase Tokyo 2015] B12:カラムストアデータベースの技術と活用法 by 日本電気株式会社 田村稔
[db tech showcase Tokyo 2015] B12:カラムストアデータベースの技術と活用法 by 日本電気株式会社 田村稔Insight Technology, Inc.
 
Data Center As A Computer 2章前半
Data Center As A Computer 2章前半Data Center As A Computer 2章前半
Data Center As A Computer 2章前半Akinori YOSHIDA
 
2021 03-09-ac ri-nngen
2021 03-09-ac ri-nngen2021 03-09-ac ri-nngen
2021 03-09-ac ri-nngen直久 住川
 
オープンソースコンパイラNNgenでつくるエッジ・ディープラーニングシステム
オープンソースコンパイラNNgenでつくるエッジ・ディープラーニングシステムオープンソースコンパイラNNgenでつくるエッジ・ディープラーニングシステム
オープンソースコンパイラNNgenでつくるエッジ・ディープラーニングシステムShinya Takamaeda-Y
 
[INSIGHT OUT 2011] A12 ひとつのデータベース技術では生き残れない part1 カラムナーデータベース(Shinkubo)
[INSIGHT OUT 2011] A12 ひとつのデータベース技術では生き残れない part1 カラムナーデータベース(Shinkubo)[INSIGHT OUT 2011] A12 ひとつのデータベース技術では生き残れない part1 カラムナーデータベース(Shinkubo)
[INSIGHT OUT 2011] A12 ひとつのデータベース技術では生き残れない part1 カラムナーデータベース(Shinkubo)Insight Technology, Inc.
 
PGXのレスポンスとリソース消費
PGXのレスポンスとリソース消費PGXのレスポンスとリソース消費
PGXのレスポンスとリソース消費Tatsumi Akinori
 
ASPLOS2017: Building Durable Transactions with Decoupling for Persistent Memory
ASPLOS2017: Building Durable Transactions with Decoupling for Persistent MemoryASPLOS2017: Building Durable Transactions with Decoupling for Persistent Memory
ASPLOS2017: Building Durable Transactions with Decoupling for Persistent MemoryAtsushi Koshiba
 
C16 45分でわかるPostgreSQLの仕組み by 山田努
C16 45分でわかるPostgreSQLの仕組み by 山田努C16 45分でわかるPostgreSQLの仕組み by 山田努
C16 45分でわかるPostgreSQLの仕組み by 山田努Insight Technology, Inc.
 
db tech showcase_2014_A14_Actian Vectorで得られる、BIにおける真のパフォーマンスとは
db tech showcase_2014_A14_Actian Vectorで得られる、BIにおける真のパフォーマンスとはdb tech showcase_2014_A14_Actian Vectorで得られる、BIにおける真のパフォーマンスとは
db tech showcase_2014_A14_Actian Vectorで得られる、BIにおける真のパフォーマンスとはKoji Shinkubo
 
サイバーフィジカルシステム(CPS)に必要なデータ基盤を考える ~ NoSQL/SQLハイブリット型GridDB ~
サイバーフィジカルシステム(CPS)に必要なデータ基盤を考える ~ NoSQL/SQLハイブリット型GridDB ~サイバーフィジカルシステム(CPS)に必要なデータ基盤を考える ~ NoSQL/SQLハイブリット型GridDB ~
サイバーフィジカルシステム(CPS)に必要なデータ基盤を考える ~ NoSQL/SQLハイブリット型GridDB ~griddb
 
プロとしてのOracleアーキテクチャ入門 ~番外編~ @ Developers Summit 2009
プロとしてのOracleアーキテクチャ入門 ~番外編~ @ Developers Summit 2009プロとしてのOracleアーキテクチャ入門 ~番外編~ @ Developers Summit 2009
プロとしてのOracleアーキテクチャ入門 ~番外編~ @ Developers Summit 2009Ryota Watabe
 
kagami_comput2016_14
kagami_comput2016_14kagami_comput2016_14
kagami_comput2016_14swkagami
 
Linux/DB Tuning (DevSumi2010, Japanese)
Linux/DB Tuning (DevSumi2010, Japanese)Linux/DB Tuning (DevSumi2010, Japanese)
Linux/DB Tuning (DevSumi2010, Japanese)Yoshinori Matsunobu
 
Scalable Cooperative File Caching with RDMA-Based Directory Management
Scalable Cooperative File Caching with RDMA-Based Directory ManagementScalable Cooperative File Caching with RDMA-Based Directory Management
Scalable Cooperative File Caching with RDMA-Based Directory ManagementJunya Arai
 

Similaire à SIGMOD'10勉強会 -Session 8- (20)

VLDB2011勉強会 Research Session 18: MapReduce and Hadoop
VLDB2011勉強会 Research Session 18: MapReduce and HadoopVLDB2011勉強会 Research Session 18: MapReduce and Hadoop
VLDB2011勉強会 Research Session 18: MapReduce and Hadoop
 
YAPC::Asia 2008 Tokyo - Pathtraq - building a computation-centric web service
YAPC::Asia 2008 Tokyo - Pathtraq - building a computation-centric web serviceYAPC::Asia 2008 Tokyo - Pathtraq - building a computation-centric web service
YAPC::Asia 2008 Tokyo - Pathtraq - building a computation-centric web service
 
マイニング探検会#10
マイニング探検会#10マイニング探検会#10
マイニング探検会#10
 
MemoryPlus Workshop
MemoryPlus WorkshopMemoryPlus Workshop
MemoryPlus Workshop
 
ポスト・ラムダアーキテクチャの切り札? Apache Hudi(NTTデータ テクノロジーカンファレンス 2020 発表資料)
ポスト・ラムダアーキテクチャの切り札? Apache Hudi(NTTデータ テクノロジーカンファレンス 2020 発表資料)ポスト・ラムダアーキテクチャの切り札? Apache Hudi(NTTデータ テクノロジーカンファレンス 2020 発表資料)
ポスト・ラムダアーキテクチャの切り札? Apache Hudi(NTTデータ テクノロジーカンファレンス 2020 発表資料)
 
[db tech showcase Tokyo 2015] B12:カラムストアデータベースの技術と活用法 by 日本電気株式会社 田村稔
[db tech showcase Tokyo 2015] B12:カラムストアデータベースの技術と活用法 by 日本電気株式会社 田村稔[db tech showcase Tokyo 2015] B12:カラムストアデータベースの技術と活用法 by 日本電気株式会社 田村稔
[db tech showcase Tokyo 2015] B12:カラムストアデータベースの技術と活用法 by 日本電気株式会社 田村稔
 
Data Center As A Computer 2章前半
Data Center As A Computer 2章前半Data Center As A Computer 2章前半
Data Center As A Computer 2章前半
 
2021 03-09-ac ri-nngen
2021 03-09-ac ri-nngen2021 03-09-ac ri-nngen
2021 03-09-ac ri-nngen
 
オープンソースコンパイラNNgenでつくるエッジ・ディープラーニングシステム
オープンソースコンパイラNNgenでつくるエッジ・ディープラーニングシステムオープンソースコンパイラNNgenでつくるエッジ・ディープラーニングシステム
オープンソースコンパイラNNgenでつくるエッジ・ディープラーニングシステム
 
[INSIGHT OUT 2011] A12 ひとつのデータベース技術では生き残れない part1 カラムナーデータベース(Shinkubo)
[INSIGHT OUT 2011] A12 ひとつのデータベース技術では生き残れない part1 カラムナーデータベース(Shinkubo)[INSIGHT OUT 2011] A12 ひとつのデータベース技術では生き残れない part1 カラムナーデータベース(Shinkubo)
[INSIGHT OUT 2011] A12 ひとつのデータベース技術では生き残れない part1 カラムナーデータベース(Shinkubo)
 
PGXのレスポンスとリソース消費
PGXのレスポンスとリソース消費PGXのレスポンスとリソース消費
PGXのレスポンスとリソース消費
 
ASPLOS2017: Building Durable Transactions with Decoupling for Persistent Memory
ASPLOS2017: Building Durable Transactions with Decoupling for Persistent MemoryASPLOS2017: Building Durable Transactions with Decoupling for Persistent Memory
ASPLOS2017: Building Durable Transactions with Decoupling for Persistent Memory
 
C16 45分でわかるPostgreSQLの仕組み by 山田努
C16 45分でわかるPostgreSQLの仕組み by 山田努C16 45分でわかるPostgreSQLの仕組み by 山田努
C16 45分でわかるPostgreSQLの仕組み by 山田努
 
db tech showcase_2014_A14_Actian Vectorで得られる、BIにおける真のパフォーマンスとは
db tech showcase_2014_A14_Actian Vectorで得られる、BIにおける真のパフォーマンスとはdb tech showcase_2014_A14_Actian Vectorで得られる、BIにおける真のパフォーマンスとは
db tech showcase_2014_A14_Actian Vectorで得られる、BIにおける真のパフォーマンスとは
 
サイバーフィジカルシステム(CPS)に必要なデータ基盤を考える ~ NoSQL/SQLハイブリット型GridDB ~
サイバーフィジカルシステム(CPS)に必要なデータ基盤を考える ~ NoSQL/SQLハイブリット型GridDB ~サイバーフィジカルシステム(CPS)に必要なデータ基盤を考える ~ NoSQL/SQLハイブリット型GridDB ~
サイバーフィジカルシステム(CPS)に必要なデータ基盤を考える ~ NoSQL/SQLハイブリット型GridDB ~
 
プロとしてのOracleアーキテクチャ入門 ~番外編~ @ Developers Summit 2009
プロとしてのOracleアーキテクチャ入門 ~番外編~ @ Developers Summit 2009プロとしてのOracleアーキテクチャ入門 ~番外編~ @ Developers Summit 2009
プロとしてのOracleアーキテクチャ入門 ~番外編~ @ Developers Summit 2009
 
BP Study #16
BP Study #16BP Study #16
BP Study #16
 
kagami_comput2016_14
kagami_comput2016_14kagami_comput2016_14
kagami_comput2016_14
 
Linux/DB Tuning (DevSumi2010, Japanese)
Linux/DB Tuning (DevSumi2010, Japanese)Linux/DB Tuning (DevSumi2010, Japanese)
Linux/DB Tuning (DevSumi2010, Japanese)
 
Scalable Cooperative File Caching with RDMA-Based Directory Management
Scalable Cooperative File Caching with RDMA-Based Directory ManagementScalable Cooperative File Caching with RDMA-Based Directory Management
Scalable Cooperative File Caching with RDMA-Based Directory Management
 

Plus de Takeshi Yamamuro

LT: Spark 3.1 Feature Expectation
LT: Spark 3.1 Feature ExpectationLT: Spark 3.1 Feature Expectation
LT: Spark 3.1 Feature ExpectationTakeshi Yamamuro
 
Quick Overview of Upcoming Spark 3.0 + α
Quick Overview of Upcoming Spark 3.0 + αQuick Overview of Upcoming Spark 3.0 + α
Quick Overview of Upcoming Spark 3.0 + αTakeshi Yamamuro
 
MLflowによる機械学習モデルのライフサイクルの管理
MLflowによる機械学習モデルのライフサイクルの管理MLflowによる機械学習モデルのライフサイクルの管理
MLflowによる機械学習モデルのライフサイクルの管理Takeshi Yamamuro
 
Taming Distributed/Parallel Query Execution Engine of Apache Spark
Taming Distributed/Parallel Query Execution Engine of Apache SparkTaming Distributed/Parallel Query Execution Engine of Apache Spark
Taming Distributed/Parallel Query Execution Engine of Apache SparkTakeshi Yamamuro
 
LLJVM: LLVM bitcode to JVM bytecode
LLJVM: LLVM bitcode to JVM bytecodeLLJVM: LLVM bitcode to JVM bytecode
LLJVM: LLVM bitcode to JVM bytecodeTakeshi Yamamuro
 
20180417 hivemall meetup#4
20180417 hivemall meetup#420180417 hivemall meetup#4
20180417 hivemall meetup#4Takeshi Yamamuro
 
An Experimental Study of Bitmap Compression vs. Inverted List Compression
An Experimental Study of Bitmap Compression vs. Inverted List CompressionAn Experimental Study of Bitmap Compression vs. Inverted List Compression
An Experimental Study of Bitmap Compression vs. Inverted List CompressionTakeshi Yamamuro
 
浮動小数点(IEEE754)を圧縮したい@dsirnlp#4
浮動小数点(IEEE754)を圧縮したい@dsirnlp#4浮動小数点(IEEE754)を圧縮したい@dsirnlp#4
浮動小数点(IEEE754)を圧縮したい@dsirnlp#4Takeshi Yamamuro
 
A x86-optimized rank&select dictionary for bit sequences
A x86-optimized rank&select dictionary for bit sequencesA x86-optimized rank&select dictionary for bit sequences
A x86-optimized rank&select dictionary for bit sequencesTakeshi Yamamuro
 

Plus de Takeshi Yamamuro (11)

LT: Spark 3.1 Feature Expectation
LT: Spark 3.1 Feature ExpectationLT: Spark 3.1 Feature Expectation
LT: Spark 3.1 Feature Expectation
 
Apache Spark + Arrow
Apache Spark + ArrowApache Spark + Arrow
Apache Spark + Arrow
 
Quick Overview of Upcoming Spark 3.0 + α
Quick Overview of Upcoming Spark 3.0 + αQuick Overview of Upcoming Spark 3.0 + α
Quick Overview of Upcoming Spark 3.0 + α
 
MLflowによる機械学習モデルのライフサイクルの管理
MLflowによる機械学習モデルのライフサイクルの管理MLflowによる機械学習モデルのライフサイクルの管理
MLflowによる機械学習モデルのライフサイクルの管理
 
Taming Distributed/Parallel Query Execution Engine of Apache Spark
Taming Distributed/Parallel Query Execution Engine of Apache SparkTaming Distributed/Parallel Query Execution Engine of Apache Spark
Taming Distributed/Parallel Query Execution Engine of Apache Spark
 
LLJVM: LLVM bitcode to JVM bytecode
LLJVM: LLVM bitcode to JVM bytecodeLLJVM: LLVM bitcode to JVM bytecode
LLJVM: LLVM bitcode to JVM bytecode
 
20180417 hivemall meetup#4
20180417 hivemall meetup#420180417 hivemall meetup#4
20180417 hivemall meetup#4
 
An Experimental Study of Bitmap Compression vs. Inverted List Compression
An Experimental Study of Bitmap Compression vs. Inverted List CompressionAn Experimental Study of Bitmap Compression vs. Inverted List Compression
An Experimental Study of Bitmap Compression vs. Inverted List Compression
 
浮動小数点(IEEE754)を圧縮したい@dsirnlp#4
浮動小数点(IEEE754)を圧縮したい@dsirnlp#4浮動小数点(IEEE754)を圧縮したい@dsirnlp#4
浮動小数点(IEEE754)を圧縮したい@dsirnlp#4
 
A x86-optimized rank&select dictionary for bit sequences
A x86-optimized rank&select dictionary for bit sequencesA x86-optimized rank&select dictionary for bit sequences
A x86-optimized rank&select dictionary for bit sequences
 
VAST-Tree, EDBT'12
VAST-Tree, EDBT'12VAST-Tree, EDBT'12
VAST-Tree, EDBT'12
 

SIGMOD'10勉強会 -Session 8-

  • 1. 【SIGMOD2010勉強会】 Session 8: Leveraging Hardware for Data management 担当: 山室健(NTT) Session 8: Leveraging Hardware for Data 1 management 担当:山室健(NTT)
  • 2. Research Session 8: Leveraging Hardware for Data management  論文中の図参照番号  [1] FAST: Fast Architecture Sensitive Tree Search on Modern CPUs and GPUs  Changkyu Kim, Jatin Chhugani, Nadathur Satish, Eric Sedlar, Anthony D. Nguyen, Tim Kaldewey, Victor W. Lee, Scott A. Brandt, Pradeep Dubey  [2] Fast In-Memory Sort on Modern CPUs and GPUs: A Case for Bandwidth- Oblivious SIMD Sort  Nadathur Satish, Changkyu Kim, Jatin Chhugani, Anthony D. Nguyen, Victor W. Lee, Daehyun Kim, Pradeep Dubey  [3] Page-Differential Logging: An Efficient and DBMS-independent Approach for Storing Data into Flash Memory  Yi-Reun Kim, Kyu-Young Whang, Il-Yeol Song  [4] Similarity Search and Locality Sensitive Hashing using Ternary Content Addressable Memories  Rajendra Shinde, Ashish Goel, Pankaj Gupta, Debojyoti Dutta 2 Session 8: Leveraging Hardware for Data management 担当:山室健(NTT)
  • 3. FAST: Fast Architecture Sensitive Tree Search on Modern CPUs and GPUs  研究概要  Tree Searchは、メモリアクセスで大きくレイテンシの影響を受ける割に、CPU内の演算処 理(主に比較処理)は相対的に少ない  メモリアクセスのレイテンシは、CPUキャッシュの約100倍程度  キャッシュヒット率を考慮したTreeの構造化と、ベクトル命令を利用した計算密度の向上 によるTree-Searchの高速化を実現  Hierarchical Blocking  3種類のBlockでTree内のノードを配置  SIMD Blocking: ベクトル命令で同時に実行する比較キーのBlock  Cache line Blocking: データキャッシュを考慮したBlock  Page Blocking: アドレスキャッシュ(TLB)を考慮したBlock  Throughputの最大化分析  単一クエリを処理する際に発生 レイテンシを分析し、それを 隠ぺいするために必要な同時 クエリ数を推定 [1]より引用 3 Session 8: Leveraging Hardware for Data management 担当:山室健(NTT)
  • 4. FAST: Fast Architecture Sensitive Tree Search on Modern CPUs and GPUs  評価実験  Hierarchical BlockingをCPUとGPU向けに実装し評価  データ数が大きくなるとCPU向けの実装では、メモリバンド幅が(CPU処理よりも先に)ボ トルネックになる結果  GPUがCPUと比較し、メモリバンド幅が大きいため、データ数が多いところではGPUが有 利  今後のアルゴリズムの方向性  今後CPUコア当たりが利用可能なメモリバンド幅は減少傾向[27]  処理あたりに必要なデータ量は極力小さく設計しなければ、今後のコア数増大に伴う性 能向上の恩恵を得られない  圧縮評価  ノード内の比較キーをδ 符号を 利用して圧縮することで15-20 %の実行時間の短縮効果 [1]より引用 4 Session 8: Leveraging Hardware for Data management 担当:山室健(NTT)
  • 5. Fast In-Memory Sort on Modern CPUs and GPUs: A Case for Bandwidth-Oblivious SIMD Sort  研究概要  データベース操作で一般的なオンメモリSort処理の、メモリバンド幅を考慮しながらアー キテクチャ志向の最適化を用いた高速化  比較を行わないRadix-Sortと、比較を行うMerge-Sortの2つを評価  Radix-Sort  値を桁ごとに分割し、各桁毎にソートを行う手法  各桁のソートにはヒストグラムを用いる、Counting-Sort [10]を適用  ヒストグラムの作成には、prefix-sumを利用した並列リダクションを適用  2パタンのアーキテクチャ志向の実装  Buffer-based Scheme: ヒストグラムの書き出しをバッファリングすることで軽減する手法  Local Sort-based Scheme: ベクトル命令を利用した並列リダクションの高速化 [6,22,24]  Merge-Sort  ソート済みのサブリストを連結しながら最終的に1つの ソート済みリストを作成  ベクトル命令を利用したbitonic mergenetwork アルゴリズム[8]を適用した並列Merge-Sortを実装 5 Session 8: Leveraging Hardware for Data management 担当:山室健(NTT) [2]より引用
  • 6. Fast In-Memory Sort on Modern CPUs and GPUs: A Case for Bandwidth-Oblivious SIMD Sort  評価実験  前述のRadix-SortとMerge-SortをCPUとGPU向けに実装し評価  CPUのRadix-SortはBuffer-based Schemeを、GPUはLocal Sort-based Schemeを適用(結果が最も良かったもの を採用)  現状のCPU/GPU性能では、全てのパタンでCPUボトルネック  データサイズが大きくなった場合、各アルゴリズムの計算量の差が結果に表れている  Radix-SortはO(N)、Merge-SortはO(NlogN)  ただし、計算量当たりの必要データ量は断然Radix-Sortが大きい  今後のアルゴリズムの方向性  今後CPUコア当たりが利用可能なメモリバンド幅は減少傾向[21]にあるため、Merge-SortがRadix- Sortと比較し有利  ベクトル命令長が増えることも予測され、その場合もMerge-Sortが有利 [2]より引用 [2]より引用 6 Session 8: Leveraging Hardware for Data management 担当:山室健(NTT)
  • 7. Page-Differential Logging: An Efficient and DBMS-independent Approach for Storing Data into Flash Memory  研究概要  2次記憶装置として広く使われているFlash Memory上のデータ読み書きに関して、従来手法の相反す る問題を解決するためのデータ管理方式の研究  2種類の従来手法と、それらの問題  Page-based  データに変更が有った場合、ページ(書込みの最小単位)全体をFlash Memory上に書き込む方式  読み込みは速いが、書込みは変更されていないデータ部分まで書き込む必要有  Log-based  変更箇所の差分情報のみを書き込む方式  書込みは速いが、読み込みはベースとなるページと、差分情報を 全て読み込む必要有  Page-Differential Logging  writing difference only  差分のみを書込み  a-most-one-age writing  複数回更新が有った場合、差分情報を1つに まとめて書込み  at-most-two-page reading  読み込みはベースページと、差分情報が含まれるページの 2ページとなるように制御 [3]より引用 7 Session 8: Leveraging Hardware for Data management 担当:山室健(NTT)
  • 8. Page-Differential Logging: An Efficient and DBMS-independent Approach for Storing Data into Flash Memory  評価実験  提案手法(PDL)と、その他3つの従来手法のI/O timeを比較  Out-place update(OPU) scheme[9]と、In-place update(IPU) schemeの2つのPage- basedアプロー チ  in-page logging method[13]のlog-basedアプローチ  概ね予想通りの結果  Page-baseアプローチ(OPU, and IPU)は読み込みが速く、書込みが遅い  Log-basedアプローチは、Page-baseの逆の結果  それらに対し、提案手法はそれらの中間となるような結果に  TPC-C(業務系のOLTPを想定)を使った総合的なI/O timeも、提案手法が最も速い [3]より引用 [3]より引用 8 Session 8: Leveraging Hardware for Data management 担当:山室健(NTT)
  • 9. Similarity Search and Locality Sensitive Hashing using Ternary Content Addressable Memories  研究概要  データマイニングや機会学習に用いられるNearest neighbor Search[29]、特にユークリッド空間上の Locality Sensitive Hash(LSH)[4]に着眼し、TCAMを利用して空間コストと探索コストを改善する研究  TCAM [31]  L3スイッチでよく用いられる連想メモリ、ビットベクトル<0,1,*>を入力するとそれに対応したアドレス、もしくはデータ を高速に探索可能なデバイス  TLSH  LSHは距離の近い値を同じBucketに高確率で割り当てるハッシュ関数  TLSHはTCAMを利用し、LSHを改善したハッシュ関数  隣接する超平面を<*>で表現することで’fuzz’な領域を作成し、隣接値を同じbucketに割り当てる確 率を高くすることが可能  (l, c)-ANNS: (l, c)-Approximate Nearest Neighbor Search  l以下の距離の最近傍値がある場合に距離が lc以下の値を返す問題  TLSHを利用することで次元数が大きくなった場合 にでも、空間コストをデータ量に対してほぼ線形、ま た探索コストをO(1)で実現可能 9 Session 8: Leveraging Hardware for Data management 担当:山室健(NTT) [4]より引用
  • 10. Similarity Search and Locality Sensitive Hashing using Ternary Content Addressable Memories  評価実験対象  64次元ユークリッド空間上の1M個のWikipediaデータ  (1, 2)-NNS  288-bit TCAM  評価結果  δ の値を上げた場合に、False positive値は上昇し、逆にFalse negative値が減少するた め、ある閾値以下にFalse negativeを抑えながらFalse positiveを最大化するδ の値が存 在(δ ~2.6)  緑色の線はデータセットのみから推定した予測値  その他、TCAMのbit幅を変化させた場合のFalse positiveとF値の評価も論文上では掲載 [4]より引用 10 Session 8: Leveraging Hardware for Data management 担当:山室健(NTT)