6. 6
SMB 2.0以降とレガシーな SMB 1.0/CIFS とは別物
より速く! FC SANと同等のパフォーマンスをシンプルに
より安全に! 成熟した管理機能、セキュリティ、高可用性
SMB
LAN Manager
Windows 95
Windows NT
SMB 2.0
Windows Vista
& Server 2008
SMB 2.1
Windows 7
& Server 2008 R2
SMB 3.0/3.0.2
Windows 8
& Server 2012
SMB 3.1.1
Windows 10
& Server 2016
1980年代~ 2006年 2009年 2012年 2015年
・コマンドの結合
・読取/書込サイズの拡大
・切断時の透過的再接続
・メッセージ署名の改善
(HMAC SHA-256)
・スケーラビリティの向上
・シンボリックリンクのサポート
・クライアント oplock リース モデル
・大きい MTU のサポート
(最大64KB → 1MB)
・スリープモード移行の強化
19. 19
アプリケーション
(local or remote)
Source Server
(複製元ノード)
Data
Log
1
t 2
Destination
Server
(複製先ノード)
Data
Log
t1 3
2
5
4
• I/O 発生時に、複製元/複製先両方のログディスクへの書き込みを保証する
20. 20
アプリケーション
(local or remote)
Source Server
(複製元ノード)
Data
Log
1
t 2
Destination
Server
(複製先ノード)
Data
Log
t1 5
4
3
6
• 複製先ノードでの書き込みを待たずに I/O 完了とみなす
• ネットワークの帯域幅や遅延で同期モードを利用できない場合に検討
24. 24
同期/非同期モードを選択可能
手動フェールオーバーのみ対応
(PowerShell / Azure Site Recovery)
「汎用ファイルサーバー」シナリオに最適
《Server to Server》 2つのサーバー間でのレプリケーション
《Cluster to Cluster》2つの異なるクラスター間でのレプリケーション
SRV1
SR over SMB3
SRV2
ManhattanDC
JerseyCityDC
NODE1 in FSCLUS NODE2 in DRCLUS
NODE3 in FSCLUS NODE4 in DRCLUS
NODE2 in FSCLUS
NODE4 in FSCLUS
NODE1 in DRCLUS
NODE4 in DRCLUS
SR over SMB3
ManhattanDC
JerseyCityDC
Sever to Server のクラスター版
(機能/制約等は基本的に同一)
クラスターによる高可用性 (HA) と、
レプリケーションによる災害対策
(DR) をそれぞれ独立した機能として提供
「スケールアウトファイルサーバー」シナリオに最適
25. 25
SRV1
SR over SMB3
NODE1 in HVCLUS
SR over SMB3
NODE3 in HVCLUS
NODE2 in HVCLUS NODE4 in HVCLUS
ManhattanDC
JerseyCityDC
高可用性 (HA) と災害対策 (DR)
を組み合わせて提供
自動的なフェールオーバーが可能
フェールオーバー クラスター
マネージャーによる GUI 管理が可能
同期モードのみサポート
「Hyper-V」や「汎用ファイルサーバー」に最適 (スケールアウトファイルサーバーには不適)
《Stretch Cluster》 単一クラスター内でのレプリケーション
《Server to Self》 サーバー内でのボリューム間レプリケーション
ボリュームの移設・転送に最適
(データコピーが実施できない環境など)
26. 26
運用Tips
◦ 「New-SRPartnership」のログサイズが小さすぎるとコマンドが実行できない(エ
ラーになる)
◦ 初回実行には結構時間がかかる
◦ Destination側のデータVolumeは表示されなくなる
◦ Destination側を表示する場合は「Remove-SRPartnership」で一旦関連を解除
構成Tips
◦ Workgrpoup認証 未サポート
◦ 別なWindows Domain同士のStorage Replicaは可能
◦ Cluster to Server , Server to Cluster の複製は未サポート。この場合はServer側をシ
ングルノードクラスタ構成にする
◦ GUIでコントロールできるのはクラスタ構成のみ
36. 1987 2000 2010 2016
4ms
HDD
0.05ms
SSD
20ns Memristor
15x faster in
20 years10-2
10-3
10-4
10-8
10-7
10-6
10-5
10-1
Persistent store access
times60ms HDD
½ million
faster in
years
Storage technology trajectory
Memory technology trajectory
不揮発性メモリの速度ってどのくらい?
37. CPU socket Memory Subsystem Storage
Subsystem
Latency to data
Data volatility
Time
従来のデザイン:
Time
Persistent memory 用のデザイン:
SoC: CPU + Memory (Storage)
Latency to data
Data volatility
Execution
units
Cache
L1
Cache
L2
Persistent
memory
Flash
Main memory
(DRAM)
IO accelerator
(Flash) Cache HDD /
SSD ArchiveCache
L1
Cache
L2
Cache
L3
Execution
units
38. Compiler
Today
Horizon 3:
Languages
Horizon 1:
PM Middleware
Horizon 2:
PM Libraries
Application
File System File System
File System
PM
SSD
Application Application
Application
PM Library
File System
PM PM
Disk Driver
40. NVM Express (NVMe)
SCSI Replacement – Block protocol over PCIe
Initially for direct attached SSDs
Very efficient queue and data flow structures
< 10 uS read latencies demonstrated
RDMA
Defined for storage (ISER) for 10 years
Gaining popularity due to flash memory
Eliminates software overhead by avoiding kernel
両方を組み合わせた「Networked NVMe」
Today- memory not persistent- in a few yrs you will get as fast as. Will change the way you think about sw and build systems.
Storage and memory converge…resulting in less of a need for HDD
Talking points
CPU
Generations of increasing HW complexity
Multiple caching layers to minimize latency
Multi-core outpacing memory & IO
Context switching
Memory Subsystem
Power inefficient
Dominates platform material cost for large footprints
Struggle to meet capacity and BW demands
Challenge to maintain future reliability
Storage Subsystem
Complexity trending that of CPU
Interfaces & switch layers for data transport
Hierarchy of Flash, SSD, HDD, and Tape
Wear leveling
Design for HA: multi-path, failover, …
Average latency to data bottlenecks
RDMA
Introduction
Accelerated IO delivery model which works by allowing application software to bypass most layers of software and communicate directly with the hardware
Requires new programming model: “verbs” rather than “sockets”
Until now, RDMA has been limited to specific verticals like HPC (applications modified)
Stacks now available for Storage Networking – applications don’t need to be modified
RDMA Benefits
Low latency, also important is lower latency jitter
High Throughput
Zero copy capability
OS / Stack bypass
Avoid CPU context switching, interrupt coalescing
RDMA Hardware Technologies & Protocols
iWARP: RDMA over TCP/IP (runs over layer 3)
RoCE: RDMA over Converged Ethernet (runs over layer 2)
Infiniband
iSER: iSCSI Extensions for RDMA