Contenu connexe Similaire à 20171109 Amazon EC2 GPUインスタンス最新動向 P3 instance (20) Plus de Amazon Web Services Japan (20) 20171109 Amazon EC2 GPUインスタンス最新動向 P3 instance7. Amazon EC2(Elastic Compute Cloud)
• 数分で起動し、1時間ごとの従量課⾦で利⽤可能な仮想マシン
• ノード追加・削除、マシンスペック変更も数分で可能
• 管理者権限(root / Administrator) で利⽤可能
1
任意のゾーンに
分散配置可能
リージョン
EC2
アベイラビリティゾーンBアベイラビリティゾーンA
11. © 2017, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
Compute GPU インスタンスの主な⽤途
機械学習/AI High Performance Computing
⾃然⾔語処理 画像・動画認識
⾃動運転 リコメンデーション
流体計算 ⾦融・データ分析
気象予測 分⼦動⼒学
13. © 2017, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
P3 は最新世代のNVIDIA GPUを搭載
P3
NVIDIA
Roadmap
(GTC 2017)
14. © 2017, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
Accelerated Computing インスタンス
P3: NVIDIA Volta GPU Compute Instance
• 1台のインスタンスに最⼤8個のNVIDIA Tesla V100 GPUを搭載
• deep learning, HPCシミュレーション, ⾦融計算, レンダリングなど
G3: NVIDIA Maxwell GPU Graphics (and Compute) Instance
• 1台のインスタンスに最⼤4個の NVIDIA M60 GPUとGRID Virtual Workstation機能を搭載
• 3Dレンダリング,リモートグラフィックワークステーション,ビデオエンコーディング, VR, 単精度
HPC
P2: NVIDIA Kepler GPU Compute Instance
• 1台のインスタンスに最⼤16個の NVIDIA GK210 (8 X K80) GPUを搭載
• deep learning, HPCシミュレーション, ⾦融計算, レンダリングなど
G3
P2
P3
15. © 2017, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
• NVIDIA GPU アーキテクチャ:
• Kepler > Maxwell > Pascal > Volta
• P2 インスタンス: K80 (Kepler アーキテクチャ)
• P3 インスタンス: V100 (Volta アーキテクチャ)
0
20
40
60
80
100
120
140
K80 P100 V100
Mixed/FP16 Perf (TFLOPS)
GPU 性能⽐較
0
2
4
6
8
10
12
14
16
K80 P100 V100
FP32 Perf (TFLOPS)
0
1
2
3
4
5
6
7
8
K80 P100 V100
FP64 Perf (TFLOPS)
0
1000
2000
3000
4000
5000
6000
K80 P100 V100
Resnet-50 8 GPU (Images/sec)
14X
over K80ʼs
max perf.
1.7X 2.6X
7.2X
FP32
16. © 2017, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
P3 インスタンスの仕様
Instance Size GPU数
Accelerator
(V100)
GPU
Peer to Peer
GPU メモリ
(GB)
vCPU
メモリ
(GB)
ネットワーク
帯域
EBS
帯域
P3.2xlarge 1 1 No 16 8 61 最⼤10Gbps 1.7Gbps
P3.8xlarge 4 4 NVLink 64 32 244 10Gbps 7Gbps
P3.16xlarge 8 8 NVLink 128 64 488 25Gbps 14Gbps
• P2 はK80、P3はV100
• P2.16xlarge は8枚の K80 (16 GPU)
17. © 2017, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
P3 インスタンスの仕様
Instance Size GPU数
Accelerator
(V100)
GPU
Peer to Peer
GPU メモリ
(GB)
vCPU
メモリ
(GB)
ネットワーク
帯域
EBS
帯域
P3.2xlarge 1 1 No 16 8 61 最⼤10Gbps 1.7Gbps
P3.8xlarge 4 4 NVLink 64 32 244 10Gbps 7Gbps
P3.16xlarge 8 8 NVLink 128 64 488 25Gbps 14Gbps
• P3 はGPU間のデータ転送にNVLinkを利⽤可能
• P2 はGPU間のデータ転送に PCI Expressを経由
18. © 2017, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
P3 インスタンスの仕様
Instance Size GPU数
Accelerator
(V100)
GPU
Peer to Peer
GPU メモリ
(GB)
vCPU
メモリ
(GB)
ネットワーク
帯域
EBS
帯域
P3.2xlarge 1 1 No 16 8 61 最⼤10Gbps 1.7Gbps
P3.8xlarge 4 4 NVLink 64 32 244 10Gbps 7Gbps
P3.16xlarge 8 8 NVLink 128 64 488 25Gbps 14Gbps
• P3.16xlargeは25Gbpsのネットワーク帯域
• EBSとの帯域もP2に⽐較し40% 向上
20. © 2017, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
P3.16xlarge P2.16xlarge P3 GPU 性能比
GPU数 8(V100) 16(GK210) -
GPUカード数 8 (V100) 8 (K80)
GPU – Peer to Peer NVLink – 300 GB/s PCI-Express - 32 GB/s 9.4倍
CPU to GPU スループット
(GPU単体)
8 GB/s 1 GB/s 8倍
CPU to GPU スループット
(インスタンス全体)
64 GB/s
PCIex16 Gen3 x 4
16 GB/s
PCIe Gen3 x1
4倍
Peer-to-Peer ⽐較(P3 vs P2)
25. AWS Deep Learning AMI
• EC2上で深層学習の環境を簡単に利⽤可能
• 主なフレームワークやツールをプリインストール済み
• CUDA8版AMIに加え、P3に合わせたCUDA9のAMIを提供
https://aws.amazon.com/jp/amazon-ai/amis/
https://aws.amazon.com/jp/blogs/ai/announcing-new-aws-deep-learning-ami-for-amazon-ec2-p3-instances/#more-2093
31. JAWS-UG (Japan AWS User Group)
https://jawsug-ai.connpass.com/ https://jawsug-hpc.connpass.com/
AI⽀部 HPC⽀部