SlideShare une entreprise Scribd logo
1  sur  22
Télécharger pour lire hors ligne
インテル株式会社プログラマブル・ソリューション営業本部
シニア・テクノロジー・スペシャリスト アクセラレーション&HLD
竹村 幸尚
Programmable Solutions Group 3
インテル® FPGA ポートフォリオ
性能
低コスト ミッドレンジ ハイエンド
機能
▪ 2 ~ 50KLE
▪ 不揮発性メモリー
▪ デュアル・コンフィグ
レーション
▪ アナログハード IP
▪ DDR3 メモリー
▪ Nios II ソフト CPU
• 25 ~ 300KLE
• 3/6Gbps SERDES
• 12Mb エンベデッド・
メモリー
• DDR3/L メモリー
• PCIe Gen2 x4
• ARM HPS または
Nios® II ソフト CPU
• 560 個のユーザー I/O
• 160 ~ 1,150KLE
• 25Gbps SERDES
• 53Mb エンベデッド・メ
モリー
• DDR4 メモリー・
コントローラー
• PCIe Gen3 x8 (4)
• ハード FP DSP
• ARM HPS または
Nios II ソフト CPU
• 768 個のユーザー I/O
• 378 ~ 5,510KLE
• GHz コア・ファブリック
• 28/56Gbps SERDES
• 137Mb エンベデッド・
メモリ
• DDR4 メモリー
• PCIe Gen3 x16 (6)
• HBM DRAM
• ハード FP DSP
• ARM HPS または
Nios II ソフト CPU
• 1,640 個のユーザー
I/O
• 85 ~ 220KLE
• 12.5Gbps SERDES
• 11Mb エンベデッド・
メモリー
• DDR3/L メモリー・
コントローラー
• PCIe Gen2 x4
• ハード FP DSP
• Nios II ソフト CPU
• 284 個のユーザー I/O▪ 6 ~ 120KLE
▪ 528 個のユーザー I/O
▪ Nios II® ソフト CPU
Programmable Solutions Group 4
FPGA概要
•Sea of programmable logic and routing
•DSPs (floating-point units)
•M20K SRAMs (2.5KB/SRAM)
•Range of devices:
- Intel® Stratix® 10 FPGA: 14 nm, high performance
- Intel Arria® 10 FPGA: 20 nm, mid range
- Intel Cyclone® 10 FPGA: 20 nm, low power
FPGAs are well positioned for deep learning…
X
+
Programmable Solutions Group 5
インテル® FPGA が AI 分野で「勝る」理由 (採用事例)
「マイクロソフト、自社の ‘Brainwave*’ AI-on-FPGA サービスを外部の試験機関に開放。」- ZDNet (2018年5
月)
https://www.zdnet.com/article/microsoft-opens-its-brainwave-ai-on-fpga-service-to-external-testers/
「弊社では新設計の AI NVR 製品上で、インテル® Core™ i5 プロセッサーをインテル® Arria®10 FPGA ととも
に使用中。インテル® FPGA により自社システムを加速化することで、リアルタイムなビジョンベースのソリュー
ションに対するディープラーニング能力が強化され、1 ドルあたりのワットごとのパフォーマンスが向上。」
– インテル ニュースルーム (2018年5月) https://newsroom.intel.com/wp-content/uploads/sites/11/2018/05/intelvisionproducts-quotesheet.pdf
「OpenVINO™ ツールキット統合の Greengrass デバイスを使用することで、顧客はディープラーニング作業を
行うためにエッジで展開可能なクラウド式 ML モデルを構築でき、またこれらは特定の性能ニーズに合わせて
カスタマイズ可能。」– インテル ニュースルーム (2018年5月)
https://newsroom.intel.com/wp-content/uploads/sites/11/2018/05/intelvisionproducts-quotesheet.pdf
「NeoFace Accelerator* の制作に際し・・エンジンのソフトウェア IP をインテル® Arria® 10 FPGA に統合し・・・
インテル® Xeon® プロセッサー・ベースのサーバー上で運用。」– インテル ニュースルーム (2017年6月)
https://newsroom.intel.com/news/intel-fpga-technology-supports-nec-face-recognition-technology/
Alibaba
Cloud
「この中国のクラウド・サプライヤーは、FPGA ベースの超低レイテンシーかつハイパフォーマンスのディープ
ラーニング・プロセッサー (DLP) を開発。同社によれば、自社の DLP はスパース・コンボリューションと低精度
なデータ・コンピューティングを同時にサポートできるという・・・」 - ComputerWeekly (2018年8月)
https://www.computerweekly.com/blog/Eyes-on-APAC/An-inside-look-at-Alibabas-deep-learning-processor
NEC
Internet of Things Group 7
エッジ
コンピューター
インテルは性能、消費電力、価格の目標に応じ
柔軟にAIシステム構成できるソリューションを提供
機器 アプリケーション、
メディア処理、AI推論
AI推論
アクセラレーター
共通のコード| 汎用的なアルゴリズム
CPU, GPU, AIアクセラレーターで共有可能
Internet of Things Group
既存インフラやプラットフォームに新しい拡張の波
20以上のOpenVINO™
Toolkitに基づく製品
5000名以上の
開発者
FPGA 及び VPUサポー
トを実装, ONNX 及び コ
ンテナのサポート
オープンソース化:
2018年10月16日
8
Programmable Solutions Group 9
OpenVINO™ ツールキット
Visual Inferencing (視覚的推論) と Neural Network Optimization (ニューラル・ネットワークの最適化)
従来の CV ツール & ライブラリー
最適化コンピューター・ビジョン・ライブラリー
GPUCPU FPGA VPU
訓練済
みモデ
ル
FPGA 向け Linux* のみ
プロセッサーのグラフィック性能の向上 - Linux* のみ
GPU = インテグレーテッド・グラフィックス・プロセシング・ユニット搭載のインテル® CPU/
インテル® プロセッサー・グラフィックス
VPU = インテル® Movidius™ Vision Processing Unit (ビジョン・プロセシング・ユニット)
OpenVX および OpenVX ロゴは the Khronos Group Inc. の商標です。
OpenCL および OpenCL ロゴは Apple Inc. の商標であり、Khronos の許可を得て使用していま
す。
インテル® ディープラーニング・
デプロイメント・ツールキット
モデル・オプティマイザー
変換 & 最適化
IR
推論エンジン
(DLA で FPGA 用に最適化)
OpenCV OpenVX*
OpenCL*
インテル® インテグレーテッド・
グラフィックス・ドライバー & ランタイム
インテル® メディア SDK
(オープンソース版)
ビットストリームFPGA ランタイム環境 (RTE)
(インテル® FPGA SDK for OpenCL™ から)
IR =
Intermediate
Representation
(中間表現)
フォーマット
Photography Vision
コードサンプル & 10 個の事前訓練済みモデル コードサンプル
以下により H/W に実装:
Programmable Solutions Group
ディープラーニング・デプロイメント・ツールキット
Caffe
TensorFlow
MxNet
ONNX
全てのターゲットに
フィットするように
変換・最適化
InferenceEngine
共通API(C++,Python)
ロード、推論
CPU Plugin
GPU Plugin
FPGA Plugin
Model
Optimizer
.bin
IR
.XML
変換 汎用的最適化 ターゲット別最適化 コンパイル 実行
◼ 全ての関連インテル® 製品に対し、トレーニング済みモデルをデプロイ可能
◼ CPU, GPU, FPGA, Myriad
◼ 最大性能を得るためにモデル最適化
◼ 動作検証と最適化を可能に
◼ 使い勝手の良いランタイムAPI
Myriad Plugin
Internet of Things Group
**ボードベンダーの詳細についてはインテルの担当者にお問い合わせ下さい。
Intel、インテル、Intel ロゴは、アメリカ合衆国および/またはその他の国における Intel Corporation またはその子会社の商標です。
※ その他の社名、製品名などは、一般に各社の表示、商標または登録商標です。
11
M.2, Key E miniPCIe PCIe x4インターフェース
インテル® Movidius
MA2485 VPU
X 1
インテル® Movidius
MA2485 VPUs
x2
インテル® Movidius
MA2485 VPUs
x8
製品化予定
ボードベンダー*
インテル® Arria® 10 FPGA
1150GX/660GX
PCIe x8
OpenVINO™ ツールキット
エッジで実行するNN推論モデルの構築; インテル® CPU, GPU, VPU, FPGAで共通の開発環境
ソフトウェア
開発ツール
インテル® ビジョン・アクセラレーター・デザイン・プロダクト
(インテル® Movidius™ VPU搭載版)
インテル® ビジョン・アクセラ
レーター・デザイン・プロダクト
(インテル® Arria® 10 FPGA
搭載版)
インテル® ビジョン・
アクセラレーター・
デザインに基づく
アドインカード(例)
Programmable Solutions Group 12
iEi® Mustang-F100-A10 + TANK AIoT Dev Kit
Programmable Solutions Group 13
Programmable Solutions Group 14
AAEON® UP Platform
16© 2019 Intel Corporation. 無断での引用、転載を禁じます。
Award-Winning*EdgeAISolutionbyLeapMind
1-bit Quantization and Compression Technology and Tool
Chain for Embedded Deep Learning
• Real-time Response, Low Latency
• Lower Power, Small Footprint
• No Internet Connection Required
Application Example:
• Food Inspection
• PCB Soldering Inspection
• Human Detection
• Powerline Inspection by Autonomous Drone
*Leapmind’s DeLTA family received ET Technology Award 2018 in Tokyo
Programmable Solutions Group 17
Terasic DE10-Nano Kit
• Intel® Cyclone® V SoC
• 110K Les
• 1GB DDR3 SDRAM
• HDMI I/F
• Arduino expansion header
• Uno R3 compatibility
• $130
• OpenVINO is not supported
Programmable Solutions Group 18
aws fpgaiot
Programmable Solutions Group 19
Terasic DE10-Nano + Intel® Neural Compute Stick 2
Programmable Solutions Group 20
Programmable Solutions Group 21
FPGAを用いたEdge AIの現状

Contenu connexe

Tendances

2015年度GPGPU実践プログラミング 第5回 GPUのメモリ階層
2015年度GPGPU実践プログラミング 第5回 GPUのメモリ階層2015年度GPGPU実践プログラミング 第5回 GPUのメモリ階層
2015年度GPGPU実践プログラミング 第5回 GPUのメモリ階層
智啓 出川
 
GPGPU Seminar (GPU Accelerated Libraries, 3 of 3, Thrust)
GPGPU Seminar (GPU Accelerated Libraries, 3 of 3, Thrust) GPGPU Seminar (GPU Accelerated Libraries, 3 of 3, Thrust)
GPGPU Seminar (GPU Accelerated Libraries, 3 of 3, Thrust)
智啓 出川
 
2015年度GPGPU実践プログラミング 第10回 行列計算(行列-行列積の高度な最適化)
2015年度GPGPU実践プログラミング 第10回 行列計算(行列-行列積の高度な最適化)2015年度GPGPU実践プログラミング 第10回 行列計算(行列-行列積の高度な最適化)
2015年度GPGPU実践プログラミング 第10回 行列計算(行列-行列積の高度な最適化)
智啓 出川
 
[B11] 基礎から知るSSD(いまさら聞けないSSDの基本) by Hironobu Asano
[B11] 基礎から知るSSD(いまさら聞けないSSDの基本) by Hironobu Asano[B11] 基礎から知るSSD(いまさら聞けないSSDの基本) by Hironobu Asano
[B11] 基礎から知るSSD(いまさら聞けないSSDの基本) by Hironobu Asano
Insight Technology, Inc.
 
組み込み関数(intrinsic)によるSIMD入門
組み込み関数(intrinsic)によるSIMD入門組み込み関数(intrinsic)によるSIMD入門
組み込み関数(intrinsic)によるSIMD入門
Norishige Fukushima
 

Tendances (20)

【たぶん日本初導入!】Azure Stack Hub with GPUの性能と機能紹介
【たぶん日本初導入!】Azure Stack Hub with GPUの性能と機能紹介【たぶん日本初導入!】Azure Stack Hub with GPUの性能と機能紹介
【たぶん日本初導入!】Azure Stack Hub with GPUの性能と機能紹介
 
CUDAプログラミング入門
CUDAプログラミング入門CUDAプログラミング入門
CUDAプログラミング入門
 
いまさら聞けない!CUDA高速化入門
いまさら聞けない!CUDA高速化入門いまさら聞けない!CUDA高速化入門
いまさら聞けない!CUDA高速化入門
 
KiCadで雑に基板を作る チュートリアル
KiCadで雑に基板を作る チュートリアルKiCadで雑に基板を作る チュートリアル
KiCadで雑に基板を作る チュートリアル
 
5G時代のアプリケーション開発とは - 5G+MECを活用した低遅延アプリの実現へ
5G時代のアプリケーション開発とは - 5G+MECを活用した低遅延アプリの実現へ5G時代のアプリケーション開発とは - 5G+MECを活用した低遅延アプリの実現へ
5G時代のアプリケーション開発とは - 5G+MECを活用した低遅延アプリの実現へ
 
Gpu vs fpga
Gpu vs fpgaGpu vs fpga
Gpu vs fpga
 
GPUが100倍速いという神話をぶち殺せたらいいな ver.2013
GPUが100倍速いという神話をぶち殺せたらいいな ver.2013GPUが100倍速いという神話をぶち殺せたらいいな ver.2013
GPUが100倍速いという神話をぶち殺せたらいいな ver.2013
 
2015年度GPGPU実践プログラミング 第5回 GPUのメモリ階層
2015年度GPGPU実践プログラミング 第5回 GPUのメモリ階層2015年度GPGPU実践プログラミング 第5回 GPUのメモリ階層
2015年度GPGPU実践プログラミング 第5回 GPUのメモリ階層
 
Fugaku, the Successes and the Lessons Learned
Fugaku, the Successes and the Lessons LearnedFugaku, the Successes and the Lessons Learned
Fugaku, the Successes and the Lessons Learned
 
GPU-FPGA協調プログラミングを実現するコンパイラの開発
GPU-FPGA協調プログラミングを実現するコンパイラの開発GPU-FPGA協調プログラミングを実現するコンパイラの開発
GPU-FPGA協調プログラミングを実現するコンパイラの開発
 
プログラムを高速化する話Ⅱ 〜GPGPU編〜
プログラムを高速化する話Ⅱ 〜GPGPU編〜プログラムを高速化する話Ⅱ 〜GPGPU編〜
プログラムを高速化する話Ⅱ 〜GPGPU編〜
 
GPU と PYTHON と、それから最近の NVIDIA
GPU と PYTHON と、それから最近の NVIDIAGPU と PYTHON と、それから最近の NVIDIA
GPU と PYTHON と、それから最近の NVIDIA
 
GPGPU Seminar (GPU Accelerated Libraries, 3 of 3, Thrust)
GPGPU Seminar (GPU Accelerated Libraries, 3 of 3, Thrust) GPGPU Seminar (GPU Accelerated Libraries, 3 of 3, Thrust)
GPGPU Seminar (GPU Accelerated Libraries, 3 of 3, Thrust)
 
CXL_説明_公開用.pdf
CXL_説明_公開用.pdfCXL_説明_公開用.pdf
CXL_説明_公開用.pdf
 
2015年度GPGPU実践プログラミング 第10回 行列計算(行列-行列積の高度な最適化)
2015年度GPGPU実践プログラミング 第10回 行列計算(行列-行列積の高度な最適化)2015年度GPGPU実践プログラミング 第10回 行列計算(行列-行列積の高度な最適化)
2015年度GPGPU実践プログラミング 第10回 行列計算(行列-行列積の高度な最適化)
 
[B11] 基礎から知るSSD(いまさら聞けないSSDの基本) by Hironobu Asano
[B11] 基礎から知るSSD(いまさら聞けないSSDの基本) by Hironobu Asano[B11] 基礎から知るSSD(いまさら聞けないSSDの基本) by Hironobu Asano
[B11] 基礎から知るSSD(いまさら聞けないSSDの基本) by Hironobu Asano
 
組み込み関数(intrinsic)によるSIMD入門
組み込み関数(intrinsic)によるSIMD入門組み込み関数(intrinsic)によるSIMD入門
組み込み関数(intrinsic)によるSIMD入門
 
2値化CNN on FPGAでGPUとガチンコバトル(公開版)
2値化CNN on FPGAでGPUとガチンコバトル(公開版)2値化CNN on FPGAでGPUとガチンコバトル(公開版)
2値化CNN on FPGAでGPUとガチンコバトル(公開版)
 
Polyphony の行く末(2018/3/3)
Polyphony の行く末(2018/3/3)Polyphony の行く末(2018/3/3)
Polyphony の行く末(2018/3/3)
 
Magnum IO GPUDirect Storage 最新情報
Magnum IO GPUDirect Storage 最新情報Magnum IO GPUDirect Storage 最新情報
Magnum IO GPUDirect Storage 最新情報
 

Similaire à FPGAを用いたEdge AIの現状

CMSI計算科学技術特論B(15) インテル Xeon Phi コプロセッサー向け最適化、並列化概要 1
CMSI計算科学技術特論B(15) インテル Xeon Phi コプロセッサー向け最適化、並列化概要 1CMSI計算科学技術特論B(15) インテル Xeon Phi コプロセッサー向け最適化、並列化概要 1
CMSI計算科学技術特論B(15) インテル Xeon Phi コプロセッサー向け最適化、並列化概要 1
Computational Materials Science Initiative
 

Similaire à FPGAを用いたEdge AIの現状 (20)

CMSI計算科学技術特論B(15) インテル Xeon Phi コプロセッサー向け最適化、並列化概要 1
CMSI計算科学技術特論B(15) インテル Xeon Phi コプロセッサー向け最適化、並列化概要 1CMSI計算科学技術特論B(15) インテル Xeon Phi コプロセッサー向け最適化、並列化概要 1
CMSI計算科学技術特論B(15) インテル Xeon Phi コプロセッサー向け最適化、並列化概要 1
 
20170421 tensor flowusergroup
20170421 tensor flowusergroup20170421 tensor flowusergroup
20170421 tensor flowusergroup
 
PCCC22:インテル株式会社 テーマ3「インテル® oneAPI ツールキット 最新情報のご紹介」
PCCC22:インテル株式会社 テーマ3「インテル® oneAPI ツールキット 最新情報のご紹介」PCCC22:インテル株式会社 テーマ3「インテル® oneAPI ツールキット 最新情報のご紹介」
PCCC22:インテル株式会社 テーマ3「インテル® oneAPI ツールキット 最新情報のご紹介」
 
NVIDIA deep learning最新情報in沖縄
NVIDIA deep learning最新情報in沖縄NVIDIA deep learning最新情報in沖縄
NVIDIA deep learning最新情報in沖縄
 
CPU / GPU高速化セミナー!性能モデルの理論と実践:実践編
CPU / GPU高速化セミナー!性能モデルの理論と実践:実践編CPU / GPU高速化セミナー!性能モデルの理論と実践:実践編
CPU / GPU高速化セミナー!性能モデルの理論と実践:実践編
 
マイクロソフトが考えるAI活用のロードマップ
マイクロソフトが考えるAI活用のロードマップマイクロソフトが考えるAI活用のロードマップ
マイクロソフトが考えるAI活用のロードマップ
 
インフラ野郎AzureチームProX
インフラ野郎AzureチームProXインフラ野郎AzureチームProX
インフラ野郎AzureチームProX
 
Cmc cmd slim
Cmc cmd slimCmc cmd slim
Cmc cmd slim
 
Fpga online seminar by fixstars (1st)
Fpga online seminar by fixstars (1st)Fpga online seminar by fixstars (1st)
Fpga online seminar by fixstars (1st)
 
Watsonをささえる ハイパフォーマンスクラウドで はじめるDeep Learning
Watsonをささえる ハイパフォーマンスクラウドで はじめるDeep LearningWatsonをささえる ハイパフォーマンスクラウドで はじめるDeep Learning
Watsonをささえる ハイパフォーマンスクラウドで はじめるDeep Learning
 
「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」
「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」
「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」
 
[db tech showcase Tokyo 2016] D13: NVMeフラッシュストレージを用いた高性能高拡張高可用なデータベースシステムの実現方...
[db tech showcase Tokyo 2016] D13: NVMeフラッシュストレージを用いた高性能高拡張高可用なデータベースシステムの実現方...[db tech showcase Tokyo 2016] D13: NVMeフラッシュストレージを用いた高性能高拡張高可用なデータベースシステムの実現方...
[db tech showcase Tokyo 2016] D13: NVMeフラッシュストレージを用いた高性能高拡張高可用なデータベースシステムの実現方...
 
Deep Learning Lab - Microsoft Machine Learning meetup 2018/06/27 - 推論編
Deep Learning Lab - Microsoft Machine Learning meetup 2018/06/27 - 推論編Deep Learning Lab - Microsoft Machine Learning meetup 2018/06/27 - 推論編
Deep Learning Lab - Microsoft Machine Learning meetup 2018/06/27 - 推論編
 
第11回ACRiウェビナー_インテル/竹村様ご講演資料
第11回ACRiウェビナー_インテル/竹村様ご講演資料第11回ACRiウェビナー_インテル/竹村様ご講演資料
第11回ACRiウェビナー_インテル/竹村様ご講演資料
 
Azure vm usacase and value.1.0.20.0618
Azure vm usacase and value.1.0.20.0618 Azure vm usacase and value.1.0.20.0618
Azure vm usacase and value.1.0.20.0618
 
ITpro EXPO 2014: Cisco UCSによる最新VDIソリューションのご紹介
ITpro EXPO 2014: Cisco UCSによる最新VDIソリューションのご紹介ITpro EXPO 2014: Cisco UCSによる最新VDIソリューションのご紹介
ITpro EXPO 2014: Cisco UCSによる最新VDIソリューションのご紹介
 
FPGA+SoC+Linux実践勉強会資料
FPGA+SoC+Linux実践勉強会資料FPGA+SoC+Linux実践勉強会資料
FPGA+SoC+Linux実践勉強会資料
 
第162回情報処理学会ハイパフォーマンスコンピューティング研究発表会
第162回情報処理学会ハイパフォーマンスコンピューティング研究発表会第162回情報処理学会ハイパフォーマンスコンピューティング研究発表会
第162回情報処理学会ハイパフォーマンスコンピューティング研究発表会
 
NVIDIA ディープラーニング入門
NVIDIA ディープラーニング入門NVIDIA ディープラーニング入門
NVIDIA ディープラーニング入門
 
ICD/CPSY 201412
ICD/CPSY 201412ICD/CPSY 201412
ICD/CPSY 201412
 

FPGAを用いたEdge AIの現状

  • 2.
  • 3. Programmable Solutions Group 3 インテル® FPGA ポートフォリオ 性能 低コスト ミッドレンジ ハイエンド 機能 ▪ 2 ~ 50KLE ▪ 不揮発性メモリー ▪ デュアル・コンフィグ レーション ▪ アナログハード IP ▪ DDR3 メモリー ▪ Nios II ソフト CPU • 25 ~ 300KLE • 3/6Gbps SERDES • 12Mb エンベデッド・ メモリー • DDR3/L メモリー • PCIe Gen2 x4 • ARM HPS または Nios® II ソフト CPU • 560 個のユーザー I/O • 160 ~ 1,150KLE • 25Gbps SERDES • 53Mb エンベデッド・メ モリー • DDR4 メモリー・ コントローラー • PCIe Gen3 x8 (4) • ハード FP DSP • ARM HPS または Nios II ソフト CPU • 768 個のユーザー I/O • 378 ~ 5,510KLE • GHz コア・ファブリック • 28/56Gbps SERDES • 137Mb エンベデッド・ メモリ • DDR4 メモリー • PCIe Gen3 x16 (6) • HBM DRAM • ハード FP DSP • ARM HPS または Nios II ソフト CPU • 1,640 個のユーザー I/O • 85 ~ 220KLE • 12.5Gbps SERDES • 11Mb エンベデッド・ メモリー • DDR3/L メモリー・ コントローラー • PCIe Gen2 x4 • ハード FP DSP • Nios II ソフト CPU • 284 個のユーザー I/O▪ 6 ~ 120KLE ▪ 528 個のユーザー I/O ▪ Nios II® ソフト CPU
  • 4. Programmable Solutions Group 4 FPGA概要 •Sea of programmable logic and routing •DSPs (floating-point units) •M20K SRAMs (2.5KB/SRAM) •Range of devices: - Intel® Stratix® 10 FPGA: 14 nm, high performance - Intel Arria® 10 FPGA: 20 nm, mid range - Intel Cyclone® 10 FPGA: 20 nm, low power FPGAs are well positioned for deep learning… X +
  • 5. Programmable Solutions Group 5 インテル® FPGA が AI 分野で「勝る」理由 (採用事例) 「マイクロソフト、自社の ‘Brainwave*’ AI-on-FPGA サービスを外部の試験機関に開放。」- ZDNet (2018年5 月) https://www.zdnet.com/article/microsoft-opens-its-brainwave-ai-on-fpga-service-to-external-testers/ 「弊社では新設計の AI NVR 製品上で、インテル® Core™ i5 プロセッサーをインテル® Arria®10 FPGA ととも に使用中。インテル® FPGA により自社システムを加速化することで、リアルタイムなビジョンベースのソリュー ションに対するディープラーニング能力が強化され、1 ドルあたりのワットごとのパフォーマンスが向上。」 – インテル ニュースルーム (2018年5月) https://newsroom.intel.com/wp-content/uploads/sites/11/2018/05/intelvisionproducts-quotesheet.pdf 「OpenVINO™ ツールキット統合の Greengrass デバイスを使用することで、顧客はディープラーニング作業を 行うためにエッジで展開可能なクラウド式 ML モデルを構築でき、またこれらは特定の性能ニーズに合わせて カスタマイズ可能。」– インテル ニュースルーム (2018年5月) https://newsroom.intel.com/wp-content/uploads/sites/11/2018/05/intelvisionproducts-quotesheet.pdf 「NeoFace Accelerator* の制作に際し・・エンジンのソフトウェア IP をインテル® Arria® 10 FPGA に統合し・・・ インテル® Xeon® プロセッサー・ベースのサーバー上で運用。」– インテル ニュースルーム (2017年6月) https://newsroom.intel.com/news/intel-fpga-technology-supports-nec-face-recognition-technology/ Alibaba Cloud 「この中国のクラウド・サプライヤーは、FPGA ベースの超低レイテンシーかつハイパフォーマンスのディープ ラーニング・プロセッサー (DLP) を開発。同社によれば、自社の DLP はスパース・コンボリューションと低精度 なデータ・コンピューティングを同時にサポートできるという・・・」 - ComputerWeekly (2018年8月) https://www.computerweekly.com/blog/Eyes-on-APAC/An-inside-look-at-Alibabas-deep-learning-processor NEC
  • 6.
  • 7. Internet of Things Group 7 エッジ コンピューター インテルは性能、消費電力、価格の目標に応じ 柔軟にAIシステム構成できるソリューションを提供 機器 アプリケーション、 メディア処理、AI推論 AI推論 アクセラレーター 共通のコード| 汎用的なアルゴリズム CPU, GPU, AIアクセラレーターで共有可能
  • 8. Internet of Things Group 既存インフラやプラットフォームに新しい拡張の波 20以上のOpenVINO™ Toolkitに基づく製品 5000名以上の 開発者 FPGA 及び VPUサポー トを実装, ONNX 及び コ ンテナのサポート オープンソース化: 2018年10月16日 8
  • 9. Programmable Solutions Group 9 OpenVINO™ ツールキット Visual Inferencing (視覚的推論) と Neural Network Optimization (ニューラル・ネットワークの最適化) 従来の CV ツール & ライブラリー 最適化コンピューター・ビジョン・ライブラリー GPUCPU FPGA VPU 訓練済 みモデ ル FPGA 向け Linux* のみ プロセッサーのグラフィック性能の向上 - Linux* のみ GPU = インテグレーテッド・グラフィックス・プロセシング・ユニット搭載のインテル® CPU/ インテル® プロセッサー・グラフィックス VPU = インテル® Movidius™ Vision Processing Unit (ビジョン・プロセシング・ユニット) OpenVX および OpenVX ロゴは the Khronos Group Inc. の商標です。 OpenCL および OpenCL ロゴは Apple Inc. の商標であり、Khronos の許可を得て使用していま す。 インテル® ディープラーニング・ デプロイメント・ツールキット モデル・オプティマイザー 変換 & 最適化 IR 推論エンジン (DLA で FPGA 用に最適化) OpenCV OpenVX* OpenCL* インテル® インテグレーテッド・ グラフィックス・ドライバー & ランタイム インテル® メディア SDK (オープンソース版) ビットストリームFPGA ランタイム環境 (RTE) (インテル® FPGA SDK for OpenCL™ から) IR = Intermediate Representation (中間表現) フォーマット Photography Vision コードサンプル & 10 個の事前訓練済みモデル コードサンプル 以下により H/W に実装:
  • 10. Programmable Solutions Group ディープラーニング・デプロイメント・ツールキット Caffe TensorFlow MxNet ONNX 全てのターゲットに フィットするように 変換・最適化 InferenceEngine 共通API(C++,Python) ロード、推論 CPU Plugin GPU Plugin FPGA Plugin Model Optimizer .bin IR .XML 変換 汎用的最適化 ターゲット別最適化 コンパイル 実行 ◼ 全ての関連インテル® 製品に対し、トレーニング済みモデルをデプロイ可能 ◼ CPU, GPU, FPGA, Myriad ◼ 最大性能を得るためにモデル最適化 ◼ 動作検証と最適化を可能に ◼ 使い勝手の良いランタイムAPI Myriad Plugin
  • 11. Internet of Things Group **ボードベンダーの詳細についてはインテルの担当者にお問い合わせ下さい。 Intel、インテル、Intel ロゴは、アメリカ合衆国および/またはその他の国における Intel Corporation またはその子会社の商標です。 ※ その他の社名、製品名などは、一般に各社の表示、商標または登録商標です。 11 M.2, Key E miniPCIe PCIe x4インターフェース インテル® Movidius MA2485 VPU X 1 インテル® Movidius MA2485 VPUs x2 インテル® Movidius MA2485 VPUs x8 製品化予定 ボードベンダー* インテル® Arria® 10 FPGA 1150GX/660GX PCIe x8 OpenVINO™ ツールキット エッジで実行するNN推論モデルの構築; インテル® CPU, GPU, VPU, FPGAで共通の開発環境 ソフトウェア 開発ツール インテル® ビジョン・アクセラレーター・デザイン・プロダクト (インテル® Movidius™ VPU搭載版) インテル® ビジョン・アクセラ レーター・デザイン・プロダクト (インテル® Arria® 10 FPGA 搭載版) インテル® ビジョン・ アクセラレーター・ デザインに基づく アドインカード(例)
  • 12. Programmable Solutions Group 12 iEi® Mustang-F100-A10 + TANK AIoT Dev Kit
  • 14. Programmable Solutions Group 14 AAEON® UP Platform
  • 15.
  • 16. 16© 2019 Intel Corporation. 無断での引用、転載を禁じます。 Award-Winning*EdgeAISolutionbyLeapMind 1-bit Quantization and Compression Technology and Tool Chain for Embedded Deep Learning • Real-time Response, Low Latency • Lower Power, Small Footprint • No Internet Connection Required Application Example: • Food Inspection • PCB Soldering Inspection • Human Detection • Powerline Inspection by Autonomous Drone *Leapmind’s DeLTA family received ET Technology Award 2018 in Tokyo
  • 17. Programmable Solutions Group 17 Terasic DE10-Nano Kit • Intel® Cyclone® V SoC • 110K Les • 1GB DDR3 SDRAM • HDMI I/F • Arduino expansion header • Uno R3 compatibility • $130 • OpenVINO is not supported
  • 19. Programmable Solutions Group 19 Terasic DE10-Nano + Intel® Neural Compute Stick 2