SlideShare une entreprise Scribd logo
1  sur  24
Télécharger pour lire hors ligne
動的ネットワークパス構築と
連携したエッジオーバレイ帯域制御


  ⾼高野  了了成  岡崎  史裕  ⼯工藤  知宏
   産業技術総合研究所  情報技術研究研究部⾨門


  2013年3月7日 NS研究会@残波岬ロイヤルホテル
背景
•  クラウド(IT)とネットワークシステムの連携
•  OpenFlowに代表されるSoftware  Defined  
   Network(SDN)技術への注⽬目
  –  ソフトウェアから統⼀一的な管理理、⾃自動制御
•  ITサービスと連携した帯域制御
  –  データセンタネットワークにおけるテナント間隔離離
    例例:NEC  ProgrammableFlow,  Nicira  NVP,  MidoNet,
    Stratophere  SDN  Platform
  –  広域網の効率率率的な利利⽤用
    例例:Google  G-‐‑‒Scale,  Open  transport  switch



                                                        2
SDNにおける帯域制御の課題
•  ホップ・バイ・ホップ⽅方式
 –  〇  柔軟で細やかなQoS制御が可能
 –  ×  段階的な移⾏行行が困難


•  エッジオーバレイ⽅方式
 –  〇  既存のネットワーク機器を利利⽤用可能
 –  ×  QoS制御を実現するには、オーバサブスクライブ
    しないネットワークが必須
   •  データセンタネットワーク:イーサネットファブリック技術
   •  広域網:帯域保証技術(or  専⽤用線)



                                    3
動的ネットワークパス構築技術と
 連携したエッジオーバレイ帯域制御
⽬目標:ネットワークの消費電⼒力力削減とサービスの
利利便便性の両⽴立立を⽬目指したネットワークモデル構築
 1.  動的ネットワークパス構築技術
     →  OGF  Network  Service  Interface  (NSI)
 2.  トラフィックの性質に基づいたサブパス選択
     →  OpenFlow  +  RSVP
 3.  サブパスの帯域分割                        ネッ ワーク選択
                                         ト


     →  Open  vSwitch  +
                                               パス設定



     PSPacer
                          RSVP        QoS付パケッ 網
                                             ト
                          メ セージ
                           ッ




                                                                         OpenFlow	
  	
  	
  スイ チ
                                   OpenFlow	
  	
  	
  スイ チ
                                      ラベルスイ チ網
                                            ッ




                                                                                               ッ
                                                         ッ     光パス網
                         送信者                                                                        受信者


                                                              従来型パケッ 網
                                                                    ト
                                                              データプレーン


                                                                                                          4
本研究の貢献
•  エッジオーバレイSDNにおいて、動的ネット
   ワークパス構築とエッジ帯域制御の連携を提案
 –  データセンタ間を帯域の保証されたネットワークで
    接続した上で、エッジ仮想スイッチにて精密な帯域
    制御を実施
•  PSPacerをOpen  vSwitchに統合
•  10ギガビットイーサネット環境で実験
 –  HTBとPSPacerの⽐比較




                              5
発表の流流れ
•  動的ネットワークパス構築と連携した
   エッジオーバレイ帯域制御
•  PSPacerの紹介
•  Open  vSwitchに対するPSPacerの統合
•  実験
•  まとめ




                                 6
PSPacerの
Open  vSwitchへの統合

                    7
PSPacer
 •  通信帯域を効率率率的に利利⽤用するためのソフトウェア
 •  ギガビットイーサネットにおける精密なペーシングを
    ソフトウェアだけで実現
   –  利利⽤用可能帯域にあわせてバースト送信を平滑滑化することで、
      安定した⾼高い通信性能を実現



                                    Switch/Router
              Buffer
             Overflow




バースト性の⾼高いトラフィックはパケット   PSPacerはパケット間隔を調整し、平滑滑化
ロスを引き起こし、通信性能の低下を招く    され安定したトラフィックを⽣生成する



                                                    8
PSPacer:動作原理理と実装
•  パケットペーシング=パケット送信間隔制御
     –  (パケットサイズ)=(ギャップサイズ)の場合:
         送信帯域は、物理理帯域の1/2
                                          、
•    PSPacerの動作原理理                    き れば ノ秒の
                                  送 信で 0.8ナ    能
      –  ギャップをダミーパケットで埋めて、 レー   トで ークで    制 御可
                             ヤ   トワ 信間隔を
      –  パケットを隙間なく送信する  ワイ psネッ     送
                         1 0Gb パケット
•    ギャップパケット             精度度
                              で
     –  ダミーパケットとして、PAUSEフレームを利利⽤用
     –  スイッチの⼊入⼒力力ポートで破棄され、実パケットのみが、
        元の送信間隔を保ちつつ送出される
                              ギャップ

                                     パケット


                                                   9
Linux  TBFとPSPacerの違い
 Token  Bucket  Filter                         PSPacer




             平均レートはボトルネックリン
             ク帯域の半分以下だが、ピーク
             は物理理送信レートに達しており、
             バッファあふれが発⽣生




                  (Bottleneck  BW  500Mbps,  RTT  200ms,  FIFO  1MB)
                                                                       10
Open  vSwitch
•  Linux上で動作する仮想スイッチソフトウェア
 –  OpenFlow
 –  VLAN(アクセスポート、トランクポート)
 –  トンネル  (GRE、IPSec、VXLAN、LISP)
 –  NetFlow、sFlow
 –  QoS
                              VM	
  1	
        VM	
  2	
         VM	
  3	


•  データパス
                                          Open	
  vSwitch	
 –  Linux  kernel  3.3にマージ                                            user	
                                                                     kernel	

 –  ハードウェア化を考慮
   •  Pica8  Prontoスイッチに採⽤用               Physical	
  Switch	

                                                                                11
Open  vSwitchのQoS機能
•  ingress  policing
•  egress  shaping                       VM1               VM2

   –  内部的にLinuxカーネルの
                                            eth0             eth0
      tc(qdisc)機能を利利⽤用
      •  HTB、HFSC、PSPacer               VMM
                                            tap0             tap1
                                       ingress  policing
•  OpenFlow  1.0のenqueue
                                                 Open  vSwitch
   アクション※を利利⽤用して、
                                       egress  shaping
   フローをqdiscのキューに振分
                                                     eth0

  ※)  OpenFlow  1.3ではset-‐‑‒queueに相当


                                                                    12
Open  vSwitchの構成

 VM	
  1	
                  VM	
  2	
                      VM	
  3	



 VIF	
                        Open	
  vSwitch	

             ovs-­‐vswitchd	
           ovsdb-­‐server	
                                                                       user	
                                                                  kernel	
                        openvswitch	


                PIF	
                     Physical	
  Switch	


                                                                                13
PSPacerの統合
                   data                        control

     enqueue	
                                           PSPacer
                       Classifier	
                                                                       Compute	
  Server	
                                                Packet	
  
Interface	
                                   scheduler	
  
  queues	
                                                       VM	
  1	
              VM	
  2	
             VM	
  3	


  Real	
  packet	
  
                                                                                      VIF	
                               dequeue	
     Gap	
  packet	
                      Open	
  vSwitch	
                                                                         ovs-­‐vswitchd	
      ovsdb-­‐server	
       user	
                                                       PSPacer	
                      openvswitch	
                  kernel	


                                                                              PIF	
                                                                                 Physical	
  Switch	
※  HTB利利⽤用時も同じ仕組みで動作
                                                                                                                               14
設定例例
ovs-vsctl -- set port eth0 qos=@newqos 	
  -- --id=@newqos create qos type=linux-psp queues=0=@q0,1=@q1 	
  -- --id=@q0 create queue other-config:rate=1000000000 	
  -- --id=@q1 create queue other-config:rate=2000000000 	
	
ovs-ofctl add-flow br0 "in_port=2 	
                                        マッチングルールin_̲portをtap
  idle_timeout=0 actions=enqueue:1:1”	
                                        デバイスの接続ポートに設定する
ovs-ofctl add-flow br0 "in_port=3 	    ことで、VMごとに帯域制御
  idle_timeout=0 actions=enqueue:1:2" 	
	
# 送信レートの変更更

ovs-vsctl set queue [QUEUE UUID] other-config:rate=3000000000 	
	
# キューの追加

ovs-vsctl add qos [QOS UUID] queues 2=@q2 	
  -- --id=@q2 create queue other-config:rate=1000000000 	


                                                                    15
実験


     16
実験環境
•  計算サーバ2台を直結                                                         Hardware	
  Spec.

•  各VMの送信帯域を2  G
                                                      CPU               6-­‐core	
  Intel	
  Xeon	
  E5-­‐2430L/	
  
                                                                        2	
  GHz	
  dual	
  sockets
   bpsに設定し、6組のVM                                      Memory            PC3-­‐12800	
  48	
  GB

   間でTCP通信性能を測定                                       Ethernet          Intel	
  X520-­‐LR1	
  (MTU	
  16KB)
                                                                      So-ware	
  Spec.
•  帯域測定にはGtrcNET-‐‑‒                                  OS                CentOS	
  Linux	
  6.3
   10p3を使⽤用                                           Open	
  vSwitch 1.7.1



  VM   VM   VM   VM   VM   VM                                    VM    VM    VM     VM     VM    VM
  0    1    2    3    4    5                                     0      1     2      3     4      5

       Open  vSwitch                                                   Open  vSwitch

                                      GtrcNET-‐‑‒10

                      10G  Ethernet
                                                                                                                       17
GtrcNET
•   ⼤大規模FPGAを搭載したハードウェアネットワークテストベッド
      •   ワイヤレートでさまざまな機能をプログラム可能
•   GtrcNET-‐‑‒1:  GbE  (GBIC)  x  4ports  +  16MBytes  Memory/port
•   GtrcNET-‐‑‒10:  10GbE  (XENPAK)  x  3ports  +  1GBytes  Memory  /port
•   実装機能例例
     •   帯域測定(ポート単位、ストリーム単位、VLAN単位)
     •   遅延の模擬
     •   パケットキャプチャ
     •   テストパケット⽣生成
     •   送信レート制御(ペーシング、
       シェーピング、ポリシング)



                 http://projects.itri.aist.go.jp/gnet/
                                                                            18
10000




                                          実験結果(1)
                                                                                                                                                                                                                                             HTB
                                                                                                                                                                    8000




                                                                                                                                 Bandwidth (Mbps)
                                                                                                                                              Throughput  (Mbps)
                                                                                                                                                                    6000




                                                                     QoS制御なし
                                                                                                                                                                    4000


                                        10000
                                                                                                                                                                    2000


                                        8000
Bandwidth (Mbps)




                                                                                                                                                                       0
                   Throughput  (Mbps)




                                                                                                                                                                           0         10         20           30            40         50          60

                                        6000                                                                                                                                                               Time (Second)

                                                                                                                                                                               VM1        VM2        VM3           VM4          VM5         VM6


                                        4000                                                                                                                       10000


                                                                                                                                                                                                                                      PSPacer
                                        2000                                                                                                                       8000




                                                                                                                           Bandwidth (Mbps)
                                                                                                                                              Throughput  (Mbps)
                                            0                                                                                                                      6000
                                                0         10         20           30            40         50         60
                                                                                Time (Second)

                                                    VM1        VM2        VM3          VM4           VM5        VM6                                                4000




                                                    10秒毎に通信ペアを追加
                                                                                                                                                                   2000




                                                                                                                                                                       0
                                                                                                                                                                           0         10         20            30           40          50         60
                                                                                                                                                                                                           Time (Second)


                                                                                                                                                                                                                                                       19
                                                                                                                                                                               VM1        VM2        VM3           VM4          VM5         VM6
実験結果(2)
                                       PSPacer  (OpenFlow)                                                                                                                   PSPacer  (tc)
                     10000                                                                                                                      10000



                     8000                                                                                                                       8000




                                                                                                        Bandwidth (Mbps)

                                                                                                                           Throughput  (Mbps)
Throughput  (Mbps)




                     6000                                                                                                                       6000




                     4000                                                                                                                       4000




                     2000                                                                                                                       2000




                         0                                                                                                                          0
                             0         10         20           30            40         50         60                                                   0         10          20           30            40         50         60

                                                             Time (Second)                                                                                                               Time (Second)

                                 VM1        VM2        VM3          VM4           VM5        VM6                                                            VM1        VM2         VM3          VM4           VM5        VM6




                                                                                                                                                            OpenFlowルールの代わりに、
                                                                                                                                                            tc  u32  filterを使って、送信元IP
                                                                                                                                                            アドレス毎に振分
                                                                                                                                                                                                                                    20
考察
•  PSPacer(ギャップパケット)のパケット
   スケジューリング⽅方式の問題が顕在化
 –  システムがワイヤレート性能を出せることが必要
   •  注意:今回の実験環境では要件を満たしていない
 –  tcのフィルタ機能と⽐比較して、OpenFlowのフロー
    制御はCPU負荷が⾼高いと推測
 –  さらなる問題解析が必要




                                   21
まとめと今後の予定


            22
まとめ
•  エッジオーバレイSDNにおいて、動的ネット
   ワークパス構築とエッジ帯域制御の連携を提案
•  PSPacerをOpen  vSwitchに統合し、10ギガ
   ビットイーサネット環境で実験
 –  PSPacerのスケジューリング⽅方式の問題が顕在化
 –  さらなる問題解析が必要


 PSPacer  3.1  (Open  vSwitch対応パッチ含)は
 オープンソースソフトウェアとして公開
     https://www.gridmpi.org/pspacer.jsp

                                           23
今後の予定
•  ネットワークの消費電⼒力力削減とサービスの利利便便
   性の両⽴立立を⽬目指したネットワークモデルの提案
 –  本提案⽅方式と「トラフィックの性質情報に基づいた
    経路路選択」⽅方式の統合し、省省電⼒力力効果を検証




   なお、本研究の成果の⼀一部は、独⽴立立⾏行行政法⼈人新エネルギー・
   産業技術総合開発機構(NEDO)の委託業務「グリーンネット
   ワーク・システム技術研究開発プロジェクト(グリーンITプロ
   ジェクト)」の成果を活⽤用している。


                                       24

Contenu connexe

Tendances

OpenStackのQuantum(LinuxBridge Plugin)が実際どうやって仮想ネットワークを構成するのか説明する資料
OpenStackのQuantum(LinuxBridge Plugin)が実際どうやって仮想ネットワークを構成するのか説明する資料OpenStackのQuantum(LinuxBridge Plugin)が実際どうやって仮想ネットワークを構成するのか説明する資料
OpenStackのQuantum(LinuxBridge Plugin)が実際どうやって仮想ネットワークを構成するのか説明する資料Etsuji Nakai
 
Lagopus, raw socket build
Lagopus, raw socket buildLagopus, raw socket build
Lagopus, raw socket buildMasaru Oki
 
Ethernetの受信処理
Ethernetの受信処理Ethernetの受信処理
Ethernetの受信処理Takuya ASADA
 
Lagopus.confの書式(for lagopus 0.1.x)
Lagopus.confの書式(for lagopus 0.1.x)Lagopus.confの書式(for lagopus 0.1.x)
Lagopus.confの書式(for lagopus 0.1.x)Masaru Oki
 
OpenStack Kilo with 6Wind VA High-Performance Networking Using DPDK - OpenSta...
OpenStack Kilo with 6Wind VA High-Performance Networking Using DPDK - OpenSta...OpenStack Kilo with 6Wind VA High-Performance Networking Using DPDK - OpenSta...
OpenStack Kilo with 6Wind VA High-Performance Networking Using DPDK - OpenSta...VirtualTech Japan Inc.
 
HandlerSocket plugin for MySQL
HandlerSocket plugin for MySQLHandlerSocket plugin for MySQL
HandlerSocket plugin for MySQLakirahiguchi
 
initとプロセス再起動
initとプロセス再起動initとプロセス再起動
initとプロセス再起動Takashi Takizawa
 
OVS VXLAN Network Accelaration on OpenStack (VXLAN offload and DPDK) - OpenSt...
OVS VXLAN Network Accelaration on OpenStack (VXLAN offload and DPDK) - OpenSt...OVS VXLAN Network Accelaration on OpenStack (VXLAN offload and DPDK) - OpenSt...
OVS VXLAN Network Accelaration on OpenStack (VXLAN offload and DPDK) - OpenSt...VirtualTech Japan Inc.
 
pipework - Advanced Docker Networking
pipework - Advanced Docker Networkingpipework - Advanced Docker Networking
pipework - Advanced Docker Networkingsaba syake
 
コンテナのネットワークインターフェース その実装手法とその応用について
コンテナのネットワークインターフェース その実装手法とその応用についてコンテナのネットワークインターフェース その実装手法とその応用について
コンテナのネットワークインターフェース その実装手法とその応用についてTomofumi Hayashi
 
Lxc cf201207-presen
Lxc cf201207-presenLxc cf201207-presen
Lxc cf201207-presenKouhei Maeda
 
JOSUG 9th Study
JOSUG 9th StudyJOSUG 9th Study
JOSUG 9th Studyirix_jp
 
KVM Cluster with DRBD, ioDrive2 and Infiniband (130802 OSC京都)
KVM Cluster with DRBD, ioDrive2 and Infiniband (130802 OSC京都)KVM Cluster with DRBD, ioDrive2 and Infiniband (130802 OSC京都)
KVM Cluster with DRBD, ioDrive2 and Infiniband (130802 OSC京都)株式会社サードウェア
 
Havana版 RDO-QuickStart-2 (140421-Havana-RDO-QuickStart-2.pdf)
Havana版 RDO-QuickStart-2 (140421-Havana-RDO-QuickStart-2.pdf) Havana版 RDO-QuickStart-2 (140421-Havana-RDO-QuickStart-2.pdf)
Havana版 RDO-QuickStart-2 (140421-Havana-RDO-QuickStart-2.pdf) VirtualTech Japan Inc.
 
OSvの概要と実装
OSvの概要と実装OSvの概要と実装
OSvの概要と実装Takuya ASADA
 
CloudStackユーザ会 OSC.cloud
CloudStackユーザ会 OSC.cloudCloudStackユーザ会 OSC.cloud
CloudStackユーザ会 OSC.cloudsamemoon
 
Azure Storage Partition Internals
Azure Storage Partition  Internals Azure Storage Partition  Internals
Azure Storage Partition Internals Takekazu Omi
 

Tendances (20)

OpenStackのQuantum(LinuxBridge Plugin)が実際どうやって仮想ネットワークを構成するのか説明する資料
OpenStackのQuantum(LinuxBridge Plugin)が実際どうやって仮想ネットワークを構成するのか説明する資料OpenStackのQuantum(LinuxBridge Plugin)が実際どうやって仮想ネットワークを構成するのか説明する資料
OpenStackのQuantum(LinuxBridge Plugin)が実際どうやって仮想ネットワークを構成するのか説明する資料
 
Lagopus, raw socket build
Lagopus, raw socket buildLagopus, raw socket build
Lagopus, raw socket build
 
Lagopus 0.2.2
Lagopus 0.2.2Lagopus 0.2.2
Lagopus 0.2.2
 
Ethernetの受信処理
Ethernetの受信処理Ethernetの受信処理
Ethernetの受信処理
 
DPDKを拡張してみた話し
DPDKを拡張してみた話しDPDKを拡張してみた話し
DPDKを拡張してみた話し
 
Lagopus.confの書式(for lagopus 0.1.x)
Lagopus.confの書式(for lagopus 0.1.x)Lagopus.confの書式(for lagopus 0.1.x)
Lagopus.confの書式(for lagopus 0.1.x)
 
OpenStack Kilo with 6Wind VA High-Performance Networking Using DPDK - OpenSta...
OpenStack Kilo with 6Wind VA High-Performance Networking Using DPDK - OpenSta...OpenStack Kilo with 6Wind VA High-Performance Networking Using DPDK - OpenSta...
OpenStack Kilo with 6Wind VA High-Performance Networking Using DPDK - OpenSta...
 
HandlerSocket plugin for MySQL
HandlerSocket plugin for MySQLHandlerSocket plugin for MySQL
HandlerSocket plugin for MySQL
 
initとプロセス再起動
initとプロセス再起動initとプロセス再起動
initとプロセス再起動
 
OVS VXLAN Network Accelaration on OpenStack (VXLAN offload and DPDK) - OpenSt...
OVS VXLAN Network Accelaration on OpenStack (VXLAN offload and DPDK) - OpenSt...OVS VXLAN Network Accelaration on OpenStack (VXLAN offload and DPDK) - OpenSt...
OVS VXLAN Network Accelaration on OpenStack (VXLAN offload and DPDK) - OpenSt...
 
pipework - Advanced Docker Networking
pipework - Advanced Docker Networkingpipework - Advanced Docker Networking
pipework - Advanced Docker Networking
 
コンテナのネットワークインターフェース その実装手法とその応用について
コンテナのネットワークインターフェース その実装手法とその応用についてコンテナのネットワークインターフェース その実装手法とその応用について
コンテナのネットワークインターフェース その実装手法とその応用について
 
Lxc cf201207-presen
Lxc cf201207-presenLxc cf201207-presen
Lxc cf201207-presen
 
Free bsd jail入門
Free bsd jail入門Free bsd jail入門
Free bsd jail入門
 
JOSUG 9th Study
JOSUG 9th StudyJOSUG 9th Study
JOSUG 9th Study
 
KVM Cluster with DRBD, ioDrive2 and Infiniband (130802 OSC京都)
KVM Cluster with DRBD, ioDrive2 and Infiniband (130802 OSC京都)KVM Cluster with DRBD, ioDrive2 and Infiniband (130802 OSC京都)
KVM Cluster with DRBD, ioDrive2 and Infiniband (130802 OSC京都)
 
Havana版 RDO-QuickStart-2 (140421-Havana-RDO-QuickStart-2.pdf)
Havana版 RDO-QuickStart-2 (140421-Havana-RDO-QuickStart-2.pdf) Havana版 RDO-QuickStart-2 (140421-Havana-RDO-QuickStart-2.pdf)
Havana版 RDO-QuickStart-2 (140421-Havana-RDO-QuickStart-2.pdf)
 
OSvの概要と実装
OSvの概要と実装OSvの概要と実装
OSvの概要と実装
 
CloudStackユーザ会 OSC.cloud
CloudStackユーザ会 OSC.cloudCloudStackユーザ会 OSC.cloud
CloudStackユーザ会 OSC.cloud
 
Azure Storage Partition Internals
Azure Storage Partition  Internals Azure Storage Partition  Internals
Azure Storage Partition Internals
 

Similaire à 動的ネットワークパス構築と連携したエッジオーバレイ帯域制御

OpenStack - SDNとオープンネットワーキングのすべて
OpenStack - SDNとオープンネットワーキングのすべてOpenStack - SDNとオープンネットワーキングのすべて
OpenStack - SDNとオープンネットワーキングのすべてmizumotoda
 
SDN Japan: ovs-hw
SDN Japan: ovs-hwSDN Japan: ovs-hw
SDN Japan: ovs-hwykuga
 
さくらのクラウドインフラの紹介
さくらのクラウドインフラの紹介さくらのクラウドインフラの紹介
さくらのクラウドインフラの紹介SAKURA Internet Inc.
 
『WAN SDN Controller NorthStarご紹介 & デモ』
『WAN SDN Controller NorthStarご紹介 & デモ』『WAN SDN Controller NorthStarご紹介 & デモ』
『WAN SDN Controller NorthStarご紹介 & デモ』Juniper Networks (日本)
 
OpenStackクラウド基盤構築ハンズオンセミナー 第2日:講義No2
OpenStackクラウド基盤構築ハンズオンセミナー 第2日:講義No2OpenStackクラウド基盤構築ハンズオンセミナー 第2日:講義No2
OpenStackクラウド基盤構築ハンズオンセミナー 第2日:講義No2Etsuji Nakai
 
FD.io VPP事始め
FD.io VPP事始めFD.io VPP事始め
FD.io VPP事始めtetsusat
 
Rps・rfs等最新linux kernel事例
Rps・rfs等最新linux kernel事例Rps・rfs等最新linux kernel事例
Rps・rfs等最新linux kernel事例Takuya ASADA
 
法政大学情報科学部 2012年度コンピュータネットワーク-第8回授業-Web公開用
法政大学情報科学部 2012年度コンピュータネットワーク-第8回授業-Web公開用法政大学情報科学部 2012年度コンピュータネットワーク-第8回授業-Web公開用
法政大学情報科学部 2012年度コンピュータネットワーク-第8回授業-Web公開用Ruo Ando
 
ONIC-Japan-2019-OVN public
ONIC-Japan-2019-OVN publicONIC-Japan-2019-OVN public
ONIC-Japan-2019-OVN publicManabu Ori
 
Kyoto Tycoon Guide in Japanese
Kyoto Tycoon Guide in JapaneseKyoto Tycoon Guide in Japanese
Kyoto Tycoon Guide in JapaneseMikio Hirabayashi
 
BETTER TOGETHER 〜VMware NSXとJuniperデバイスを繋いでみよう!〜
BETTER TOGETHER 〜VMware NSXとJuniperデバイスを繋いでみよう!〜BETTER TOGETHER 〜VMware NSXとJuniperデバイスを繋いでみよう!〜
BETTER TOGETHER 〜VMware NSXとJuniperデバイスを繋いでみよう!〜Juniper Networks (日本)
 
VPP事始め
VPP事始めVPP事始め
VPP事始めnpsg
 
Openvswitch vps 20120429資料
Openvswitch vps 20120429資料Openvswitch vps 20120429資料
Openvswitch vps 20120429資料Daisuke Nakajima
 
【Interop Tokyo 2015】 DC 1: Cisco VXLAN ファブリックの展望
【Interop Tokyo 2015】 DC 1: Cisco VXLAN ファブリックの展望【Interop Tokyo 2015】 DC 1: Cisco VXLAN ファブリックの展望
【Interop Tokyo 2015】 DC 1: Cisco VXLAN ファブリックの展望シスコシステムズ合同会社
 
Trema の紹介とネットワーク仮想化への応用
Trema の紹介とネットワーク仮想化への応用Trema の紹介とネットワーク仮想化への応用
Trema の紹介とネットワーク仮想化への応用kazuyas
 
20121216 OSC Cloud OpenStack Quantum
20121216 OSC Cloud OpenStack Quantum20121216 OSC Cloud OpenStack Quantum
20121216 OSC Cloud OpenStack QuantumAkihiro Motoki
 
Lagopus Router v19.07.1
Lagopus Router v19.07.1Lagopus Router v19.07.1
Lagopus Router v19.07.1Tomoya Hibi
 

Similaire à 動的ネットワークパス構築と連携したエッジオーバレイ帯域制御 (20)

OpenStack - SDNとオープンネットワーキングのすべて
OpenStack - SDNとオープンネットワーキングのすべてOpenStack - SDNとオープンネットワーキングのすべて
OpenStack - SDNとオープンネットワーキングのすべて
 
SDN Japan: ovs-hw
SDN Japan: ovs-hwSDN Japan: ovs-hw
SDN Japan: ovs-hw
 
さくらのクラウドインフラの紹介
さくらのクラウドインフラの紹介さくらのクラウドインフラの紹介
さくらのクラウドインフラの紹介
 
『WAN SDN Controller NorthStarご紹介 & デモ』
『WAN SDN Controller NorthStarご紹介 & デモ』『WAN SDN Controller NorthStarご紹介 & デモ』
『WAN SDN Controller NorthStarご紹介 & デモ』
 
OpenStackクラウド基盤構築ハンズオンセミナー 第2日:講義No2
OpenStackクラウド基盤構築ハンズオンセミナー 第2日:講義No2OpenStackクラウド基盤構築ハンズオンセミナー 第2日:講義No2
OpenStackクラウド基盤構築ハンズオンセミナー 第2日:講義No2
 
OpenFlow
OpenFlowOpenFlow
OpenFlow
 
FD.io VPP事始め
FD.io VPP事始めFD.io VPP事始め
FD.io VPP事始め
 
Rps・rfs等最新linux kernel事例
Rps・rfs等最新linux kernel事例Rps・rfs等最新linux kernel事例
Rps・rfs等最新linux kernel事例
 
法政大学情報科学部 2012年度コンピュータネットワーク-第8回授業-Web公開用
法政大学情報科学部 2012年度コンピュータネットワーク-第8回授業-Web公開用法政大学情報科学部 2012年度コンピュータネットワーク-第8回授業-Web公開用
法政大学情報科学部 2012年度コンピュータネットワーク-第8回授業-Web公開用
 
ONIC-Japan-2019-OVN public
ONIC-Japan-2019-OVN publicONIC-Japan-2019-OVN public
ONIC-Japan-2019-OVN public
 
OpenFlow Controller lily
OpenFlow Controller lilyOpenFlow Controller lily
OpenFlow Controller lily
 
Kyoto Tycoon Guide in Japanese
Kyoto Tycoon Guide in JapaneseKyoto Tycoon Guide in Japanese
Kyoto Tycoon Guide in Japanese
 
BETTER TOGETHER 〜VMware NSXとJuniperデバイスを繋いでみよう!〜
BETTER TOGETHER 〜VMware NSXとJuniperデバイスを繋いでみよう!〜BETTER TOGETHER 〜VMware NSXとJuniperデバイスを繋いでみよう!〜
BETTER TOGETHER 〜VMware NSXとJuniperデバイスを繋いでみよう!〜
 
EVPN for Cloud Builders
EVPN for Cloud BuildersEVPN for Cloud Builders
EVPN for Cloud Builders
 
VPP事始め
VPP事始めVPP事始め
VPP事始め
 
Openvswitch vps 20120429資料
Openvswitch vps 20120429資料Openvswitch vps 20120429資料
Openvswitch vps 20120429資料
 
【Interop Tokyo 2015】 DC 1: Cisco VXLAN ファブリックの展望
【Interop Tokyo 2015】 DC 1: Cisco VXLAN ファブリックの展望【Interop Tokyo 2015】 DC 1: Cisco VXLAN ファブリックの展望
【Interop Tokyo 2015】 DC 1: Cisco VXLAN ファブリックの展望
 
Trema の紹介とネットワーク仮想化への応用
Trema の紹介とネットワーク仮想化への応用Trema の紹介とネットワーク仮想化への応用
Trema の紹介とネットワーク仮想化への応用
 
20121216 OSC Cloud OpenStack Quantum
20121216 OSC Cloud OpenStack Quantum20121216 OSC Cloud OpenStack Quantum
20121216 OSC Cloud OpenStack Quantum
 
Lagopus Router v19.07.1
Lagopus Router v19.07.1Lagopus Router v19.07.1
Lagopus Router v19.07.1
 

Plus de Ryousei Takano

Error Permissive Computing
Error Permissive ComputingError Permissive Computing
Error Permissive ComputingRyousei Takano
 
Opportunities of ML-based data analytics in ABCI
Opportunities of ML-based data analytics in ABCIOpportunities of ML-based data analytics in ABCI
Opportunities of ML-based data analytics in ABCIRyousei Takano
 
ABCI: An Open Innovation Platform for Advancing AI Research and Deployment
ABCI: An Open Innovation Platform for Advancing AI Research and DeploymentABCI: An Open Innovation Platform for Advancing AI Research and Deployment
ABCI: An Open Innovation Platform for Advancing AI Research and DeploymentRyousei Takano
 
クラウド環境におけるキャッシュメモリQoS制御の評価
クラウド環境におけるキャッシュメモリQoS制御の評価クラウド環境におけるキャッシュメモリQoS制御の評価
クラウド環境におけるキャッシュメモリQoS制御の評価Ryousei Takano
 
USENIX NSDI 2016 (Session: Resource Sharing)
USENIX NSDI 2016 (Session: Resource Sharing)USENIX NSDI 2016 (Session: Resource Sharing)
USENIX NSDI 2016 (Session: Resource Sharing)Ryousei Takano
 
User-space Network Processing
User-space Network ProcessingUser-space Network Processing
User-space Network ProcessingRyousei Takano
 
Flow-centric Computing - A Datacenter Architecture in the Post Moore Era
Flow-centric Computing - A Datacenter Architecture in the Post Moore EraFlow-centric Computing - A Datacenter Architecture in the Post Moore Era
Flow-centric Computing - A Datacenter Architecture in the Post Moore EraRyousei Takano
 
A Look Inside Google’s Data Center Networks
A Look Inside Google’s Data Center NetworksA Look Inside Google’s Data Center Networks
A Look Inside Google’s Data Center NetworksRyousei Takano
 
クラウド時代の半導体メモリー技術
クラウド時代の半導体メモリー技術クラウド時代の半導体メモリー技術
クラウド時代の半導体メモリー技術Ryousei Takano
 
AIST Super Green Cloud: lessons learned from the operation and the performanc...
AIST Super Green Cloud: lessons learned from the operation and the performanc...AIST Super Green Cloud: lessons learned from the operation and the performanc...
AIST Super Green Cloud: lessons learned from the operation and the performanc...Ryousei Takano
 
IEEE CloudCom 2014参加報告
IEEE CloudCom 2014参加報告IEEE CloudCom 2014参加報告
IEEE CloudCom 2014参加報告Ryousei Takano
 
Expectations for optical network from the viewpoint of system software research
Expectations for optical network from the viewpoint of system software researchExpectations for optical network from the viewpoint of system software research
Expectations for optical network from the viewpoint of system software researchRyousei Takano
 
Exploring the Performance Impact of Virtualization on an HPC Cloud
Exploring the Performance Impact of Virtualization on an HPC CloudExploring the Performance Impact of Virtualization on an HPC Cloud
Exploring the Performance Impact of Virtualization on an HPC CloudRyousei Takano
 
不揮発メモリとOS研究にまつわる何か
不揮発メモリとOS研究にまつわる何か不揮発メモリとOS研究にまつわる何か
不揮発メモリとOS研究にまつわる何かRyousei Takano
 
High-resolution Timer-based Packet Pacing Mechanism on the Linux Operating Sy...
High-resolution Timer-based Packet Pacing Mechanism on the Linux Operating Sy...High-resolution Timer-based Packet Pacing Mechanism on the Linux Operating Sy...
High-resolution Timer-based Packet Pacing Mechanism on the Linux Operating Sy...Ryousei Takano
 
クラウドの垣根を超えた高性能計算に向けて~AIST Super Green Cloudでの試み~
クラウドの垣根を超えた高性能計算に向けて~AIST Super Green Cloudでの試み~クラウドの垣根を超えた高性能計算に向けて~AIST Super Green Cloudでの試み~
クラウドの垣根を超えた高性能計算に向けて~AIST Super Green Cloudでの試み~Ryousei Takano
 
From Rack scale computers to Warehouse scale computers
From Rack scale computers to Warehouse scale computersFrom Rack scale computers to Warehouse scale computers
From Rack scale computers to Warehouse scale computersRyousei Takano
 
高性能かつスケールアウト可能なHPCクラウド AIST Super Green Cloud
高性能かつスケールアウト可能なHPCクラウド AIST Super Green Cloud高性能かつスケールアウト可能なHPCクラウド AIST Super Green Cloud
高性能かつスケールアウト可能なHPCクラウド AIST Super Green CloudRyousei Takano
 
Iris: Inter-cloud Resource Integration System for Elastic Cloud Data Center
Iris: Inter-cloud Resource Integration System for Elastic Cloud Data CenterIris: Inter-cloud Resource Integration System for Elastic Cloud Data Center
Iris: Inter-cloud Resource Integration System for Elastic Cloud Data CenterRyousei Takano
 

Plus de Ryousei Takano (20)

Error Permissive Computing
Error Permissive ComputingError Permissive Computing
Error Permissive Computing
 
Opportunities of ML-based data analytics in ABCI
Opportunities of ML-based data analytics in ABCIOpportunities of ML-based data analytics in ABCI
Opportunities of ML-based data analytics in ABCI
 
ABCI: An Open Innovation Platform for Advancing AI Research and Deployment
ABCI: An Open Innovation Platform for Advancing AI Research and DeploymentABCI: An Open Innovation Platform for Advancing AI Research and Deployment
ABCI: An Open Innovation Platform for Advancing AI Research and Deployment
 
ABCI Data Center
ABCI Data CenterABCI Data Center
ABCI Data Center
 
クラウド環境におけるキャッシュメモリQoS制御の評価
クラウド環境におけるキャッシュメモリQoS制御の評価クラウド環境におけるキャッシュメモリQoS制御の評価
クラウド環境におけるキャッシュメモリQoS制御の評価
 
USENIX NSDI 2016 (Session: Resource Sharing)
USENIX NSDI 2016 (Session: Resource Sharing)USENIX NSDI 2016 (Session: Resource Sharing)
USENIX NSDI 2016 (Session: Resource Sharing)
 
User-space Network Processing
User-space Network ProcessingUser-space Network Processing
User-space Network Processing
 
Flow-centric Computing - A Datacenter Architecture in the Post Moore Era
Flow-centric Computing - A Datacenter Architecture in the Post Moore EraFlow-centric Computing - A Datacenter Architecture in the Post Moore Era
Flow-centric Computing - A Datacenter Architecture in the Post Moore Era
 
A Look Inside Google’s Data Center Networks
A Look Inside Google’s Data Center NetworksA Look Inside Google’s Data Center Networks
A Look Inside Google’s Data Center Networks
 
クラウド時代の半導体メモリー技術
クラウド時代の半導体メモリー技術クラウド時代の半導体メモリー技術
クラウド時代の半導体メモリー技術
 
AIST Super Green Cloud: lessons learned from the operation and the performanc...
AIST Super Green Cloud: lessons learned from the operation and the performanc...AIST Super Green Cloud: lessons learned from the operation and the performanc...
AIST Super Green Cloud: lessons learned from the operation and the performanc...
 
IEEE CloudCom 2014参加報告
IEEE CloudCom 2014参加報告IEEE CloudCom 2014参加報告
IEEE CloudCom 2014参加報告
 
Expectations for optical network from the viewpoint of system software research
Expectations for optical network from the viewpoint of system software researchExpectations for optical network from the viewpoint of system software research
Expectations for optical network from the viewpoint of system software research
 
Exploring the Performance Impact of Virtualization on an HPC Cloud
Exploring the Performance Impact of Virtualization on an HPC CloudExploring the Performance Impact of Virtualization on an HPC Cloud
Exploring the Performance Impact of Virtualization on an HPC Cloud
 
不揮発メモリとOS研究にまつわる何か
不揮発メモリとOS研究にまつわる何か不揮発メモリとOS研究にまつわる何か
不揮発メモリとOS研究にまつわる何か
 
High-resolution Timer-based Packet Pacing Mechanism on the Linux Operating Sy...
High-resolution Timer-based Packet Pacing Mechanism on the Linux Operating Sy...High-resolution Timer-based Packet Pacing Mechanism on the Linux Operating Sy...
High-resolution Timer-based Packet Pacing Mechanism on the Linux Operating Sy...
 
クラウドの垣根を超えた高性能計算に向けて~AIST Super Green Cloudでの試み~
クラウドの垣根を超えた高性能計算に向けて~AIST Super Green Cloudでの試み~クラウドの垣根を超えた高性能計算に向けて~AIST Super Green Cloudでの試み~
クラウドの垣根を超えた高性能計算に向けて~AIST Super Green Cloudでの試み~
 
From Rack scale computers to Warehouse scale computers
From Rack scale computers to Warehouse scale computersFrom Rack scale computers to Warehouse scale computers
From Rack scale computers to Warehouse scale computers
 
高性能かつスケールアウト可能なHPCクラウド AIST Super Green Cloud
高性能かつスケールアウト可能なHPCクラウド AIST Super Green Cloud高性能かつスケールアウト可能なHPCクラウド AIST Super Green Cloud
高性能かつスケールアウト可能なHPCクラウド AIST Super Green Cloud
 
Iris: Inter-cloud Resource Integration System for Elastic Cloud Data Center
Iris: Inter-cloud Resource Integration System for Elastic Cloud Data CenterIris: Inter-cloud Resource Integration System for Elastic Cloud Data Center
Iris: Inter-cloud Resource Integration System for Elastic Cloud Data Center
 

Dernier

Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By DanielPostman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Danieldanielhu54
 
新人研修のまとめ 2024/04/12の勉強会で発表されたものです。
新人研修のまとめ       2024/04/12の勉強会で発表されたものです。新人研修のまとめ       2024/04/12の勉強会で発表されたものです。
新人研修のまとめ 2024/04/12の勉強会で発表されたものです。iPride Co., Ltd.
 
IoT in the era of generative AI, Thanks IoT ALGYAN.pptx
IoT in the era of generative AI, Thanks IoT ALGYAN.pptxIoT in the era of generative AI, Thanks IoT ALGYAN.pptx
IoT in the era of generative AI, Thanks IoT ALGYAN.pptxAtomu Hidaka
 
プレイマットのパターン生成支援ツール
プレイマットのパターン生成支援ツールプレイマットのパターン生成支援ツール
プレイマットのパターン生成支援ツールsugiuralab
 
20240412_HCCJP での Windows Server 2025 Active Directory
20240412_HCCJP での Windows Server 2025 Active Directory20240412_HCCJP での Windows Server 2025 Active Directory
20240412_HCCJP での Windows Server 2025 Active Directoryosamut
 
PHP-Conference-Odawara-2024-04-000000000
PHP-Conference-Odawara-2024-04-000000000PHP-Conference-Odawara-2024-04-000000000
PHP-Conference-Odawara-2024-04-000000000Shota Ito
 
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。iPride Co., Ltd.
 
プレイマットのパターン生成支援ツールの評価
プレイマットのパターン生成支援ツールの評価プレイマットのパターン生成支援ツールの評価
プレイマットのパターン生成支援ツールの評価sugiuralab
 

Dernier (8)

Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By DanielPostman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Daniel
 
新人研修のまとめ 2024/04/12の勉強会で発表されたものです。
新人研修のまとめ       2024/04/12の勉強会で発表されたものです。新人研修のまとめ       2024/04/12の勉強会で発表されたものです。
新人研修のまとめ 2024/04/12の勉強会で発表されたものです。
 
IoT in the era of generative AI, Thanks IoT ALGYAN.pptx
IoT in the era of generative AI, Thanks IoT ALGYAN.pptxIoT in the era of generative AI, Thanks IoT ALGYAN.pptx
IoT in the era of generative AI, Thanks IoT ALGYAN.pptx
 
プレイマットのパターン生成支援ツール
プレイマットのパターン生成支援ツールプレイマットのパターン生成支援ツール
プレイマットのパターン生成支援ツール
 
20240412_HCCJP での Windows Server 2025 Active Directory
20240412_HCCJP での Windows Server 2025 Active Directory20240412_HCCJP での Windows Server 2025 Active Directory
20240412_HCCJP での Windows Server 2025 Active Directory
 
PHP-Conference-Odawara-2024-04-000000000
PHP-Conference-Odawara-2024-04-000000000PHP-Conference-Odawara-2024-04-000000000
PHP-Conference-Odawara-2024-04-000000000
 
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
 
プレイマットのパターン生成支援ツールの評価
プレイマットのパターン生成支援ツールの評価プレイマットのパターン生成支援ツールの評価
プレイマットのパターン生成支援ツールの評価
 

動的ネットワークパス構築と連携したエッジオーバレイ帯域制御

  • 1. 動的ネットワークパス構築と 連携したエッジオーバレイ帯域制御 ⾼高野  了了成  岡崎  史裕  ⼯工藤  知宏 産業技術総合研究所  情報技術研究研究部⾨門 2013年3月7日 NS研究会@残波岬ロイヤルホテル
  • 2. 背景 •  クラウド(IT)とネットワークシステムの連携 •  OpenFlowに代表されるSoftware  Defined   Network(SDN)技術への注⽬目 –  ソフトウェアから統⼀一的な管理理、⾃自動制御 •  ITサービスと連携した帯域制御 –  データセンタネットワークにおけるテナント間隔離離 例例:NEC  ProgrammableFlow,  Nicira  NVP,  MidoNet, Stratophere  SDN  Platform –  広域網の効率率率的な利利⽤用 例例:Google  G-‐‑‒Scale,  Open  transport  switch 2
  • 3. SDNにおける帯域制御の課題 •  ホップ・バイ・ホップ⽅方式 –  〇  柔軟で細やかなQoS制御が可能 –  ×  段階的な移⾏行行が困難 •  エッジオーバレイ⽅方式 –  〇  既存のネットワーク機器を利利⽤用可能 –  ×  QoS制御を実現するには、オーバサブスクライブ しないネットワークが必須 •  データセンタネットワーク:イーサネットファブリック技術 •  広域網:帯域保証技術(or  専⽤用線) 3
  • 4. 動的ネットワークパス構築技術と 連携したエッジオーバレイ帯域制御 ⽬目標:ネットワークの消費電⼒力力削減とサービスの 利利便便性の両⽴立立を⽬目指したネットワークモデル構築 1.  動的ネットワークパス構築技術 →  OGF  Network  Service  Interface  (NSI) 2.  トラフィックの性質に基づいたサブパス選択 →  OpenFlow  +  RSVP 3.  サブパスの帯域分割 ネッ ワーク選択 ト →  Open  vSwitch  + パス設定 PSPacer RSVP QoS付パケッ 網 ト メ セージ ッ OpenFlow      スイ チ OpenFlow      スイ チ ラベルスイ チ網 ッ ッ ッ 光パス網 送信者 受信者 従来型パケッ 網 ト データプレーン 4
  • 5. 本研究の貢献 •  エッジオーバレイSDNにおいて、動的ネット ワークパス構築とエッジ帯域制御の連携を提案 –  データセンタ間を帯域の保証されたネットワークで 接続した上で、エッジ仮想スイッチにて精密な帯域 制御を実施 •  PSPacerをOpen  vSwitchに統合 •  10ギガビットイーサネット環境で実験 –  HTBとPSPacerの⽐比較 5
  • 6. 発表の流流れ •  動的ネットワークパス構築と連携した エッジオーバレイ帯域制御 •  PSPacerの紹介 •  Open  vSwitchに対するPSPacerの統合 •  実験 •  まとめ 6
  • 8. PSPacer •  通信帯域を効率率率的に利利⽤用するためのソフトウェア •  ギガビットイーサネットにおける精密なペーシングを ソフトウェアだけで実現 –  利利⽤用可能帯域にあわせてバースト送信を平滑滑化することで、 安定した⾼高い通信性能を実現 Switch/Router Buffer Overflow バースト性の⾼高いトラフィックはパケット PSPacerはパケット間隔を調整し、平滑滑化 ロスを引き起こし、通信性能の低下を招く され安定したトラフィックを⽣生成する 8
  • 9. PSPacer:動作原理理と実装 •  パケットペーシング=パケット送信間隔制御 –  (パケットサイズ)=(ギャップサイズ)の場合:     送信帯域は、物理理帯域の1/2 、 •  PSPacerの動作原理理 き れば ノ秒の 送 信で 0.8ナ 能 –  ギャップをダミーパケットで埋めて、 レー トで ークで 制 御可 ヤ トワ 信間隔を –  パケットを隙間なく送信する ワイ psネッ 送 1 0Gb パケット •  ギャップパケット 精度度 で –  ダミーパケットとして、PAUSEフレームを利利⽤用 –  スイッチの⼊入⼒力力ポートで破棄され、実パケットのみが、 元の送信間隔を保ちつつ送出される ギャップ パケット 9
  • 10. Linux  TBFとPSPacerの違い Token  Bucket  Filter PSPacer 平均レートはボトルネックリン ク帯域の半分以下だが、ピーク は物理理送信レートに達しており、 バッファあふれが発⽣生 (Bottleneck  BW  500Mbps,  RTT  200ms,  FIFO  1MB) 10
  • 11. Open  vSwitch •  Linux上で動作する仮想スイッチソフトウェア –  OpenFlow –  VLAN(アクセスポート、トランクポート) –  トンネル  (GRE、IPSec、VXLAN、LISP) –  NetFlow、sFlow –  QoS VM  1 VM  2 VM  3 •  データパス Open  vSwitch –  Linux  kernel  3.3にマージ user kernel –  ハードウェア化を考慮 •  Pica8  Prontoスイッチに採⽤用 Physical  Switch 11
  • 12. Open  vSwitchのQoS機能 •  ingress  policing •  egress  shaping VM1 VM2 –  内部的にLinuxカーネルの eth0 eth0 tc(qdisc)機能を利利⽤用 •  HTB、HFSC、PSPacer VMM tap0 tap1 ingress  policing •  OpenFlow  1.0のenqueue Open  vSwitch アクション※を利利⽤用して、 egress  shaping フローをqdiscのキューに振分 eth0 ※)  OpenFlow  1.3ではset-‐‑‒queueに相当 12
  • 13. Open  vSwitchの構成 VM  1 VM  2 VM  3 VIF Open  vSwitch ovs-­‐vswitchd ovsdb-­‐server user kernel openvswitch PIF Physical  Switch 13
  • 14. PSPacerの統合 data control enqueue   PSPacer Classifier   Compute  Server Packet   Interface   scheduler   queues   VM  1 VM  2 VM  3 Real  packet   VIF dequeue   Gap  packet   Open  vSwitch ovs-­‐vswitchd ovsdb-­‐server user PSPacer openvswitch kernel PIF Physical  Switch ※  HTB利利⽤用時も同じ仕組みで動作 14
  • 15. 設定例例 ovs-vsctl -- set port eth0 qos=@newqos -- --id=@newqos create qos type=linux-psp queues=0=@q0,1=@q1 -- --id=@q0 create queue other-config:rate=1000000000 -- --id=@q1 create queue other-config:rate=2000000000 ovs-ofctl add-flow br0 "in_port=2 マッチングルールin_̲portをtap idle_timeout=0 actions=enqueue:1:1” デバイスの接続ポートに設定する ovs-ofctl add-flow br0 "in_port=3 ことで、VMごとに帯域制御 idle_timeout=0 actions=enqueue:1:2" # 送信レートの変更更
 ovs-vsctl set queue [QUEUE UUID] other-config:rate=3000000000 # キューの追加
 ovs-vsctl add qos [QOS UUID] queues 2=@q2 -- --id=@q2 create queue other-config:rate=1000000000 15
  • 16. 実験 16
  • 17. 実験環境 •  計算サーバ2台を直結 Hardware  Spec. •  各VMの送信帯域を2  G CPU 6-­‐core  Intel  Xeon  E5-­‐2430L/   2  GHz  dual  sockets bpsに設定し、6組のVM Memory PC3-­‐12800  48  GB 間でTCP通信性能を測定 Ethernet Intel  X520-­‐LR1  (MTU  16KB) So-ware  Spec. •  帯域測定にはGtrcNET-‐‑‒ OS CentOS  Linux  6.3 10p3を使⽤用 Open  vSwitch 1.7.1 VM VM VM VM VM VM VM VM VM VM VM VM 0 1 2 3 4 5 0 1 2 3 4 5 Open  vSwitch Open  vSwitch GtrcNET-‐‑‒10 10G  Ethernet 17
  • 18. GtrcNET •   ⼤大規模FPGAを搭載したハードウェアネットワークテストベッド •   ワイヤレートでさまざまな機能をプログラム可能 •   GtrcNET-‐‑‒1:  GbE  (GBIC)  x  4ports  +  16MBytes  Memory/port •   GtrcNET-‐‑‒10:  10GbE  (XENPAK)  x  3ports  +  1GBytes  Memory  /port •   実装機能例例 •   帯域測定(ポート単位、ストリーム単位、VLAN単位) •   遅延の模擬 •   パケットキャプチャ •   テストパケット⽣生成 •   送信レート制御(ペーシング、   シェーピング、ポリシング) http://projects.itri.aist.go.jp/gnet/ 18
  • 19. 10000 実験結果(1) HTB 8000 Bandwidth (Mbps) Throughput  (Mbps) 6000 QoS制御なし 4000 10000 2000 8000 Bandwidth (Mbps) 0 Throughput  (Mbps) 0 10 20 30 40 50 60 6000 Time (Second) VM1 VM2 VM3 VM4 VM5 VM6 4000 10000 PSPacer 2000 8000 Bandwidth (Mbps) Throughput  (Mbps) 0 6000 0 10 20 30 40 50 60 Time (Second) VM1 VM2 VM3 VM4 VM5 VM6 4000 10秒毎に通信ペアを追加 2000 0 0 10 20 30 40 50 60 Time (Second) 19 VM1 VM2 VM3 VM4 VM5 VM6
  • 20. 実験結果(2) PSPacer  (OpenFlow) PSPacer  (tc) 10000 10000 8000 8000 Bandwidth (Mbps) Throughput  (Mbps) Throughput  (Mbps) 6000 6000 4000 4000 2000 2000 0 0 0 10 20 30 40 50 60 0 10 20 30 40 50 60 Time (Second) Time (Second) VM1 VM2 VM3 VM4 VM5 VM6 VM1 VM2 VM3 VM4 VM5 VM6 OpenFlowルールの代わりに、 tc  u32  filterを使って、送信元IP アドレス毎に振分 20
  • 21. 考察 •  PSPacer(ギャップパケット)のパケット スケジューリング⽅方式の問題が顕在化 –  システムがワイヤレート性能を出せることが必要 •  注意:今回の実験環境では要件を満たしていない –  tcのフィルタ機能と⽐比較して、OpenFlowのフロー 制御はCPU負荷が⾼高いと推測 –  さらなる問題解析が必要 21
  • 23. まとめ •  エッジオーバレイSDNにおいて、動的ネット ワークパス構築とエッジ帯域制御の連携を提案 •  PSPacerをOpen  vSwitchに統合し、10ギガ ビットイーサネット環境で実験 –  PSPacerのスケジューリング⽅方式の問題が顕在化 –  さらなる問題解析が必要 PSPacer  3.1  (Open  vSwitch対応パッチ含)は オープンソースソフトウェアとして公開     https://www.gridmpi.org/pspacer.jsp 23
  • 24. 今後の予定 •  ネットワークの消費電⼒力力削減とサービスの利利便便 性の両⽴立立を⽬目指したネットワークモデルの提案 –  本提案⽅方式と「トラフィックの性質情報に基づいた 経路路選択」⽅方式の統合し、省省電⼒力力効果を検証 なお、本研究の成果の⼀一部は、独⽴立立⾏行行政法⼈人新エネルギー・ 産業技術総合開発機構(NEDO)の委託業務「グリーンネット ワーク・システム技術研究開発プロジェクト(グリーンITプロ ジェクト)」の成果を活⽤用している。 24