SlideShare une entreprise Scribd logo
1  sur  75
1
OpenStack最新情報セミナー(2015/12/02)
(in サイバーエージェント社 セミナールーム)
Naoto Gohko <naoto-gohko@gmo.jp>
IT Architect Enginner / GMO Internet Inc.,
OpenStackのモデルの最適化と適用:
ConoHaとZ.comとGMOアプリクラウド
2
History of our services using OpenStack in GMO Internet Inc.,
Nova-network model and Diablo: Onamae.com VPS
Quantum overlay network: ConoHa Grizzly cluster
High performance network: GMO AppsCloud(Havana)
Juno ConoHa: Regison, Domain, DNS and SDS
Juno GMO AppsCloud: Ironic and copy offload Cinder
Swift cluster (shared from each OpenStack)
# Agenda
3
About GMO Internet
http://gmo.jp/en
4
Infrastructure Business
5
Using OpenStack at GMO Internet
6
Public Clouds
We are offering four public cloud services.
7
Physical Servers
Running VMPhysical Server
1508
25294
Created VM
Running Infrastructure
137223
8
Swift cluster
GMO Internet, Inc.: VPS and Cloud services
Onamae.com VPS (2012/03) :
http://www.onamae-server.com/
Forcus: global IPs; provided by simple "nova-network"
tenten VPS (2012/12)
http://www.tenten.vn/
Share of OSS by Group companies in Vietnam
ConoHa VPS (2013/07) :
http://www.conoha.jp/
Forcus: Quantam(Neutron) overlay tenant network
GMO AppsCloud (2014/04) : http://cloud.gmo.jp/
OpenStack Havana based 1st region
Enterprise grade IaaS with block storage, object storage,
LBaaS and baremetal compute was provided
Onamae.com Cloud (2014/11)
http://www.onamae-cloud.com/
Forcus: Low price VM instances, baremetal compute and object storage
ConoHa Cloud (2015/05/18) http://www.conoha.jp/
Forcus: ML2 vxlan overlay, LBaaS, block storage, DNSaaS(Designate)
and original services by keystone auth
OpenStack Diablo
on CentOS 6.x
Nova
Keystone
Glance
Nova network
Shared codes
Quantam
OpenStack Glizzly
on Ubuntu 12.04
Nova
Keystone
Glance
OpenStack Havana
on CentOS 6.x
Keystone
Glance
Cinder
Swift
Swift
Shared cluster
Shared codes KeystoneGlance
Neutron
Nova Swift
Baremetal compute
Nova
Ceilometer
Baremetal compute
Neutron LBaaS
ovs + gre tunnel overlay
Ceilometer
Designate
SwiftOpenStack Juno
on CentOS 7.x
NovaKeystone
Glance
Cinder
Ceilometer
Neutron
LBaaS
GMO AppsCloud (2015/09/27) : http://cloud.gmo.jp/
2nd region by OpenStack Juno based
Enterprise grade IaaS with High IOPS Ironic Compute and Neutron LBaaS
Upgrade
Juno
GSLB
Swift
Keystone Glance
CinderCeilometer
Nova
Neutron
Ironic
LBaaS
9
OpenStack Diablo cluster:
• Onamae.com VPS
10
Oname.com VPS(Diablo)
• Service XaaS model:
– VPS (KVM, libvirt)
• Network:
– 1Gbps
• Network model:
– Flat-VLAN (Nova Network), without floting IP
– IPv4 only
• Public API
– None (only web-panel)
• Glance
– None
• Cinder
– None
• ObjectStorage
– None
OpenStack service: Onamae.com VPS(Diablo)
11
12
Oname.com VPS(Diablo)
• Nova Network:
– very simple(LinuxBridge)
– Flat networking is scalable.
• Only 1 NIC per VM.
• Only 1 Public Network IP
– MQ(rabbitmq) dependency is little(sync. API)
• More scalable than Juno, Kilo, Liberty and Mitaka
• Cloud ?
– Only virtulization management
But
There is no added value, such as a free configuration of the network
OpenStack service: Onamae.com VPS(Diablo)
13
OpenStack service: Onamae.com VPS(Diablo) model
compute
vm
compute
NIC NIC
Vlan network
bridge
NIC vlan vlan
tap
vNIC
Vlan network
14
OpenStack Grizzly cluster:
• ConoHa
15
ConoHa(Grizzly)
• Service XaaS model:
– VPS + Private networks (KVM + libvirt)
• Network:
– 10Gbps wired(10GBase-T)
• Network model:
– Flat-VLAN + Quantam ovs-GRE overlay
– IPv6/IPv4 dualstack
• Public API
– None (only web-panel)
• Glance
– None
• Cinder
– None
• ObjectStorage
– Swift (After Havana)
OpenStack service: ConoHa(Grizzly)
16
ConoHa(Grizzly)
• Quantam Network:
– It was using the initial version of the Open vSwitch full
mesh GRE-vlan overlay network with LinuxBridge Hybrid
But
When the scale becomes large,
Localization occurs to a specific node
of the communication of the GRE-mesh-tunnel
(with under cloud network(L2) problems)
(Broadcast storm?)
OpenStack service: ConoHa(Grizzly)
17
Grizzly network: LibvirtHybridOVSBridgeDriver
OpenStack Docmentより(Nakai san)
18
OpenStack Havana cluster:
• GMO AppsCloud
19
GMO AppsCloud(Havana)
• Service XaaS model:
– KVM compute + Private VLAN networks + Cinder + Swift
• Network:
– 10Gbps wired(10GBase SFP+)
• Network model:
– IPv4 Flat-VLAN + Neutron LinuxBridge(not ML2) + Brocade ADX L4-LBaaS original driver
• Public API
– Provided the public API
• Ceilometer
• Glance
– Provided(GlusterFS)
• Cinder
– HP 3PAR(Active-Active Multipath original) + NetApp
• ObjectStorage
– Swift cluster
• Bare-Metal Compute
– Modifiyed cobbler bare-metal deploy driver.
OpenStack service: GMO AppsCloud(Havana)
20
OpenStack service: GMO AppsCloud(Havana) model
compute
vm
NIC
Vlan network
bridge
NIC vlan
tap
vNIC
Vlan network
vNIC
bridge
vlan
tap
compute
NIC
bridge
NIC vlan
bridge
vlan
public network
Neutronだけどsimpleな
LinuxBridge model
(Context Switchが少ない)
>> Game配信など高速用途の
仮想化ネットワーク
それが、GMO AppsCloud
21
GMO AppsCloud(Havana) public API
22
GMO AppsCloud(Havana) public API
Web panel(httpd, php)
API wrapper proxy
(httpd, php
Framework: fuel php)
Havana
Nova API
Customer sys API
Havana
Neutron API
Havana
Glance API
OpenStack API for
input validation
Customer DB
Havana
Keystone API
OpenStack API
Havana
Cinder API
Havana
Ceilometer API
Endpoint L7:reverse proxy
Havana
Swift Proxy
23
Havana: baremetal compute cobbler driver
24
Havana: baremetal compute cobbler driver
Baremetal net:
• Bonding NIC
• Taged VLAN
• allowd VLAN + dhcp native VLAN
25
Havana: baremetal compute Cisco iOS in southbound
https://code.google.com/p/cisco-ios-cli-automation/
26
OpenStack Juno cluster:
• ConoHa (2)
• GMO AppsCloud (2)
27
Swift cluster
GMO Internet, Inc.: VPS and Cloud services
Onamae.com VPS (2012/03) :
http://www.onamae-server.com/
Forcus: global IPs; provided by simple "nova-network"
tenten VPS (2012/12)
http://www.tenten.vn/
Share of OSS by Group companies in Vietnam
ConoHa VPS (2013/07) :
http://www.conoha.jp/
Forcus: Quantam(Neutron) overlay tenant network
GMO AppsCloud (2014/04) : http://cloud.gmo.jp/
OpenStack Havana based 1st region
Enterprise grade IaaS with block storage, object storage,
LBaaS and baremetal compute was provided
Onamae.com Cloud (2014/11)
http://www.onamae-cloud.com/
Forcus: Low price VM instances, baremetal compute and object storage
OpenStack Diablo
on CentOS 6.x
Nova
Keystone
Glance
Nova network
Shared codes
Quantam
OpenStack Glizzly
on Ubuntu 12.04
Nova
Keystone
Glance
OpenStack Havana
on CentOS 6.x
Keystone
Glance
Cinder
Swift
Swift
Shared cluster
Shared codes KeystoneGlance
Neutron
Nova Swift
Baremetal compute
Nova
Ceilometer
Baremetal compute
Neutron LBaaS
ovs + gre tunnel overlay
Ceilometer
Upgrade
Juno
28
OpenStack Juno cluster:
• ConoHa (2)
29
 Multi Region
 SSD Only
 Scalability
 API
 Simple and competitive pricing
# Newly Released ConoHa
30
In ConoHa, We added two additional features.
– Multi-location region
– Domain Structure: Application to multi-location region
structure
– 1 Domain == 1 OEM service or Product service
– Domain on API validation wrapper proxy
Multi-Location region and domain structures
31
The meaning of the word
• Domain
• Keystone domain
• With v2 API service (our cloud)
• != DNS Domain
• Location
• Different geographic locations on the Earth
• US(San Jose), JP(Tokyo), SG(Singapore)
• Region
• OpenStack region
• Location != Region
• Can setup up multiple Region
in one Location
32
Tokyo
Singapore Sanjose
# ConoHa has data centers in 3 Locations
33
CentOS 7.1 x86_64 Juno (RDO) Maria DB
Connect to Tokyo KeyStone from All regions.
Add each region endpoints to Tokyo KeyStone.
Did not need to modify OpenStack code.
 OS and OpenStack Versions
 Multi Region Setting
# Specs
34
Tokyo Singapole
User/tenant User/tenant
API Management
Keystone API
API Management
Keystone APIAPI Management
Keystone API
Token Token
Tokyo SanJoseSingapore
API Management
Keystone API
API Management
Keystone API
READ/WRIT
E
READ READ
TokenToken Token
Do not
create/delete
users
Do not
create/delete
users
Our Customer base
User administration
# User-registration is possible in Japan only
DB Replication DB Replication
User/tenant User/tenantUser/tenant
R/W R/W
35
# Issues and Restrictions on Multi Region
 User-registration is possible in Japan only
 VPN performance issue
 Issues on replicating token table.
36
API Management
Keystone API
KeystoneDB
Nova
Neutron Glance
Cinder
OpenStack Cluster
Nova Get/token Glance Get/token
Neutron Get/token Cinder Get/tokenVM Create !
Nova user token:001
Neutron Token:002
Glance Token:003
Cinder Token:004
VM Create !
VM Create !
Nova user token:002
Neutron Token:003
Glance Token:004
Cinder Token:005
Nova user token:006
Neutron Token:007
Glance Token:008
Cinder Token:009
# Bloat access tokens
 Too many tokens will be created from each components.
37
Setting example.conf
[keystone_authtoken]
token= 100 year expires token
[neutron_authtoken]
token= 100 year expires token
[glance_authtoken]
token= 100 year expires token
[cinder_authtoken]
token= 100 year expires token
# Issues on replicating token table.
 100 year expires token
We fixed it so that any tokens can be used for each components.
38
OpenStack Authentication in Juno
(V2 keystone domains)
39
Why?
40
Swift cluster
GMO Internet, Inc.: VPS and Cloud services
Onamae.com VPS (2012/03) :
http://www.onamae-server.com/
Forcus: global IPs; provided by simple "nova-network"
tenten VPS (2012/12)
http://www.tenten.vn/
Share of OSS by Group companies in Vietnam
ConoHa VPS (2013/07) :
http://www.conoha.jp/
Forcus: Quantam(Neutron) overlay tenant network
GMO AppsCloud (2014/04) : http://cloud.gmo.jp/
OpenStack Havana based 1st region
Enterprise grade IaaS with block storage, object storage,
LBaaS and baremetal compute was provided
Onamae.com Cloud (2014/11)
http://www.onamae-cloud.com/
Forcus: Low price VM instances, baremetal compute and object storage
ConoHa Cloud (2015/05/18) http://www.conoha.jp/
Forcus: ML2 vxlan overlay, LBaaS, block storage, DNSaaS(Designate)
and original services by keystone auth
OpenStack Diablo
on CentOS 6.x
Nova
Keystone
Glance
Nova network
Shared codes
Quantam
OpenStack Glizzly
on Ubuntu 12.04
Nova
Keystone
Glance
OpenStack Havana
on CentOS 6.x
Keystone
Glance
Cinder
Swift
Swift
Shared cluster
Shared codes KeystoneGlance
Neutron
Nova Swift
Baremetal compute
Nova
Ceilometer
Baremetal compute
Neutron LBaaS
ovs + gre tunnel overlay
Ceilometer
Designate
SwiftOpenStack Juno
on CentOS 7.x
NovaKeystone
Glance
Cinder
Ceilometer
Neutron
LBaaS
GMO AppsCloud (2015/09/27) : http://cloud.gmo.jp/
2nd region by OpenStack Juno based
Enterprise grade IaaS with High IOPS Ironic Compute and Neutron LBaaS
Upgrade
Juno
GSLB
Swift
Keystone Glance
CinderCeilometer
Nova
Neutron
Ironic
LBaaS
41
• The cost to operate Multi version Openstack have
increased
• It is difficult to upgrade or add new features
 Managing multiple sites of OpenStack is a headache.
What’s the problems abount Multi-Cluster?
42
43
ConoHa: based on OpenStack Juno (IaaS)
• Multiple region openstack cluster
• Tokyo / Singapore / San Jose
• ... and so on
• Full SSD storage
• Multiple keystone service domain support
• ConoHa and Next service (now in development) ... OEM etc.
• LB as a Service: LVS-DSR (original)
• DNS as a service : OpenStack Designate
• OpenStack API and additional RESTful API
• Multiple Languages web panel support
• Japanese, ConoHa, English,
Korean, Mandarin Chinese
44
• Create scope in the domain
– Scoped items
• Flavor
• Images
• Volume type
– Shared items
• Public Networks
• Hypervisor
• Images (Default domain)
• Using Keystone API v2.0
Motivation
45
• We use and customize the code that is in Juno Keystone v3 domain
– Enable Domain ID for Juno Keystone V2 API
• SaaS implementation with python-keystoneclient
– Process related Domain ID
and Data implementation
Domain ID from token API
User:
POST /v2.0/token
Admin(service):
GET /v2.0/token/{id}
Juno Keystone V2 API : Does not support Domains
46
Keystone: wrapper proxy at domain specific keystone endpoint
Domains and user prefix namespace
Domain Product Prefix
name space
gnc ConoHa gnc
zjp JP OEM-1 zjp
zsg SG OEM-
1
zsg
... ... OEM-n ... ...
Exp) user: gnc0000348
Image name: gnc_centos7
47
We released 2nd service on same Juno infra.
(2015/10/20 ~)
Adding domain(2nd): cloud.z.com
49
Diferrent API endpoints in a separate Domain
Multi-Domains and Multi-endpoint
50
Endpoint configuration on keystone
52
OpenStack Juno: 2 service cluster, released
Mikumo ConoHa Mikumo Anzu
Mikumo = 美雲 =
Beautiful cloud
New Juno region released:
10/26/2015
53
• Service model: Public cloud by KVM
• Network: 10Gbps wired(10GBase SFP+)
• Network model:
– Flat-VLAN + Neutron ML2 ovs-VXLAN overlay
+ ML2 LinuxBridge(SaaS only)
– IPv6/IPv4 dualstack
• LBaaS: LVS-DSR(original)
• Public API
– Provided the public API (v2 Domain)
• Compute node: ALL SSD for booting OS
– Without Cinder boot
• Glance: provided
• Cinder: SSD NexentaStore zfs (SDS)
• Swift (shared Juno cluster)
• Cobbler deply on under-cloud
– Ansible configuration
• SaaS original service with keystone auth
– Email, web, CPanel and WordPress
OpenStack Juno: 2 service cluster, released
• Service model: Public cloud by KVM
• Network: 10Gbps wired(10GBase SFP+)
• Network model:
– L4-LB-Nat + Neutron ML2 LinuxBridge VLAN
– IPv4 only
• LBaaS: Brocade ADX L4-NAT-LB(original)
• Public API
– Provided the public API
• Compute node: Flash cached or SSD
• Glance: provided (NetApp offload)
• Cinder: NetApp storage
• Swift (shared Juno cluster)
• Ironic on under-cloud
– Compute server deploy with Ansible config
• Ironic baremetal compute
– Nexsus Cisco for Tagged VLAN module
– ioMemory configuration
54
OpenStack Designate DNSaaS:
ConoHa:
Z.com(OEM):
55
Designate DNS: ConoHa cloud(Juno)
Client API
DNS
Identify
Endpoint
Storage
DB
OpenStack
Keystone
Backend
DB
RabbitMQ
Central
Components of the DNS and GSLB(original) back-end services
Application of Designate DNS:
• DNS as a service(tenant)
• Undercloud Infra-network
• No Keystone auth config
56
OpenStack Cinder Block storage:
ConoHa: NexentaStor(SDS)
AppsCloud: NetApp
57
Compute and Cinder(zfs): SSD
Toshiba enterprise SSD
• The balance of cost and performance we have taken.
• Excellent IOPS performance, low latency
Compute local SSD
The benefits of SSD of Compute of local storage
• The provision of high-speed storage
than cinder boot.
• It is easy to take online live snapshot of vm instance.
• deployment of vm is fast.
ConoHa: Compute option was modified:
• take online live snapshot of vm instance.
http://toshiba.semicon-storage.com/jp/product/storage-
products/publicity/storage-20150914.html
58
NexentaStor zfs cinder: ConoHa cloud(Juno)
Compute
59
NetApp storage: GMO Appscloud(Juno)
If you are using the same Cluster onTAP NetApp a
Glance and Cinder storage, it is possible to offload
a copy of the inter-service of OpenStack as the
processing of NetApp side.
• Create volume from glance image
((glance the image is converted (ex: qcow2 to raw)
required that does not cause the condition)
• Volume QoS limit: Important function of multi-
tenant storage
• Uppper IOPS-limit by volume
60
OpenStack Ironic:
Only AppsCloud:
• Undercloud Ironic deploy
• Multi-tenant Ironic deploy
61
Ironic with undercloud: GMO Appscloud(Juno)
For Compute server deployment.
Kilo Ironic and All-in-one
• Compute server: 10G boot
• Clout-init: network
• Compute setup: Ansible
Under-cloud Ironic(Kilo):
It will use a different
network and Ironic
Baremetal dhcp for Service
baremetal compute
Ironic(Kilo).
(OOO seed server)
Trunk allowed vlan, LACP
62
Ironic(Kilo) baremetal: GMO Appscloud(Juno)
Boot baremetal instance
• baremetal server
(with Fusion ioMemory SanDisk)
• 1G x4 bonding + Tagged allowed VLAN
• Clout-init: network + lldp
• Network: Nexsus Cisco
Allowd VLAN security
Ironic Kilo + Juno: Fine
• Ironic Python driver
• Whole Image write
• Windows: OK
63
Ironic network multi-tenant separation
for Mitaka
• https://wiki.openstack.org/wiki/Meetings/Ironic-neutron
• Bare metal physical connectivity scenarios - supported and unsupported
https://docs.google.com/document/d/1a-
DX4FQZoX1SdTOd9w_Ug6kCKdY1wfrDcR3SKVhWlcQ/view?usp=sharing
• サポートされるシナリオが図解されています(Libertyにおけるもの)
• RackspaceのonMetalの実装もLibertyでは特殊な例
• Neutronがtrunk allowed vlan(tagged)を表現できない(in Liberty)
• Mitaka待ち https://etherpad.openstack.org/p/summit-mitaka-ironic
• ThinkITに解説を参照
https://thinkit.co.jp/article/8443
連載: OpenStack Summit Tokyo レポート
Ironic最新動向:待望のマルチテナント対応が視野に。ストレージや運用自動化も進展(2015年11月26日(木))
重松 光浩(NTT ソフトウェアイノベーションセンタ), 高田 唯子(NEC BI統括ユニット)
64
Ironic network multi-tenant separation: model
• Ironic neutron ML2 driver Integration
https://blueprints.launchpad.net/nova/+spec/ironic-networks-support
• Single port
• LAG port (bonding)
• MLAG port (LACP)
• Trunk and multiple tagged VLAN or VXLAN(本気かどうか?)
• Only support ML2 VLAN tunneling network
• LinuxBridge ML2 VLAN tunnel compute
• ovs ML2 VLAN tunnel compute, ovs ML2 VXLAN tunnel
• GMO AppsCloudのモデルでは、undercloud Ironic, multi-tenent Ironicともに
• MLAG port (LACP)
• Trunk and multiple tagged VLAN + vlan allowed
• Vlan allowedがmulti-tenantのセキュリティ設定の要
65
Ironic network: rackspace onMetal = GMO AppsCloud
for Mitaka
• Vlan aware VMs
• https://blueprints.launchpad.net/neutron/+spec/vlan-aware-vms
• VMの中にtagged vlanが通る
• これと同じようにして、baremetalにもというらしいのだが
• Rackspace OnMetal
• 現実的実装 : https://github.com/rackerlabs/ironic-neutron-plugin
• 製品の説明 : https://www.rackspace.com/knowledge_center/article/create-onmetal-
cloud-servers
• ユーザ目線での情報:
https://major.io/2015/08/21/using-systemd-networkd-with-bonding-on-rackspaces-
onmetal-servers/
• Rackspaceも考えることは一緒だった << bonding + tagged VLAN
• ほぼ、我々と同じような実装
66
• Service model: Public cloud by KVM
• Network: 10Gbps wired(10GBase SFP+)
• Network model:
– Flat-VLAN + Neutron ML2 ovs-VXLAN overlay
+ ML2 LinuxBridge(SaaS only)
– IPv6/IPv4 dualstack
• LBaaS: LVS-DSR(original)
• Public API
– Provided the public API (v2 Domain)
• Compute node: ALL SSD for booting OS
– Without Cinder boot
• Glance: provided
• Cinder: SSD NexentaStore zfs (SDS)
• Swift (shared Juno cluster)
• Cobbler deply on under-cloud
– Ansible configuration
• SaaS original service with keystone auth
– Email, web, CPanel and WordPress
OpenStack Juno: 2 service cluster, released
• Service model: Public cloud by KVM
• Network: 10Gbps wired(10GBase SFP+)
• Network model:
– L4-LB-Nat + Neutron ML2 LinuxBridge VLAN
– IPv4 only
• LBaaS: Brocade ADX L4-NAT-LB(original)
• Public API
– Provided the public API
• Compute node: Flash cached or SSD
• Glance: provided (NetApp offload)
• Cinder: NetApp storage
• Swift (shared Juno cluster)
• Ironic on under-cloud
– Compute server deploy with Ansible config
• Ironic baremetal compute
– Nexsus Cisco for Tagged VLAN module
– ioMemory configuration
67
OpenStack Swift: shared cluster
68
Swift cluster (Havana to Juno upgrade)
SSD storage:
container/account server
at every zone
69
swift proxy
keystone
OpenStack Swift cluster (5 zones, 3 copy)
swift proxy
keystone
LVS-DSrLVS-DSR HAProxy(SSL)HAProxy(SSL)
Xeon E3-1230 3.3GHz
Memory 16GB
Xeon E3-1230 3.3GHz
Memory 16GB
Xeon E5620 2.4GHz x 2CPU
Memory 64GB
swift objects
swift objects
Xeon E3-1230 3.3GHz
swift account
swift container
Xeon E5620 2.4GHz x 2CPU
Memory 64GB, SSD x 2
swift objects
swift objects
Xeon E3-1230 3.3GHz
swift account
swift container
Xeon E5620 2.4GHz x 2CPU
Memory 64GB, SSD x 2
swift objects
swift objects
Xeon E3-1230 3.3GHz
swift account
swift container
Xeon E5620 2.4GHz x 2CPU
Memory 64GB, SSD x 2
swift objects
swift objects
Xeon E3-1230 3.3GHz
swift account
swift container
Xeon E5620 2.4GHz x 2CPU
Memory 64GB, SSD x 2
swift objects
swift objects
Xeon E3-1230 3.3GHz
swift account
swift container
Xeon E5620 2.4GHz x 2CPU
Memory 64GB, SSD x 2
70
swift objects
swift objects
swift objects
swift objects
swift objects
swift objects
swift objects
swift objects
swift objects
swift objects
swift proxy keystone
Havana AppsCloud
swift proxy keystone
Grizzly ConoHa
Havana
To
Juno
swift account
swift container
swift account
swift container
swift account
swift container
swift account
swift container
swift account
swift container
swift proxy keystone
Juno ConoHa
swift proxy keystone
Juno AppsCloud
Swift cluster: multi-auth and multi-endpoint
swift proxy keystone
Juno Z.com
71
ceilometer-log の一部 (request count)
72
• Juno release swift 2.2 el6 (self build: なんとか作った)
Swift: Havana to Juno upgrade: el6-RPMS build
73
Swift: Junoより先のupgrade
• Kilo以降の開発は確実に python 2.7以降の検証しかされてない
– >> python 2.6で動くかどうかは、確実に機能テストをしてから適用するべき
• Python 2.7 でパッケージ作成も検討
– >> 冗長片系づつ更新するので、問題なさそう (◎: 最有力)
– Python 3.4で動かす意義: asyncio thread (△: Swiftには反映されていない)
• go-lang swiftは?
– Hummingbird swift (go-lang)
– https://github.com/openstack/swift/tree/feature/hummingbird/go
– これまで、Plugin作ったもの>> go-langにする必要が出てくる (△: ここがつらい)
74
Finally:
The GMO AppsCloud in Juno OpenStack it was released on 10/27/2015.
• Deployment of SanDisk Fusion ioMemory by Kilo Ironic on Juno OpenSack I can also.
• Compute server was deployed by Kilo Ironic with under-cloud All-in-One openstack.
Compute server configuration was deployed by Ansible.
• Cinder and Glance was provied NetApp copyoffload storage mechanism.
• LbaaS is Brocade ADX NAT mode original driver.
• Linux Bridge Neutron mode is best performance without L3 switch
On the otherhand; Juno OpenStack ConoHa released on 05/18/2015.
• Designate DNS and GSLB service was started on ConoHa.
• Cinder storage is SDS provied NexentaStor zfs storage for single volume type.
• LBaaS is LVS-DSR original driver.
• ovs-VXLAN overlay Neutron mode is more high degree of freedom.
• And Z.com OEM openstack domain was living together in ConoHa
75
Fin.
76
Develop OpenStack related tools
Tool that create Docker host.
Golang
Develop Vagrant provider for ConoHa.
Fix a problem and pull request.
Docker Machine
https://github.com/hironobu-s/vagrant-conoha
77
CLI tool that handle ConoHa specific APIs
Golang
Develop plugin that enable to save media files
to Swift(Object Store)
Develop OpenStack related tools
https://github.com/hironobu-s/conoha-iso
https://wordpress.org/plugins/conoha-object-sync/

Contenu connexe

Tendances

大規模サービスを支えるネットワークインフラの全貌
大規模サービスを支えるネットワークインフラの全貌大規模サービスを支えるネットワークインフラの全貌
大規模サービスを支えるネットワークインフラの全貌LINE Corporation
 
Redmineとgitの 連携利用事例
Redmineとgitの 連携利用事例Redmineとgitの 連携利用事例
Redmineとgitの 連携利用事例Tomohisa Kusukawa
 
Unified JVM Logging
Unified JVM LoggingUnified JVM Logging
Unified JVM LoggingYuji Kubota
 
PGOを用いたPostgreSQL on Kubernetes入門(PostgreSQL Conference Japan 2022 発表資料)
PGOを用いたPostgreSQL on Kubernetes入門(PostgreSQL Conference Japan 2022 発表資料)PGOを用いたPostgreSQL on Kubernetes入門(PostgreSQL Conference Japan 2022 発表資料)
PGOを用いたPostgreSQL on Kubernetes入門(PostgreSQL Conference Japan 2022 発表資料)NTT DATA Technology & Innovation
 
Apache Kafkaって本当に大丈夫?~故障検証のオーバービューと興味深い挙動の紹介~
Apache Kafkaって本当に大丈夫?~故障検証のオーバービューと興味深い挙動の紹介~Apache Kafkaって本当に大丈夫?~故障検証のオーバービューと興味深い挙動の紹介~
Apache Kafkaって本当に大丈夫?~故障検証のオーバービューと興味深い挙動の紹介~NTT DATA OSS Professional Services
 
トランザクションの設計と進化
トランザクションの設計と進化トランザクションの設計と進化
トランザクションの設計と進化Kumazaki Hiroki
 
不揮発メモリ(NVDIMM)とLinuxの対応動向について
不揮発メモリ(NVDIMM)とLinuxの対応動向について不揮発メモリ(NVDIMM)とLinuxの対応動向について
不揮発メモリ(NVDIMM)とLinuxの対応動向についてYasunori Goto
 
【第26回Elasticsearch勉強会】Logstashとともに振り返る、やっちまった事例ごった煮
【第26回Elasticsearch勉強会】Logstashとともに振り返る、やっちまった事例ごった煮【第26回Elasticsearch勉強会】Logstashとともに振り返る、やっちまった事例ごった煮
【第26回Elasticsearch勉強会】Logstashとともに振り返る、やっちまった事例ごった煮Hibino Hisashi
 
DockerとKubernetesをかけめぐる
DockerとKubernetesをかけめぐるDockerとKubernetesをかけめぐる
DockerとKubernetesをかけめぐるKohei Tokunaga
 
コンテナ未経験新人が学ぶコンテナ技術入門
コンテナ未経験新人が学ぶコンテナ技術入門コンテナ未経験新人が学ぶコンテナ技術入門
コンテナ未経験新人が学ぶコンテナ技術入門Kohei Tokunaga
 
Dockerの期待と現実~Docker都市伝説はなぜ生まれるのか~
Dockerの期待と現実~Docker都市伝説はなぜ生まれるのか~Dockerの期待と現実~Docker都市伝説はなぜ生まれるのか~
Dockerの期待と現実~Docker都市伝説はなぜ生まれるのか~Masahito Zembutsu
 
ネットワークでなぜ遅延が生じるのか
ネットワークでなぜ遅延が生じるのかネットワークでなぜ遅延が生じるのか
ネットワークでなぜ遅延が生じるのかJun Kato
 
BuildKitによる高速でセキュアなイメージビルド
BuildKitによる高速でセキュアなイメージビルドBuildKitによる高速でセキュアなイメージビルド
BuildKitによる高速でセキュアなイメージビルドAkihiro Suda
 
ロードバランスへの長い道
ロードバランスへの長い道ロードバランスへの長い道
ロードバランスへの長い道Jun Kato
 
実践!OpenTelemetry と OSS を使った Observability 基盤の構築(CloudNative Days Tokyo 2022 発...
実践!OpenTelemetry と OSS を使った Observability 基盤の構築(CloudNative Days Tokyo 2022 発...実践!OpenTelemetry と OSS を使った Observability 基盤の構築(CloudNative Days Tokyo 2022 発...
実践!OpenTelemetry と OSS を使った Observability 基盤の構築(CloudNative Days Tokyo 2022 発...NTT DATA Technology & Innovation
 
コンテナネットワーキング(CNI)最前線
コンテナネットワーキング(CNI)最前線コンテナネットワーキング(CNI)最前線
コンテナネットワーキング(CNI)最前線Motonori Shindo
 
Linux女子部 iptables復習編
Linux女子部 iptables復習編Linux女子部 iptables復習編
Linux女子部 iptables復習編Etsuji Nakai
 
CXL_説明_公開用.pdf
CXL_説明_公開用.pdfCXL_説明_公開用.pdf
CXL_説明_公開用.pdfYasunori Goto
 

Tendances (20)

大規模サービスを支えるネットワークインフラの全貌
大規模サービスを支えるネットワークインフラの全貌大規模サービスを支えるネットワークインフラの全貌
大規模サービスを支えるネットワークインフラの全貌
 
Redmineとgitの 連携利用事例
Redmineとgitの 連携利用事例Redmineとgitの 連携利用事例
Redmineとgitの 連携利用事例
 
Unified JVM Logging
Unified JVM LoggingUnified JVM Logging
Unified JVM Logging
 
PGOを用いたPostgreSQL on Kubernetes入門(PostgreSQL Conference Japan 2022 発表資料)
PGOを用いたPostgreSQL on Kubernetes入門(PostgreSQL Conference Japan 2022 発表資料)PGOを用いたPostgreSQL on Kubernetes入門(PostgreSQL Conference Japan 2022 発表資料)
PGOを用いたPostgreSQL on Kubernetes入門(PostgreSQL Conference Japan 2022 発表資料)
 
Apache Kafkaって本当に大丈夫?~故障検証のオーバービューと興味深い挙動の紹介~
Apache Kafkaって本当に大丈夫?~故障検証のオーバービューと興味深い挙動の紹介~Apache Kafkaって本当に大丈夫?~故障検証のオーバービューと興味深い挙動の紹介~
Apache Kafkaって本当に大丈夫?~故障検証のオーバービューと興味深い挙動の紹介~
 
トランザクションの設計と進化
トランザクションの設計と進化トランザクションの設計と進化
トランザクションの設計と進化
 
不揮発メモリ(NVDIMM)とLinuxの対応動向について
不揮発メモリ(NVDIMM)とLinuxの対応動向について不揮発メモリ(NVDIMM)とLinuxの対応動向について
不揮発メモリ(NVDIMM)とLinuxの対応動向について
 
【第26回Elasticsearch勉強会】Logstashとともに振り返る、やっちまった事例ごった煮
【第26回Elasticsearch勉強会】Logstashとともに振り返る、やっちまった事例ごった煮【第26回Elasticsearch勉強会】Logstashとともに振り返る、やっちまった事例ごった煮
【第26回Elasticsearch勉強会】Logstashとともに振り返る、やっちまった事例ごった煮
 
DockerとKubernetesをかけめぐる
DockerとKubernetesをかけめぐるDockerとKubernetesをかけめぐる
DockerとKubernetesをかけめぐる
 
Docker Compose 徹底解説
Docker Compose 徹底解説Docker Compose 徹底解説
Docker Compose 徹底解説
 
Argo CD Deep Dive
Argo CD Deep DiveArgo CD Deep Dive
Argo CD Deep Dive
 
コンテナ未経験新人が学ぶコンテナ技術入門
コンテナ未経験新人が学ぶコンテナ技術入門コンテナ未経験新人が学ぶコンテナ技術入門
コンテナ未経験新人が学ぶコンテナ技術入門
 
Dockerの期待と現実~Docker都市伝説はなぜ生まれるのか~
Dockerの期待と現実~Docker都市伝説はなぜ生まれるのか~Dockerの期待と現実~Docker都市伝説はなぜ生まれるのか~
Dockerの期待と現実~Docker都市伝説はなぜ生まれるのか~
 
ネットワークでなぜ遅延が生じるのか
ネットワークでなぜ遅延が生じるのかネットワークでなぜ遅延が生じるのか
ネットワークでなぜ遅延が生じるのか
 
BuildKitによる高速でセキュアなイメージビルド
BuildKitによる高速でセキュアなイメージビルドBuildKitによる高速でセキュアなイメージビルド
BuildKitによる高速でセキュアなイメージビルド
 
ロードバランスへの長い道
ロードバランスへの長い道ロードバランスへの長い道
ロードバランスへの長い道
 
実践!OpenTelemetry と OSS を使った Observability 基盤の構築(CloudNative Days Tokyo 2022 発...
実践!OpenTelemetry と OSS を使った Observability 基盤の構築(CloudNative Days Tokyo 2022 発...実践!OpenTelemetry と OSS を使った Observability 基盤の構築(CloudNative Days Tokyo 2022 発...
実践!OpenTelemetry と OSS を使った Observability 基盤の構築(CloudNative Days Tokyo 2022 発...
 
コンテナネットワーキング(CNI)最前線
コンテナネットワーキング(CNI)最前線コンテナネットワーキング(CNI)最前線
コンテナネットワーキング(CNI)最前線
 
Linux女子部 iptables復習編
Linux女子部 iptables復習編Linux女子部 iptables復習編
Linux女子部 iptables復習編
 
CXL_説明_公開用.pdf
CXL_説明_公開用.pdfCXL_説明_公開用.pdf
CXL_説明_公開用.pdf
 

En vedette

AmebaのOpenStack - OpenStack最新情報セミナー 2015年12月
AmebaのOpenStack - OpenStack最新情報セミナー 2015年12月AmebaのOpenStack - OpenStack最新情報セミナー 2015年12月
AmebaのOpenStack - OpenStack最新情報セミナー 2015年12月VirtualTech Japan Inc.
 
サイバーエージェント様 発表「OpenStackのNWと物理の話」
サイバーエージェント様 発表「OpenStackのNWと物理の話」サイバーエージェント様 発表「OpenStackのNWと物理の話」
サイバーエージェント様 発表「OpenStackのNWと物理の話」VirtualTech Japan Inc.
 
DeNAがオンプレでこれからやろうとしてること - OpenStack最新情報セミナー 2015年12月
DeNAがオンプレでこれからやろうとしてること - OpenStack最新情報セミナー 2015年12月DeNAがオンプレでこれからやろうとしてること - OpenStack最新情報セミナー 2015年12月
DeNAがオンプレでこれからやろうとしてること - OpenStack最新情報セミナー 2015年12月VirtualTech Japan Inc.
 
NTTドコモ様 導入事例 OpenStack Summit 2015 Tokyo 講演「After One year of OpenStack Cloud...
NTTドコモ様 導入事例 OpenStack Summit 2015 Tokyo 講演「After One year of OpenStack Cloud...NTTドコモ様 導入事例 OpenStack Summit 2015 Tokyo 講演「After One year of OpenStack Cloud...
NTTドコモ様 導入事例 OpenStack Summit 2015 Tokyo 講演「After One year of OpenStack Cloud...VirtualTech Japan Inc.
 
Ironicを運用して半年が経過しました - OpenStack最新情報セミナー(2016年7月)
Ironicを運用して半年が経過しました  - OpenStack最新情報セミナー(2016年7月)Ironicを運用して半年が経過しました  - OpenStack最新情報セミナー(2016年7月)
Ironicを運用して半年が経過しました - OpenStack最新情報セミナー(2016年7月)VirtualTech Japan Inc.
 
2015 0807 ConoHa I am the bone of the OpenStack API CLI tool
2015 0807 ConoHa I am the bone of the OpenStack API CLI tool2015 0807 ConoHa I am the bone of the OpenStack API CLI tool
2015 0807 ConoHa I am the bone of the OpenStack API CLI toolNaoto Gohko
 
OpenStack cloud for ConoHa, Z.com and GMO AppsCloud in okinawa opendays 2015 ...
OpenStack cloud for ConoHa, Z.com and GMO AppsCloud in okinawa opendays 2015 ...OpenStack cloud for ConoHa, Z.com and GMO AppsCloud in okinawa opendays 2015 ...
OpenStack cloud for ConoHa, Z.com and GMO AppsCloud in okinawa opendays 2015 ...Naoto Gohko
 
明日から試せる!ソフトウエアベースストレージ「ScaleIO」のご紹介 - OpenStack最新情報セミナー 2015年9月
明日から試せる!ソフトウエアベースストレージ「ScaleIO」のご紹介 - OpenStack最新情報セミナー 2015年9月明日から試せる!ソフトウエアベースストレージ「ScaleIO」のご紹介 - OpenStack最新情報セミナー 2015年9月
明日から試せる!ソフトウエアベースストレージ「ScaleIO」のご紹介 - OpenStack最新情報セミナー 2015年9月VirtualTech Japan Inc.
 
OpenStack ComputingはHyper-Convergedの夢を見るのか?
OpenStack ComputingはHyper-Convergedの夢を見るのか?OpenStack ComputingはHyper-Convergedの夢を見るのか?
OpenStack ComputingはHyper-Convergedの夢を見るのか?Naoto Gohko
 
2017 0306 Apache OpenWhisk starting
2017 0306 Apache OpenWhisk starting2017 0306 Apache OpenWhisk starting
2017 0306 Apache OpenWhisk startingNaoto Gohko
 
F.O.Xを支える技術
F.O.Xを支える技術F.O.Xを支える技術
F.O.Xを支える技術Yuto Suzuki
 
【OpenStack共同検証ラボ】OpenStack監視・ログ分析基盤の作り方 - OpenStack最新情報セミナー(2016年7月)
【OpenStack共同検証ラボ】OpenStack監視・ログ分析基盤の作り方 - OpenStack最新情報セミナー(2016年7月)【OpenStack共同検証ラボ】OpenStack監視・ログ分析基盤の作り方 - OpenStack最新情報セミナー(2016年7月)
【OpenStack共同検証ラボ】OpenStack監視・ログ分析基盤の作り方 - OpenStack最新情報セミナー(2016年7月)VirtualTech Japan Inc.
 
OpenStack-Ansibleで作るOpenStack HA環境 手順書解説 - OpenStack最新情報セミナー 2016年3月
OpenStack-Ansibleで作るOpenStack HA環境 手順書解説 - OpenStack最新情報セミナー 2016年3月OpenStack-Ansibleで作るOpenStack HA環境 手順書解説 - OpenStack最新情報セミナー 2016年3月
OpenStack-Ansibleで作るOpenStack HA環境 手順書解説 - OpenStack最新情報セミナー 2016年3月VirtualTech Japan Inc.
 
OpenStackやりたい人、必見!ネットワークから見たOpenStack導入のヒント
OpenStackやりたい人、必見!ネットワークから見たOpenStack導入のヒントOpenStackやりたい人、必見!ネットワークから見たOpenStack導入のヒント
OpenStackやりたい人、必見!ネットワークから見たOpenStack導入のヒントBrocade
 
パブリッククラウドConoHaを使ってOpenStack APIを理解する
パブリッククラウドConoHaを使ってOpenStack APIを理解するパブリッククラウドConoHaを使ってOpenStack APIを理解する
パブリッククラウドConoHaを使ってOpenStack APIを理解するHironobu Saitoh
 
【Brocade OpenStack ソリューション】LBaaS プラグイン
【Brocade OpenStack ソリューション】LBaaS プラグイン【Brocade OpenStack ソリューション】LBaaS プラグイン
【Brocade OpenStack ソリューション】LBaaS プラグインBrocade
 
Janog36 ConoHa: Making GSLB - OpenStack Designate and PowerDNS
Janog36 ConoHa: Making GSLB - OpenStack Designate and PowerDNSJanog36 ConoHa: Making GSLB - OpenStack Designate and PowerDNS
Janog36 ConoHa: Making GSLB - OpenStack Designate and PowerDNSNaoto Gohko
 
Openstack days taiwan 2016 0712
Openstack days taiwan 2016 0712Openstack days taiwan 2016 0712
Openstack days taiwan 2016 0712Naoto Gohko
 
Openstack summit walk DNSaaS 2015-0713 Summit LT
Openstack summit walk DNSaaS 2015-0713 Summit LTOpenstack summit walk DNSaaS 2015-0713 Summit LT
Openstack summit walk DNSaaS 2015-0713 Summit LTNaoto Gohko
 

En vedette (20)

AmebaのOpenStack - OpenStack最新情報セミナー 2015年12月
AmebaのOpenStack - OpenStack最新情報セミナー 2015年12月AmebaのOpenStack - OpenStack最新情報セミナー 2015年12月
AmebaのOpenStack - OpenStack最新情報セミナー 2015年12月
 
サイバーエージェント様 発表「OpenStackのNWと物理の話」
サイバーエージェント様 発表「OpenStackのNWと物理の話」サイバーエージェント様 発表「OpenStackのNWと物理の話」
サイバーエージェント様 発表「OpenStackのNWと物理の話」
 
DeNAがオンプレでこれからやろうとしてること - OpenStack最新情報セミナー 2015年12月
DeNAがオンプレでこれからやろうとしてること - OpenStack最新情報セミナー 2015年12月DeNAがオンプレでこれからやろうとしてること - OpenStack最新情報セミナー 2015年12月
DeNAがオンプレでこれからやろうとしてること - OpenStack最新情報セミナー 2015年12月
 
NTTドコモ様 導入事例 OpenStack Summit 2015 Tokyo 講演「After One year of OpenStack Cloud...
NTTドコモ様 導入事例 OpenStack Summit 2015 Tokyo 講演「After One year of OpenStack Cloud...NTTドコモ様 導入事例 OpenStack Summit 2015 Tokyo 講演「After One year of OpenStack Cloud...
NTTドコモ様 導入事例 OpenStack Summit 2015 Tokyo 講演「After One year of OpenStack Cloud...
 
Ironicを運用して半年が経過しました - OpenStack最新情報セミナー(2016年7月)
Ironicを運用して半年が経過しました  - OpenStack最新情報セミナー(2016年7月)Ironicを運用して半年が経過しました  - OpenStack最新情報セミナー(2016年7月)
Ironicを運用して半年が経過しました - OpenStack最新情報セミナー(2016年7月)
 
2015 0807 ConoHa I am the bone of the OpenStack API CLI tool
2015 0807 ConoHa I am the bone of the OpenStack API CLI tool2015 0807 ConoHa I am the bone of the OpenStack API CLI tool
2015 0807 ConoHa I am the bone of the OpenStack API CLI tool
 
OpenStack cloud for ConoHa, Z.com and GMO AppsCloud in okinawa opendays 2015 ...
OpenStack cloud for ConoHa, Z.com and GMO AppsCloud in okinawa opendays 2015 ...OpenStack cloud for ConoHa, Z.com and GMO AppsCloud in okinawa opendays 2015 ...
OpenStack cloud for ConoHa, Z.com and GMO AppsCloud in okinawa opendays 2015 ...
 
明日から試せる!ソフトウエアベースストレージ「ScaleIO」のご紹介 - OpenStack最新情報セミナー 2015年9月
明日から試せる!ソフトウエアベースストレージ「ScaleIO」のご紹介 - OpenStack最新情報セミナー 2015年9月明日から試せる!ソフトウエアベースストレージ「ScaleIO」のご紹介 - OpenStack最新情報セミナー 2015年9月
明日から試せる!ソフトウエアベースストレージ「ScaleIO」のご紹介 - OpenStack最新情報セミナー 2015年9月
 
OpenStack ComputingはHyper-Convergedの夢を見るのか?
OpenStack ComputingはHyper-Convergedの夢を見るのか?OpenStack ComputingはHyper-Convergedの夢を見るのか?
OpenStack ComputingはHyper-Convergedの夢を見るのか?
 
2017 0306 Apache OpenWhisk starting
2017 0306 Apache OpenWhisk starting2017 0306 Apache OpenWhisk starting
2017 0306 Apache OpenWhisk starting
 
F.O.Xを支える技術
F.O.Xを支える技術F.O.Xを支える技術
F.O.Xを支える技術
 
【OpenStack共同検証ラボ】OpenStack監視・ログ分析基盤の作り方 - OpenStack最新情報セミナー(2016年7月)
【OpenStack共同検証ラボ】OpenStack監視・ログ分析基盤の作り方 - OpenStack最新情報セミナー(2016年7月)【OpenStack共同検証ラボ】OpenStack監視・ログ分析基盤の作り方 - OpenStack最新情報セミナー(2016年7月)
【OpenStack共同検証ラボ】OpenStack監視・ログ分析基盤の作り方 - OpenStack最新情報セミナー(2016年7月)
 
OpenStack-Ansibleで作るOpenStack HA環境 手順書解説 - OpenStack最新情報セミナー 2016年3月
OpenStack-Ansibleで作るOpenStack HA環境 手順書解説 - OpenStack最新情報セミナー 2016年3月OpenStack-Ansibleで作るOpenStack HA環境 手順書解説 - OpenStack最新情報セミナー 2016年3月
OpenStack-Ansibleで作るOpenStack HA環境 手順書解説 - OpenStack最新情報セミナー 2016年3月
 
OpenStackやりたい人、必見!ネットワークから見たOpenStack導入のヒント
OpenStackやりたい人、必見!ネットワークから見たOpenStack導入のヒントOpenStackやりたい人、必見!ネットワークから見たOpenStack導入のヒント
OpenStackやりたい人、必見!ネットワークから見たOpenStack導入のヒント
 
Keystone er
Keystone erKeystone er
Keystone er
 
パブリッククラウドConoHaを使ってOpenStack APIを理解する
パブリッククラウドConoHaを使ってOpenStack APIを理解するパブリッククラウドConoHaを使ってOpenStack APIを理解する
パブリッククラウドConoHaを使ってOpenStack APIを理解する
 
【Brocade OpenStack ソリューション】LBaaS プラグイン
【Brocade OpenStack ソリューション】LBaaS プラグイン【Brocade OpenStack ソリューション】LBaaS プラグイン
【Brocade OpenStack ソリューション】LBaaS プラグイン
 
Janog36 ConoHa: Making GSLB - OpenStack Designate and PowerDNS
Janog36 ConoHa: Making GSLB - OpenStack Designate and PowerDNSJanog36 ConoHa: Making GSLB - OpenStack Designate and PowerDNS
Janog36 ConoHa: Making GSLB - OpenStack Designate and PowerDNS
 
Openstack days taiwan 2016 0712
Openstack days taiwan 2016 0712Openstack days taiwan 2016 0712
Openstack days taiwan 2016 0712
 
Openstack summit walk DNSaaS 2015-0713 Summit LT
Openstack summit walk DNSaaS 2015-0713 Summit LTOpenstack summit walk DNSaaS 2015-0713 Summit LT
Openstack summit walk DNSaaS 2015-0713 Summit LT
 

Similaire à GMOインターネット様 発表「OpenStackのモデルの最適化とConoHa, Z.comとGMOアプリクラウドへの適用」 - OpenStack最新情報セミナー 2015年12月

OpenStack 2012 fall summit observation - Quantum/SDN
OpenStack 2012 fall summit observation - Quantum/SDNOpenStack 2012 fall summit observation - Quantum/SDN
OpenStack 2012 fall summit observation - Quantum/SDNTe-Yen Liu
 
Support of containerized workloads in ONAP
Support of containerized workloads in ONAPSupport of containerized workloads in ONAP
Support of containerized workloads in ONAPVictor Morales
 
OpenStack Quantum: Cloud Carrier Summit 2012
OpenStack Quantum: Cloud Carrier Summit 2012OpenStack Quantum: Cloud Carrier Summit 2012
OpenStack Quantum: Cloud Carrier Summit 2012Dan Wendlandt
 
Quantum essex summary
Quantum essex summaryQuantum essex summary
Quantum essex summaryDan Wendlandt
 
ONUG Tutorial: Bridges and Tunnels Drive Through OpenStack Networking
ONUG Tutorial: Bridges and Tunnels Drive Through OpenStack NetworkingONUG Tutorial: Bridges and Tunnels Drive Through OpenStack Networking
ONUG Tutorial: Bridges and Tunnels Drive Through OpenStack Networkingmarkmcclain
 
Nvp deep dive_session_cee-day
Nvp deep dive_session_cee-dayNvp deep dive_session_cee-day
Nvp deep dive_session_cee-dayyfauser
 
Openstack Quantum yahoo meetup 1 23-13
Openstack Quantum yahoo meetup 1 23-13Openstack Quantum yahoo meetup 1 23-13
Openstack Quantum yahoo meetup 1 23-13Dan Wendlandt
 
Open coud networking at full speed - Avi Alkobi
Open coud networking at full speed - Avi AlkobiOpen coud networking at full speed - Avi Alkobi
Open coud networking at full speed - Avi AlkobiOpenInfra Days Poland 2019
 
Quantum - Virtual networks for Openstack
Quantum - Virtual networks for OpenstackQuantum - Virtual networks for Openstack
Quantum - Virtual networks for Openstacksalv_orlando
 
What_s_New_in_OpenShift_Container_Platform_4.6.pdf
What_s_New_in_OpenShift_Container_Platform_4.6.pdfWhat_s_New_in_OpenShift_Container_Platform_4.6.pdf
What_s_New_in_OpenShift_Container_Platform_4.6.pdfchalermpany
 
Open stack networking_101_update_2014
Open stack networking_101_update_2014Open stack networking_101_update_2014
Open stack networking_101_update_2014yfauser
 
Bridges and Tunnels a Drive Through OpenStack Networking
Bridges and Tunnels a Drive Through OpenStack NetworkingBridges and Tunnels a Drive Through OpenStack Networking
Bridges and Tunnels a Drive Through OpenStack Networkingmarkmcclain
 
[Rakuten TechConf2014] [F-4] At Rakuten, The Rakuten OpenStack Platform and B...
[Rakuten TechConf2014] [F-4] At Rakuten, The Rakuten OpenStack Platform and B...[Rakuten TechConf2014] [F-4] At Rakuten, The Rakuten OpenStack Platform and B...
[Rakuten TechConf2014] [F-4] At Rakuten, The Rakuten OpenStack Platform and B...Rakuten Group, Inc.
 
20141111_SOS3_Gallo
20141111_SOS3_Gallo20141111_SOS3_Gallo
20141111_SOS3_GalloAndrea Gallo
 
Kubernetes vs dockers swarm supporting onap oom on multi-cloud multi-stack en...
Kubernetes vs dockers swarm supporting onap oom on multi-cloud multi-stack en...Kubernetes vs dockers swarm supporting onap oom on multi-cloud multi-stack en...
Kubernetes vs dockers swarm supporting onap oom on multi-cloud multi-stack en...Arthur Berezin
 
Tech Talk by Gal Sagie: Kuryr - Connecting containers networking to OpenStack...
Tech Talk by Gal Sagie: Kuryr - Connecting containers networking to OpenStack...Tech Talk by Gal Sagie: Kuryr - Connecting containers networking to OpenStack...
Tech Talk by Gal Sagie: Kuryr - Connecting containers networking to OpenStack...nvirters
 
Building managedprivatecloud kvh_vancouversummit
Building managedprivatecloud kvh_vancouversummitBuilding managedprivatecloud kvh_vancouversummit
Building managedprivatecloud kvh_vancouversummitmatsunota
 

Similaire à GMOインターネット様 発表「OpenStackのモデルの最適化とConoHa, Z.comとGMOアプリクラウドへの適用」 - OpenStack最新情報セミナー 2015年12月 (20)

OpenStack 2012 fall summit observation - Quantum/SDN
OpenStack 2012 fall summit observation - Quantum/SDNOpenStack 2012 fall summit observation - Quantum/SDN
OpenStack 2012 fall summit observation - Quantum/SDN
 
Support of containerized workloads in ONAP
Support of containerized workloads in ONAPSupport of containerized workloads in ONAP
Support of containerized workloads in ONAP
 
OpenStack Quantum: Cloud Carrier Summit 2012
OpenStack Quantum: Cloud Carrier Summit 2012OpenStack Quantum: Cloud Carrier Summit 2012
OpenStack Quantum: Cloud Carrier Summit 2012
 
Quantum essex summary
Quantum essex summaryQuantum essex summary
Quantum essex summary
 
ONUG Tutorial: Bridges and Tunnels Drive Through OpenStack Networking
ONUG Tutorial: Bridges and Tunnels Drive Through OpenStack NetworkingONUG Tutorial: Bridges and Tunnels Drive Through OpenStack Networking
ONUG Tutorial: Bridges and Tunnels Drive Through OpenStack Networking
 
Nvp deep dive_session_cee-day
Nvp deep dive_session_cee-dayNvp deep dive_session_cee-day
Nvp deep dive_session_cee-day
 
BRKDCT-2445
BRKDCT-2445BRKDCT-2445
BRKDCT-2445
 
Openstack Quantum yahoo meetup 1 23-13
Openstack Quantum yahoo meetup 1 23-13Openstack Quantum yahoo meetup 1 23-13
Openstack Quantum yahoo meetup 1 23-13
 
Simplify Networking for Containers
Simplify Networking for ContainersSimplify Networking for Containers
Simplify Networking for Containers
 
Open coud networking at full speed - Avi Alkobi
Open coud networking at full speed - Avi AlkobiOpen coud networking at full speed - Avi Alkobi
Open coud networking at full speed - Avi Alkobi
 
Quantum - Virtual networks for Openstack
Quantum - Virtual networks for OpenstackQuantum - Virtual networks for Openstack
Quantum - Virtual networks for Openstack
 
What_s_New_in_OpenShift_Container_Platform_4.6.pdf
What_s_New_in_OpenShift_Container_Platform_4.6.pdfWhat_s_New_in_OpenShift_Container_Platform_4.6.pdf
What_s_New_in_OpenShift_Container_Platform_4.6.pdf
 
Open stack networking_101_update_2014
Open stack networking_101_update_2014Open stack networking_101_update_2014
Open stack networking_101_update_2014
 
Bridges and Tunnels a Drive Through OpenStack Networking
Bridges and Tunnels a Drive Through OpenStack NetworkingBridges and Tunnels a Drive Through OpenStack Networking
Bridges and Tunnels a Drive Through OpenStack Networking
 
State of the OpenDaylight Union
State of the OpenDaylight UnionState of the OpenDaylight Union
State of the OpenDaylight Union
 
[Rakuten TechConf2014] [F-4] At Rakuten, The Rakuten OpenStack Platform and B...
[Rakuten TechConf2014] [F-4] At Rakuten, The Rakuten OpenStack Platform and B...[Rakuten TechConf2014] [F-4] At Rakuten, The Rakuten OpenStack Platform and B...
[Rakuten TechConf2014] [F-4] At Rakuten, The Rakuten OpenStack Platform and B...
 
20141111_SOS3_Gallo
20141111_SOS3_Gallo20141111_SOS3_Gallo
20141111_SOS3_Gallo
 
Kubernetes vs dockers swarm supporting onap oom on multi-cloud multi-stack en...
Kubernetes vs dockers swarm supporting onap oom on multi-cloud multi-stack en...Kubernetes vs dockers swarm supporting onap oom on multi-cloud multi-stack en...
Kubernetes vs dockers swarm supporting onap oom on multi-cloud multi-stack en...
 
Tech Talk by Gal Sagie: Kuryr - Connecting containers networking to OpenStack...
Tech Talk by Gal Sagie: Kuryr - Connecting containers networking to OpenStack...Tech Talk by Gal Sagie: Kuryr - Connecting containers networking to OpenStack...
Tech Talk by Gal Sagie: Kuryr - Connecting containers networking to OpenStack...
 
Building managedprivatecloud kvh_vancouversummit
Building managedprivatecloud kvh_vancouversummitBuilding managedprivatecloud kvh_vancouversummit
Building managedprivatecloud kvh_vancouversummit
 

Plus de VirtualTech Japan Inc.

5G時代のアプリケーションとは 〜 5G+MECを活用した低遅延アプリの実現へ 〜
5G時代のアプリケーションとは 〜 5G+MECを活用した低遅延アプリの実現へ 〜5G時代のアプリケーションとは 〜 5G+MECを活用した低遅延アプリの実現へ 〜
5G時代のアプリケーションとは 〜 5G+MECを活用した低遅延アプリの実現へ 〜VirtualTech Japan Inc.
 
エンジニアが幸せになれる会社を目指します
エンジニアが幸せになれる会社を目指しますエンジニアが幸せになれる会社を目指します
エンジニアが幸せになれる会社を目指しますVirtualTech Japan Inc.
 
今からはじめる! Linuxコマンド入門
今からはじめる! Linuxコマンド入門今からはじめる! Linuxコマンド入門
今からはじめる! Linuxコマンド入門VirtualTech Japan Inc.
 
5G時代のアプリケーション開発とは - 5G+MECを活用した低遅延アプリの実現へ
5G時代のアプリケーション開発とは - 5G+MECを活用した低遅延アプリの実現へ5G時代のアプリケーション開発とは - 5G+MECを活用した低遅延アプリの実現へ
5G時代のアプリケーション開発とは - 5G+MECを活用した低遅延アプリの実現へVirtualTech Japan Inc.
 
Kubernetes雑にまとめてみた 2020年8月版
Kubernetes雑にまとめてみた 2020年8月版Kubernetes雑にまとめてみた 2020年8月版
Kubernetes雑にまとめてみた 2020年8月版VirtualTech Japan Inc.
 
MS Teams + OBS Studio (+ OBS Mac Virtual Camera) でのオンラインセミナーのプロトタイプの構築
MS Teams + OBS Studio (+ OBS Mac Virtual Camera) でのオンラインセミナーのプロトタイプの構築MS Teams + OBS Studio (+ OBS Mac Virtual Camera) でのオンラインセミナーのプロトタイプの構築
MS Teams + OBS Studio (+ OBS Mac Virtual Camera) でのオンラインセミナーのプロトタイプの構築VirtualTech Japan Inc.
 
5G時代のアプリケーション開発とは
5G時代のアプリケーション開発とは5G時代のアプリケーション開発とは
5G時代のアプリケーション開発とはVirtualTech Japan Inc.
 
hbstudy#88 5G+MEC時代のシステム設計
hbstudy#88 5G+MEC時代のシステム設計hbstudy#88 5G+MEC時代のシステム設計
hbstudy#88 5G+MEC時代のシステム設計VirtualTech Japan Inc.
 
通信への課題発掘ワークショップ 「5Gイノベーション」の取り組み
通信への課題発掘ワークショップ 「5Gイノベーション」の取り組み通信への課題発掘ワークショップ 「5Gイノベーション」の取り組み
通信への課題発掘ワークショップ 「5Gイノベーション」の取り組みVirtualTech Japan Inc.
 
Kubernetes雑にまとめてみた 2019年12月版
Kubernetes雑にまとめてみた 2019年12月版Kubernetes雑にまとめてみた 2019年12月版
Kubernetes雑にまとめてみた 2019年12月版VirtualTech Japan Inc.
 
OpenStackを使用したGPU仮想化IaaS環境 事例紹介
OpenStackを使用したGPU仮想化IaaS環境 事例紹介OpenStackを使用したGPU仮想化IaaS環境 事例紹介
OpenStackを使用したGPU仮想化IaaS環境 事例紹介VirtualTech Japan Inc.
 
5Gにまつわる3つの誤解 - 5G×ライブコンテンツ:5G時代の双方向コンテンツとは
5Gにまつわる3つの誤解 - 5G×ライブコンテンツ:5G時代の双方向コンテンツとは5Gにまつわる3つの誤解 - 5G×ライブコンテンツ:5G時代の双方向コンテンツとは
5Gにまつわる3つの誤解 - 5G×ライブコンテンツ:5G時代の双方向コンテンツとはVirtualTech Japan Inc.
 
KubeCon China & MWC Shangai 出張報告
KubeCon China & MWC Shangai 出張報告KubeCon China & MWC Shangai 出張報告
KubeCon China & MWC Shangai 出張報告VirtualTech Japan Inc.
 
NTT Docomo's Challenge looking ahead the world pf 5G × OpenStack - OpenStack最...
NTT Docomo's Challenge looking ahead the world pf 5G × OpenStack - OpenStack最...NTT Docomo's Challenge looking ahead the world pf 5G × OpenStack - OpenStack最...
NTT Docomo's Challenge looking ahead the world pf 5G × OpenStack - OpenStack最...VirtualTech Japan Inc.
 
Introduction of private cloud in LINE - OpenStack最新情報セミナー(2019年2月)
Introduction of private cloud in LINE - OpenStack最新情報セミナー(2019年2月)Introduction of private cloud in LINE - OpenStack最新情報セミナー(2019年2月)
Introduction of private cloud in LINE - OpenStack最新情報セミナー(2019年2月)VirtualTech Japan Inc.
 
Multi-access Edge Computing(MEC)における”Edge”の定義
Multi-access Edge Computing(MEC)における”Edge”の定義Multi-access Edge Computing(MEC)における”Edge”の定義
Multi-access Edge Computing(MEC)における”Edge”の定義VirtualTech Japan Inc.
 
Edge Computing Architecture using GPUs and Kubernetes
Edge Computing Architecture using GPUs and KubernetesEdge Computing Architecture using GPUs and Kubernetes
Edge Computing Architecture using GPUs and KubernetesVirtualTech Japan Inc.
 

Plus de VirtualTech Japan Inc. (20)

5G時代のアプリケーションとは 〜 5G+MECを活用した低遅延アプリの実現へ 〜
5G時代のアプリケーションとは 〜 5G+MECを活用した低遅延アプリの実現へ 〜5G時代のアプリケーションとは 〜 5G+MECを活用した低遅延アプリの実現へ 〜
5G時代のアプリケーションとは 〜 5G+MECを活用した低遅延アプリの実現へ 〜
 
エンジニアが幸せになれる会社を目指します
エンジニアが幸せになれる会社を目指しますエンジニアが幸せになれる会社を目指します
エンジニアが幸せになれる会社を目指します
 
KubeVirt 201 How to Using the GPU
KubeVirt 201 How to Using the GPUKubeVirt 201 How to Using the GPU
KubeVirt 201 How to Using the GPU
 
KubeVirt 101
KubeVirt 101KubeVirt 101
KubeVirt 101
 
今からはじめる! Linuxコマンド入門
今からはじめる! Linuxコマンド入門今からはじめる! Linuxコマンド入門
今からはじめる! Linuxコマンド入門
 
5G時代のアプリケーション開発とは - 5G+MECを活用した低遅延アプリの実現へ
5G時代のアプリケーション開発とは - 5G+MECを活用した低遅延アプリの実現へ5G時代のアプリケーション開発とは - 5G+MECを活用した低遅延アプリの実現へ
5G時代のアプリケーション開発とは - 5G+MECを活用した低遅延アプリの実現へ
 
Kubernetes雑にまとめてみた 2020年8月版
Kubernetes雑にまとめてみた 2020年8月版Kubernetes雑にまとめてみた 2020年8月版
Kubernetes雑にまとめてみた 2020年8月版
 
MS Teams + OBS Studio (+ OBS Mac Virtual Camera) でのオンラインセミナーのプロトタイプの構築
MS Teams + OBS Studio (+ OBS Mac Virtual Camera) でのオンラインセミナーのプロトタイプの構築MS Teams + OBS Studio (+ OBS Mac Virtual Camera) でのオンラインセミナーのプロトタイプの構築
MS Teams + OBS Studio (+ OBS Mac Virtual Camera) でのオンラインセミナーのプロトタイプの構築
 
5G時代のアプリケーション開発とは
5G時代のアプリケーション開発とは5G時代のアプリケーション開発とは
5G時代のアプリケーション開発とは
 
hbstudy#88 5G+MEC時代のシステム設計
hbstudy#88 5G+MEC時代のシステム設計hbstudy#88 5G+MEC時代のシステム設計
hbstudy#88 5G+MEC時代のシステム設計
 
通信への課題発掘ワークショップ 「5Gイノベーション」の取り組み
通信への課題発掘ワークショップ 「5Gイノベーション」の取り組み通信への課題発掘ワークショップ 「5Gイノベーション」の取り組み
通信への課題発掘ワークショップ 「5Gイノベーション」の取り組み
 
Kubernetes雑にまとめてみた 2019年12月版
Kubernetes雑にまとめてみた 2019年12月版Kubernetes雑にまとめてみた 2019年12月版
Kubernetes雑にまとめてみた 2019年12月版
 
OpenStackを使用したGPU仮想化IaaS環境 事例紹介
OpenStackを使用したGPU仮想化IaaS環境 事例紹介OpenStackを使用したGPU仮想化IaaS環境 事例紹介
OpenStackを使用したGPU仮想化IaaS環境 事例紹介
 
Docker超入門
Docker超入門Docker超入門
Docker超入門
 
5Gにまつわる3つの誤解 - 5G×ライブコンテンツ:5G時代の双方向コンテンツとは
5Gにまつわる3つの誤解 - 5G×ライブコンテンツ:5G時代の双方向コンテンツとは5Gにまつわる3つの誤解 - 5G×ライブコンテンツ:5G時代の双方向コンテンツとは
5Gにまつわる3つの誤解 - 5G×ライブコンテンツ:5G時代の双方向コンテンツとは
 
KubeCon China & MWC Shangai 出張報告
KubeCon China & MWC Shangai 出張報告KubeCon China & MWC Shangai 出張報告
KubeCon China & MWC Shangai 出張報告
 
NTT Docomo's Challenge looking ahead the world pf 5G × OpenStack - OpenStack最...
NTT Docomo's Challenge looking ahead the world pf 5G × OpenStack - OpenStack最...NTT Docomo's Challenge looking ahead the world pf 5G × OpenStack - OpenStack最...
NTT Docomo's Challenge looking ahead the world pf 5G × OpenStack - OpenStack最...
 
Introduction of private cloud in LINE - OpenStack最新情報セミナー(2019年2月)
Introduction of private cloud in LINE - OpenStack最新情報セミナー(2019年2月)Introduction of private cloud in LINE - OpenStack最新情報セミナー(2019年2月)
Introduction of private cloud in LINE - OpenStack最新情報セミナー(2019年2月)
 
Multi-access Edge Computing(MEC)における”Edge”の定義
Multi-access Edge Computing(MEC)における”Edge”の定義Multi-access Edge Computing(MEC)における”Edge”の定義
Multi-access Edge Computing(MEC)における”Edge”の定義
 
Edge Computing Architecture using GPUs and Kubernetes
Edge Computing Architecture using GPUs and KubernetesEdge Computing Architecture using GPUs and Kubernetes
Edge Computing Architecture using GPUs and Kubernetes
 

Dernier

Apidays New York 2024 - The Good, the Bad and the Governed by David O'Neill, ...
Apidays New York 2024 - The Good, the Bad and the Governed by David O'Neill, ...Apidays New York 2024 - The Good, the Bad and the Governed by David O'Neill, ...
Apidays New York 2024 - The Good, the Bad and the Governed by David O'Neill, ...apidays
 
Six Myths about Ontologies: The Basics of Formal Ontology
Six Myths about Ontologies: The Basics of Formal OntologySix Myths about Ontologies: The Basics of Formal Ontology
Six Myths about Ontologies: The Basics of Formal Ontologyjohnbeverley2021
 
ICT role in 21st century education and its challenges
ICT role in 21st century education and its challengesICT role in 21st century education and its challenges
ICT role in 21st century education and its challengesrafiqahmad00786416
 
Mcleodganj Call Girls 🥰 8617370543 Service Offer VIP Hot Model
Mcleodganj Call Girls 🥰 8617370543 Service Offer VIP Hot ModelMcleodganj Call Girls 🥰 8617370543 Service Offer VIP Hot Model
Mcleodganj Call Girls 🥰 8617370543 Service Offer VIP Hot ModelDeepika Singh
 
Boost Fertility New Invention Ups Success Rates.pdf
Boost Fertility New Invention Ups Success Rates.pdfBoost Fertility New Invention Ups Success Rates.pdf
Boost Fertility New Invention Ups Success Rates.pdfsudhanshuwaghmare1
 
Artificial Intelligence Chap.5 : Uncertainty
Artificial Intelligence Chap.5 : UncertaintyArtificial Intelligence Chap.5 : Uncertainty
Artificial Intelligence Chap.5 : UncertaintyKhushali Kathiriya
 
[BuildWithAI] Introduction to Gemini.pdf
[BuildWithAI] Introduction to Gemini.pdf[BuildWithAI] Introduction to Gemini.pdf
[BuildWithAI] Introduction to Gemini.pdfSandro Moreira
 
Emergent Methods: Multi-lingual narrative tracking in the news - real-time ex...
Emergent Methods: Multi-lingual narrative tracking in the news - real-time ex...Emergent Methods: Multi-lingual narrative tracking in the news - real-time ex...
Emergent Methods: Multi-lingual narrative tracking in the news - real-time ex...Zilliz
 
FWD Group - Insurer Innovation Award 2024
FWD Group - Insurer Innovation Award 2024FWD Group - Insurer Innovation Award 2024
FWD Group - Insurer Innovation Award 2024The Digital Insurer
 
Apidays New York 2024 - APIs in 2030: The Risk of Technological Sleepwalk by ...
Apidays New York 2024 - APIs in 2030: The Risk of Technological Sleepwalk by ...Apidays New York 2024 - APIs in 2030: The Risk of Technological Sleepwalk by ...
Apidays New York 2024 - APIs in 2030: The Risk of Technological Sleepwalk by ...apidays
 
Modular Monolith - a Practical Alternative to Microservices @ Devoxx UK 2024
Modular Monolith - a Practical Alternative to Microservices @ Devoxx UK 2024Modular Monolith - a Practical Alternative to Microservices @ Devoxx UK 2024
Modular Monolith - a Practical Alternative to Microservices @ Devoxx UK 2024Victor Rentea
 
How to Troubleshoot Apps for the Modern Connected Worker
How to Troubleshoot Apps for the Modern Connected WorkerHow to Troubleshoot Apps for the Modern Connected Worker
How to Troubleshoot Apps for the Modern Connected WorkerThousandEyes
 
Apidays New York 2024 - The value of a flexible API Management solution for O...
Apidays New York 2024 - The value of a flexible API Management solution for O...Apidays New York 2024 - The value of a flexible API Management solution for O...
Apidays New York 2024 - The value of a flexible API Management solution for O...apidays
 
Cloud Frontiers: A Deep Dive into Serverless Spatial Data and FME
Cloud Frontiers:  A Deep Dive into Serverless Spatial Data and FMECloud Frontiers:  A Deep Dive into Serverless Spatial Data and FME
Cloud Frontiers: A Deep Dive into Serverless Spatial Data and FMESafe Software
 
WSO2's API Vision: Unifying Control, Empowering Developers
WSO2's API Vision: Unifying Control, Empowering DevelopersWSO2's API Vision: Unifying Control, Empowering Developers
WSO2's API Vision: Unifying Control, Empowering DevelopersWSO2
 
Corporate and higher education May webinar.pptx
Corporate and higher education May webinar.pptxCorporate and higher education May webinar.pptx
Corporate and higher education May webinar.pptxRustici Software
 
Polkadot JAM Slides - Token2049 - By Dr. Gavin Wood
Polkadot JAM Slides - Token2049 - By Dr. Gavin WoodPolkadot JAM Slides - Token2049 - By Dr. Gavin Wood
Polkadot JAM Slides - Token2049 - By Dr. Gavin WoodJuan lago vázquez
 
AWS Community Day CPH - Three problems of Terraform
AWS Community Day CPH - Three problems of TerraformAWS Community Day CPH - Three problems of Terraform
AWS Community Day CPH - Three problems of TerraformAndrey Devyatkin
 
Why Teams call analytics are critical to your entire business
Why Teams call analytics are critical to your entire businessWhy Teams call analytics are critical to your entire business
Why Teams call analytics are critical to your entire businesspanagenda
 

Dernier (20)

Apidays New York 2024 - The Good, the Bad and the Governed by David O'Neill, ...
Apidays New York 2024 - The Good, the Bad and the Governed by David O'Neill, ...Apidays New York 2024 - The Good, the Bad and the Governed by David O'Neill, ...
Apidays New York 2024 - The Good, the Bad and the Governed by David O'Neill, ...
 
Six Myths about Ontologies: The Basics of Formal Ontology
Six Myths about Ontologies: The Basics of Formal OntologySix Myths about Ontologies: The Basics of Formal Ontology
Six Myths about Ontologies: The Basics of Formal Ontology
 
ICT role in 21st century education and its challenges
ICT role in 21st century education and its challengesICT role in 21st century education and its challenges
ICT role in 21st century education and its challenges
 
Mcleodganj Call Girls 🥰 8617370543 Service Offer VIP Hot Model
Mcleodganj Call Girls 🥰 8617370543 Service Offer VIP Hot ModelMcleodganj Call Girls 🥰 8617370543 Service Offer VIP Hot Model
Mcleodganj Call Girls 🥰 8617370543 Service Offer VIP Hot Model
 
Boost Fertility New Invention Ups Success Rates.pdf
Boost Fertility New Invention Ups Success Rates.pdfBoost Fertility New Invention Ups Success Rates.pdf
Boost Fertility New Invention Ups Success Rates.pdf
 
Artificial Intelligence Chap.5 : Uncertainty
Artificial Intelligence Chap.5 : UncertaintyArtificial Intelligence Chap.5 : Uncertainty
Artificial Intelligence Chap.5 : Uncertainty
 
[BuildWithAI] Introduction to Gemini.pdf
[BuildWithAI] Introduction to Gemini.pdf[BuildWithAI] Introduction to Gemini.pdf
[BuildWithAI] Introduction to Gemini.pdf
 
Emergent Methods: Multi-lingual narrative tracking in the news - real-time ex...
Emergent Methods: Multi-lingual narrative tracking in the news - real-time ex...Emergent Methods: Multi-lingual narrative tracking in the news - real-time ex...
Emergent Methods: Multi-lingual narrative tracking in the news - real-time ex...
 
FWD Group - Insurer Innovation Award 2024
FWD Group - Insurer Innovation Award 2024FWD Group - Insurer Innovation Award 2024
FWD Group - Insurer Innovation Award 2024
 
Apidays New York 2024 - APIs in 2030: The Risk of Technological Sleepwalk by ...
Apidays New York 2024 - APIs in 2030: The Risk of Technological Sleepwalk by ...Apidays New York 2024 - APIs in 2030: The Risk of Technological Sleepwalk by ...
Apidays New York 2024 - APIs in 2030: The Risk of Technological Sleepwalk by ...
 
Modular Monolith - a Practical Alternative to Microservices @ Devoxx UK 2024
Modular Monolith - a Practical Alternative to Microservices @ Devoxx UK 2024Modular Monolith - a Practical Alternative to Microservices @ Devoxx UK 2024
Modular Monolith - a Practical Alternative to Microservices @ Devoxx UK 2024
 
+971581248768>> SAFE AND ORIGINAL ABORTION PILLS FOR SALE IN DUBAI AND ABUDHA...
+971581248768>> SAFE AND ORIGINAL ABORTION PILLS FOR SALE IN DUBAI AND ABUDHA...+971581248768>> SAFE AND ORIGINAL ABORTION PILLS FOR SALE IN DUBAI AND ABUDHA...
+971581248768>> SAFE AND ORIGINAL ABORTION PILLS FOR SALE IN DUBAI AND ABUDHA...
 
How to Troubleshoot Apps for the Modern Connected Worker
How to Troubleshoot Apps for the Modern Connected WorkerHow to Troubleshoot Apps for the Modern Connected Worker
How to Troubleshoot Apps for the Modern Connected Worker
 
Apidays New York 2024 - The value of a flexible API Management solution for O...
Apidays New York 2024 - The value of a flexible API Management solution for O...Apidays New York 2024 - The value of a flexible API Management solution for O...
Apidays New York 2024 - The value of a flexible API Management solution for O...
 
Cloud Frontiers: A Deep Dive into Serverless Spatial Data and FME
Cloud Frontiers:  A Deep Dive into Serverless Spatial Data and FMECloud Frontiers:  A Deep Dive into Serverless Spatial Data and FME
Cloud Frontiers: A Deep Dive into Serverless Spatial Data and FME
 
WSO2's API Vision: Unifying Control, Empowering Developers
WSO2's API Vision: Unifying Control, Empowering DevelopersWSO2's API Vision: Unifying Control, Empowering Developers
WSO2's API Vision: Unifying Control, Empowering Developers
 
Corporate and higher education May webinar.pptx
Corporate and higher education May webinar.pptxCorporate and higher education May webinar.pptx
Corporate and higher education May webinar.pptx
 
Polkadot JAM Slides - Token2049 - By Dr. Gavin Wood
Polkadot JAM Slides - Token2049 - By Dr. Gavin WoodPolkadot JAM Slides - Token2049 - By Dr. Gavin Wood
Polkadot JAM Slides - Token2049 - By Dr. Gavin Wood
 
AWS Community Day CPH - Three problems of Terraform
AWS Community Day CPH - Three problems of TerraformAWS Community Day CPH - Three problems of Terraform
AWS Community Day CPH - Three problems of Terraform
 
Why Teams call analytics are critical to your entire business
Why Teams call analytics are critical to your entire businessWhy Teams call analytics are critical to your entire business
Why Teams call analytics are critical to your entire business
 

GMOインターネット様 発表「OpenStackのモデルの最適化とConoHa, Z.comとGMOアプリクラウドへの適用」 - OpenStack最新情報セミナー 2015年12月

  • 1. 1 OpenStack最新情報セミナー(2015/12/02) (in サイバーエージェント社 セミナールーム) Naoto Gohko <naoto-gohko@gmo.jp> IT Architect Enginner / GMO Internet Inc., OpenStackのモデルの最適化と適用: ConoHaとZ.comとGMOアプリクラウド
  • 2. 2 History of our services using OpenStack in GMO Internet Inc., Nova-network model and Diablo: Onamae.com VPS Quantum overlay network: ConoHa Grizzly cluster High performance network: GMO AppsCloud(Havana) Juno ConoHa: Regison, Domain, DNS and SDS Juno GMO AppsCloud: Ironic and copy offload Cinder Swift cluster (shared from each OpenStack) # Agenda
  • 5. 5 Using OpenStack at GMO Internet
  • 6. 6 Public Clouds We are offering four public cloud services.
  • 7. 7 Physical Servers Running VMPhysical Server 1508 25294 Created VM Running Infrastructure 137223
  • 8. 8 Swift cluster GMO Internet, Inc.: VPS and Cloud services Onamae.com VPS (2012/03) : http://www.onamae-server.com/ Forcus: global IPs; provided by simple "nova-network" tenten VPS (2012/12) http://www.tenten.vn/ Share of OSS by Group companies in Vietnam ConoHa VPS (2013/07) : http://www.conoha.jp/ Forcus: Quantam(Neutron) overlay tenant network GMO AppsCloud (2014/04) : http://cloud.gmo.jp/ OpenStack Havana based 1st region Enterprise grade IaaS with block storage, object storage, LBaaS and baremetal compute was provided Onamae.com Cloud (2014/11) http://www.onamae-cloud.com/ Forcus: Low price VM instances, baremetal compute and object storage ConoHa Cloud (2015/05/18) http://www.conoha.jp/ Forcus: ML2 vxlan overlay, LBaaS, block storage, DNSaaS(Designate) and original services by keystone auth OpenStack Diablo on CentOS 6.x Nova Keystone Glance Nova network Shared codes Quantam OpenStack Glizzly on Ubuntu 12.04 Nova Keystone Glance OpenStack Havana on CentOS 6.x Keystone Glance Cinder Swift Swift Shared cluster Shared codes KeystoneGlance Neutron Nova Swift Baremetal compute Nova Ceilometer Baremetal compute Neutron LBaaS ovs + gre tunnel overlay Ceilometer Designate SwiftOpenStack Juno on CentOS 7.x NovaKeystone Glance Cinder Ceilometer Neutron LBaaS GMO AppsCloud (2015/09/27) : http://cloud.gmo.jp/ 2nd region by OpenStack Juno based Enterprise grade IaaS with High IOPS Ironic Compute and Neutron LBaaS Upgrade Juno GSLB Swift Keystone Glance CinderCeilometer Nova Neutron Ironic LBaaS
  • 10. 10 Oname.com VPS(Diablo) • Service XaaS model: – VPS (KVM, libvirt) • Network: – 1Gbps • Network model: – Flat-VLAN (Nova Network), without floting IP – IPv4 only • Public API – None (only web-panel) • Glance – None • Cinder – None • ObjectStorage – None OpenStack service: Onamae.com VPS(Diablo)
  • 11. 11
  • 12. 12 Oname.com VPS(Diablo) • Nova Network: – very simple(LinuxBridge) – Flat networking is scalable. • Only 1 NIC per VM. • Only 1 Public Network IP – MQ(rabbitmq) dependency is little(sync. API) • More scalable than Juno, Kilo, Liberty and Mitaka • Cloud ? – Only virtulization management But There is no added value, such as a free configuration of the network OpenStack service: Onamae.com VPS(Diablo)
  • 13. 13 OpenStack service: Onamae.com VPS(Diablo) model compute vm compute NIC NIC Vlan network bridge NIC vlan vlan tap vNIC Vlan network
  • 15. 15 ConoHa(Grizzly) • Service XaaS model: – VPS + Private networks (KVM + libvirt) • Network: – 10Gbps wired(10GBase-T) • Network model: – Flat-VLAN + Quantam ovs-GRE overlay – IPv6/IPv4 dualstack • Public API – None (only web-panel) • Glance – None • Cinder – None • ObjectStorage – Swift (After Havana) OpenStack service: ConoHa(Grizzly)
  • 16. 16 ConoHa(Grizzly) • Quantam Network: – It was using the initial version of the Open vSwitch full mesh GRE-vlan overlay network with LinuxBridge Hybrid But When the scale becomes large, Localization occurs to a specific node of the communication of the GRE-mesh-tunnel (with under cloud network(L2) problems) (Broadcast storm?) OpenStack service: ConoHa(Grizzly)
  • 19. 19 GMO AppsCloud(Havana) • Service XaaS model: – KVM compute + Private VLAN networks + Cinder + Swift • Network: – 10Gbps wired(10GBase SFP+) • Network model: – IPv4 Flat-VLAN + Neutron LinuxBridge(not ML2) + Brocade ADX L4-LBaaS original driver • Public API – Provided the public API • Ceilometer • Glance – Provided(GlusterFS) • Cinder – HP 3PAR(Active-Active Multipath original) + NetApp • ObjectStorage – Swift cluster • Bare-Metal Compute – Modifiyed cobbler bare-metal deploy driver. OpenStack service: GMO AppsCloud(Havana)
  • 20. 20 OpenStack service: GMO AppsCloud(Havana) model compute vm NIC Vlan network bridge NIC vlan tap vNIC Vlan network vNIC bridge vlan tap compute NIC bridge NIC vlan bridge vlan public network Neutronだけどsimpleな LinuxBridge model (Context Switchが少ない) >> Game配信など高速用途の 仮想化ネットワーク それが、GMO AppsCloud
  • 22. 22 GMO AppsCloud(Havana) public API Web panel(httpd, php) API wrapper proxy (httpd, php Framework: fuel php) Havana Nova API Customer sys API Havana Neutron API Havana Glance API OpenStack API for input validation Customer DB Havana Keystone API OpenStack API Havana Cinder API Havana Ceilometer API Endpoint L7:reverse proxy Havana Swift Proxy
  • 24. 24 Havana: baremetal compute cobbler driver Baremetal net: • Bonding NIC • Taged VLAN • allowd VLAN + dhcp native VLAN
  • 25. 25 Havana: baremetal compute Cisco iOS in southbound https://code.google.com/p/cisco-ios-cli-automation/
  • 26. 26 OpenStack Juno cluster: • ConoHa (2) • GMO AppsCloud (2)
  • 27. 27 Swift cluster GMO Internet, Inc.: VPS and Cloud services Onamae.com VPS (2012/03) : http://www.onamae-server.com/ Forcus: global IPs; provided by simple "nova-network" tenten VPS (2012/12) http://www.tenten.vn/ Share of OSS by Group companies in Vietnam ConoHa VPS (2013/07) : http://www.conoha.jp/ Forcus: Quantam(Neutron) overlay tenant network GMO AppsCloud (2014/04) : http://cloud.gmo.jp/ OpenStack Havana based 1st region Enterprise grade IaaS with block storage, object storage, LBaaS and baremetal compute was provided Onamae.com Cloud (2014/11) http://www.onamae-cloud.com/ Forcus: Low price VM instances, baremetal compute and object storage OpenStack Diablo on CentOS 6.x Nova Keystone Glance Nova network Shared codes Quantam OpenStack Glizzly on Ubuntu 12.04 Nova Keystone Glance OpenStack Havana on CentOS 6.x Keystone Glance Cinder Swift Swift Shared cluster Shared codes KeystoneGlance Neutron Nova Swift Baremetal compute Nova Ceilometer Baremetal compute Neutron LBaaS ovs + gre tunnel overlay Ceilometer Upgrade Juno
  • 29. 29  Multi Region  SSD Only  Scalability  API  Simple and competitive pricing # Newly Released ConoHa
  • 30. 30 In ConoHa, We added two additional features. – Multi-location region – Domain Structure: Application to multi-location region structure – 1 Domain == 1 OEM service or Product service – Domain on API validation wrapper proxy Multi-Location region and domain structures
  • 31. 31 The meaning of the word • Domain • Keystone domain • With v2 API service (our cloud) • != DNS Domain • Location • Different geographic locations on the Earth • US(San Jose), JP(Tokyo), SG(Singapore) • Region • OpenStack region • Location != Region • Can setup up multiple Region in one Location
  • 32. 32 Tokyo Singapore Sanjose # ConoHa has data centers in 3 Locations
  • 33. 33 CentOS 7.1 x86_64 Juno (RDO) Maria DB Connect to Tokyo KeyStone from All regions. Add each region endpoints to Tokyo KeyStone. Did not need to modify OpenStack code.  OS and OpenStack Versions  Multi Region Setting # Specs
  • 34. 34 Tokyo Singapole User/tenant User/tenant API Management Keystone API API Management Keystone APIAPI Management Keystone API Token Token Tokyo SanJoseSingapore API Management Keystone API API Management Keystone API READ/WRIT E READ READ TokenToken Token Do not create/delete users Do not create/delete users Our Customer base User administration # User-registration is possible in Japan only DB Replication DB Replication User/tenant User/tenantUser/tenant R/W R/W
  • 35. 35 # Issues and Restrictions on Multi Region  User-registration is possible in Japan only  VPN performance issue  Issues on replicating token table.
  • 36. 36 API Management Keystone API KeystoneDB Nova Neutron Glance Cinder OpenStack Cluster Nova Get/token Glance Get/token Neutron Get/token Cinder Get/tokenVM Create ! Nova user token:001 Neutron Token:002 Glance Token:003 Cinder Token:004 VM Create ! VM Create ! Nova user token:002 Neutron Token:003 Glance Token:004 Cinder Token:005 Nova user token:006 Neutron Token:007 Glance Token:008 Cinder Token:009 # Bloat access tokens  Too many tokens will be created from each components.
  • 37. 37 Setting example.conf [keystone_authtoken] token= 100 year expires token [neutron_authtoken] token= 100 year expires token [glance_authtoken] token= 100 year expires token [cinder_authtoken] token= 100 year expires token # Issues on replicating token table.  100 year expires token We fixed it so that any tokens can be used for each components.
  • 38. 38 OpenStack Authentication in Juno (V2 keystone domains)
  • 40. 40 Swift cluster GMO Internet, Inc.: VPS and Cloud services Onamae.com VPS (2012/03) : http://www.onamae-server.com/ Forcus: global IPs; provided by simple "nova-network" tenten VPS (2012/12) http://www.tenten.vn/ Share of OSS by Group companies in Vietnam ConoHa VPS (2013/07) : http://www.conoha.jp/ Forcus: Quantam(Neutron) overlay tenant network GMO AppsCloud (2014/04) : http://cloud.gmo.jp/ OpenStack Havana based 1st region Enterprise grade IaaS with block storage, object storage, LBaaS and baremetal compute was provided Onamae.com Cloud (2014/11) http://www.onamae-cloud.com/ Forcus: Low price VM instances, baremetal compute and object storage ConoHa Cloud (2015/05/18) http://www.conoha.jp/ Forcus: ML2 vxlan overlay, LBaaS, block storage, DNSaaS(Designate) and original services by keystone auth OpenStack Diablo on CentOS 6.x Nova Keystone Glance Nova network Shared codes Quantam OpenStack Glizzly on Ubuntu 12.04 Nova Keystone Glance OpenStack Havana on CentOS 6.x Keystone Glance Cinder Swift Swift Shared cluster Shared codes KeystoneGlance Neutron Nova Swift Baremetal compute Nova Ceilometer Baremetal compute Neutron LBaaS ovs + gre tunnel overlay Ceilometer Designate SwiftOpenStack Juno on CentOS 7.x NovaKeystone Glance Cinder Ceilometer Neutron LBaaS GMO AppsCloud (2015/09/27) : http://cloud.gmo.jp/ 2nd region by OpenStack Juno based Enterprise grade IaaS with High IOPS Ironic Compute and Neutron LBaaS Upgrade Juno GSLB Swift Keystone Glance CinderCeilometer Nova Neutron Ironic LBaaS
  • 41. 41 • The cost to operate Multi version Openstack have increased • It is difficult to upgrade or add new features  Managing multiple sites of OpenStack is a headache. What’s the problems abount Multi-Cluster?
  • 42. 42
  • 43. 43 ConoHa: based on OpenStack Juno (IaaS) • Multiple region openstack cluster • Tokyo / Singapore / San Jose • ... and so on • Full SSD storage • Multiple keystone service domain support • ConoHa and Next service (now in development) ... OEM etc. • LB as a Service: LVS-DSR (original) • DNS as a service : OpenStack Designate • OpenStack API and additional RESTful API • Multiple Languages web panel support • Japanese, ConoHa, English, Korean, Mandarin Chinese
  • 44. 44 • Create scope in the domain – Scoped items • Flavor • Images • Volume type – Shared items • Public Networks • Hypervisor • Images (Default domain) • Using Keystone API v2.0 Motivation
  • 45. 45 • We use and customize the code that is in Juno Keystone v3 domain – Enable Domain ID for Juno Keystone V2 API • SaaS implementation with python-keystoneclient – Process related Domain ID and Data implementation Domain ID from token API User: POST /v2.0/token Admin(service): GET /v2.0/token/{id} Juno Keystone V2 API : Does not support Domains
  • 46. 46 Keystone: wrapper proxy at domain specific keystone endpoint Domains and user prefix namespace Domain Product Prefix name space gnc ConoHa gnc zjp JP OEM-1 zjp zsg SG OEM- 1 zsg ... ... OEM-n ... ... Exp) user: gnc0000348 Image name: gnc_centos7
  • 47. 47 We released 2nd service on same Juno infra. (2015/10/20 ~) Adding domain(2nd): cloud.z.com
  • 48. 49 Diferrent API endpoints in a separate Domain Multi-Domains and Multi-endpoint
  • 50. 52 OpenStack Juno: 2 service cluster, released Mikumo ConoHa Mikumo Anzu Mikumo = 美雲 = Beautiful cloud New Juno region released: 10/26/2015
  • 51. 53 • Service model: Public cloud by KVM • Network: 10Gbps wired(10GBase SFP+) • Network model: – Flat-VLAN + Neutron ML2 ovs-VXLAN overlay + ML2 LinuxBridge(SaaS only) – IPv6/IPv4 dualstack • LBaaS: LVS-DSR(original) • Public API – Provided the public API (v2 Domain) • Compute node: ALL SSD for booting OS – Without Cinder boot • Glance: provided • Cinder: SSD NexentaStore zfs (SDS) • Swift (shared Juno cluster) • Cobbler deply on under-cloud – Ansible configuration • SaaS original service with keystone auth – Email, web, CPanel and WordPress OpenStack Juno: 2 service cluster, released • Service model: Public cloud by KVM • Network: 10Gbps wired(10GBase SFP+) • Network model: – L4-LB-Nat + Neutron ML2 LinuxBridge VLAN – IPv4 only • LBaaS: Brocade ADX L4-NAT-LB(original) • Public API – Provided the public API • Compute node: Flash cached or SSD • Glance: provided (NetApp offload) • Cinder: NetApp storage • Swift (shared Juno cluster) • Ironic on under-cloud – Compute server deploy with Ansible config • Ironic baremetal compute – Nexsus Cisco for Tagged VLAN module – ioMemory configuration
  • 53. 55 Designate DNS: ConoHa cloud(Juno) Client API DNS Identify Endpoint Storage DB OpenStack Keystone Backend DB RabbitMQ Central Components of the DNS and GSLB(original) back-end services Application of Designate DNS: • DNS as a service(tenant) • Undercloud Infra-network • No Keystone auth config
  • 54. 56 OpenStack Cinder Block storage: ConoHa: NexentaStor(SDS) AppsCloud: NetApp
  • 55. 57 Compute and Cinder(zfs): SSD Toshiba enterprise SSD • The balance of cost and performance we have taken. • Excellent IOPS performance, low latency Compute local SSD The benefits of SSD of Compute of local storage • The provision of high-speed storage than cinder boot. • It is easy to take online live snapshot of vm instance. • deployment of vm is fast. ConoHa: Compute option was modified: • take online live snapshot of vm instance. http://toshiba.semicon-storage.com/jp/product/storage- products/publicity/storage-20150914.html
  • 56. 58 NexentaStor zfs cinder: ConoHa cloud(Juno) Compute
  • 57. 59 NetApp storage: GMO Appscloud(Juno) If you are using the same Cluster onTAP NetApp a Glance and Cinder storage, it is possible to offload a copy of the inter-service of OpenStack as the processing of NetApp side. • Create volume from glance image ((glance the image is converted (ex: qcow2 to raw) required that does not cause the condition) • Volume QoS limit: Important function of multi- tenant storage • Uppper IOPS-limit by volume
  • 58. 60 OpenStack Ironic: Only AppsCloud: • Undercloud Ironic deploy • Multi-tenant Ironic deploy
  • 59. 61 Ironic with undercloud: GMO Appscloud(Juno) For Compute server deployment. Kilo Ironic and All-in-one • Compute server: 10G boot • Clout-init: network • Compute setup: Ansible Under-cloud Ironic(Kilo): It will use a different network and Ironic Baremetal dhcp for Service baremetal compute Ironic(Kilo). (OOO seed server) Trunk allowed vlan, LACP
  • 60. 62 Ironic(Kilo) baremetal: GMO Appscloud(Juno) Boot baremetal instance • baremetal server (with Fusion ioMemory SanDisk) • 1G x4 bonding + Tagged allowed VLAN • Clout-init: network + lldp • Network: Nexsus Cisco Allowd VLAN security Ironic Kilo + Juno: Fine • Ironic Python driver • Whole Image write • Windows: OK
  • 61. 63 Ironic network multi-tenant separation for Mitaka • https://wiki.openstack.org/wiki/Meetings/Ironic-neutron • Bare metal physical connectivity scenarios - supported and unsupported https://docs.google.com/document/d/1a- DX4FQZoX1SdTOd9w_Ug6kCKdY1wfrDcR3SKVhWlcQ/view?usp=sharing • サポートされるシナリオが図解されています(Libertyにおけるもの) • RackspaceのonMetalの実装もLibertyでは特殊な例 • Neutronがtrunk allowed vlan(tagged)を表現できない(in Liberty) • Mitaka待ち https://etherpad.openstack.org/p/summit-mitaka-ironic • ThinkITに解説を参照 https://thinkit.co.jp/article/8443 連載: OpenStack Summit Tokyo レポート Ironic最新動向:待望のマルチテナント対応が視野に。ストレージや運用自動化も進展(2015年11月26日(木)) 重松 光浩(NTT ソフトウェアイノベーションセンタ), 高田 唯子(NEC BI統括ユニット)
  • 62. 64 Ironic network multi-tenant separation: model • Ironic neutron ML2 driver Integration https://blueprints.launchpad.net/nova/+spec/ironic-networks-support • Single port • LAG port (bonding) • MLAG port (LACP) • Trunk and multiple tagged VLAN or VXLAN(本気かどうか?) • Only support ML2 VLAN tunneling network • LinuxBridge ML2 VLAN tunnel compute • ovs ML2 VLAN tunnel compute, ovs ML2 VXLAN tunnel • GMO AppsCloudのモデルでは、undercloud Ironic, multi-tenent Ironicともに • MLAG port (LACP) • Trunk and multiple tagged VLAN + vlan allowed • Vlan allowedがmulti-tenantのセキュリティ設定の要
  • 63. 65 Ironic network: rackspace onMetal = GMO AppsCloud for Mitaka • Vlan aware VMs • https://blueprints.launchpad.net/neutron/+spec/vlan-aware-vms • VMの中にtagged vlanが通る • これと同じようにして、baremetalにもというらしいのだが • Rackspace OnMetal • 現実的実装 : https://github.com/rackerlabs/ironic-neutron-plugin • 製品の説明 : https://www.rackspace.com/knowledge_center/article/create-onmetal- cloud-servers • ユーザ目線での情報: https://major.io/2015/08/21/using-systemd-networkd-with-bonding-on-rackspaces- onmetal-servers/ • Rackspaceも考えることは一緒だった << bonding + tagged VLAN • ほぼ、我々と同じような実装
  • 64. 66 • Service model: Public cloud by KVM • Network: 10Gbps wired(10GBase SFP+) • Network model: – Flat-VLAN + Neutron ML2 ovs-VXLAN overlay + ML2 LinuxBridge(SaaS only) – IPv6/IPv4 dualstack • LBaaS: LVS-DSR(original) • Public API – Provided the public API (v2 Domain) • Compute node: ALL SSD for booting OS – Without Cinder boot • Glance: provided • Cinder: SSD NexentaStore zfs (SDS) • Swift (shared Juno cluster) • Cobbler deply on under-cloud – Ansible configuration • SaaS original service with keystone auth – Email, web, CPanel and WordPress OpenStack Juno: 2 service cluster, released • Service model: Public cloud by KVM • Network: 10Gbps wired(10GBase SFP+) • Network model: – L4-LB-Nat + Neutron ML2 LinuxBridge VLAN – IPv4 only • LBaaS: Brocade ADX L4-NAT-LB(original) • Public API – Provided the public API • Compute node: Flash cached or SSD • Glance: provided (NetApp offload) • Cinder: NetApp storage • Swift (shared Juno cluster) • Ironic on under-cloud – Compute server deploy with Ansible config • Ironic baremetal compute – Nexsus Cisco for Tagged VLAN module – ioMemory configuration
  • 66. 68 Swift cluster (Havana to Juno upgrade) SSD storage: container/account server at every zone
  • 67. 69 swift proxy keystone OpenStack Swift cluster (5 zones, 3 copy) swift proxy keystone LVS-DSrLVS-DSR HAProxy(SSL)HAProxy(SSL) Xeon E3-1230 3.3GHz Memory 16GB Xeon E3-1230 3.3GHz Memory 16GB Xeon E5620 2.4GHz x 2CPU Memory 64GB swift objects swift objects Xeon E3-1230 3.3GHz swift account swift container Xeon E5620 2.4GHz x 2CPU Memory 64GB, SSD x 2 swift objects swift objects Xeon E3-1230 3.3GHz swift account swift container Xeon E5620 2.4GHz x 2CPU Memory 64GB, SSD x 2 swift objects swift objects Xeon E3-1230 3.3GHz swift account swift container Xeon E5620 2.4GHz x 2CPU Memory 64GB, SSD x 2 swift objects swift objects Xeon E3-1230 3.3GHz swift account swift container Xeon E5620 2.4GHz x 2CPU Memory 64GB, SSD x 2 swift objects swift objects Xeon E3-1230 3.3GHz swift account swift container Xeon E5620 2.4GHz x 2CPU Memory 64GB, SSD x 2
  • 68. 70 swift objects swift objects swift objects swift objects swift objects swift objects swift objects swift objects swift objects swift objects swift proxy keystone Havana AppsCloud swift proxy keystone Grizzly ConoHa Havana To Juno swift account swift container swift account swift container swift account swift container swift account swift container swift account swift container swift proxy keystone Juno ConoHa swift proxy keystone Juno AppsCloud Swift cluster: multi-auth and multi-endpoint swift proxy keystone Juno Z.com
  • 70. 72 • Juno release swift 2.2 el6 (self build: なんとか作った) Swift: Havana to Juno upgrade: el6-RPMS build
  • 71. 73 Swift: Junoより先のupgrade • Kilo以降の開発は確実に python 2.7以降の検証しかされてない – >> python 2.6で動くかどうかは、確実に機能テストをしてから適用するべき • Python 2.7 でパッケージ作成も検討 – >> 冗長片系づつ更新するので、問題なさそう (◎: 最有力) – Python 3.4で動かす意義: asyncio thread (△: Swiftには反映されていない) • go-lang swiftは? – Hummingbird swift (go-lang) – https://github.com/openstack/swift/tree/feature/hummingbird/go – これまで、Plugin作ったもの>> go-langにする必要が出てくる (△: ここがつらい)
  • 72. 74 Finally: The GMO AppsCloud in Juno OpenStack it was released on 10/27/2015. • Deployment of SanDisk Fusion ioMemory by Kilo Ironic on Juno OpenSack I can also. • Compute server was deployed by Kilo Ironic with under-cloud All-in-One openstack. Compute server configuration was deployed by Ansible. • Cinder and Glance was provied NetApp copyoffload storage mechanism. • LbaaS is Brocade ADX NAT mode original driver. • Linux Bridge Neutron mode is best performance without L3 switch On the otherhand; Juno OpenStack ConoHa released on 05/18/2015. • Designate DNS and GSLB service was started on ConoHa. • Cinder storage is SDS provied NexentaStor zfs storage for single volume type. • LBaaS is LVS-DSR original driver. • ovs-VXLAN overlay Neutron mode is more high degree of freedom. • And Z.com OEM openstack domain was living together in ConoHa
  • 74. 76 Develop OpenStack related tools Tool that create Docker host. Golang Develop Vagrant provider for ConoHa. Fix a problem and pull request. Docker Machine https://github.com/hironobu-s/vagrant-conoha
  • 75. 77 CLI tool that handle ConoHa specific APIs Golang Develop plugin that enable to save media files to Swift(Object Store) Develop OpenStack related tools https://github.com/hironobu-s/conoha-iso https://wordpress.org/plugins/conoha-object-sync/

Notes de l'éditeur

  1. Hi everyone. We are from a team at GMO Internet that focuses on developing services based on Openstack. My name is Hyuntae Park and I am a manager of this team being involved in many Openstack projects. We recently released a public cloud service called ConoHa which was built Openstack Juno. We have always been developing products for Japan market but this product is targeted for users globally. We’ve developed virtual server products in the past but all of them are a very simple product for users in Japan. Because ConoHa is targeted for users globally, we faced architecture challenges that we didn’t have before. One example is “Multi Region”. I’d like to introduce ConoHa multi region structure and our operation know how.
  2. The agenda for today is as shown in this slide. Introduction to OpenStack based services we developed in the past. Overview of Multi Region. Our original extensions to OpenStack. Multi region supported Domain
  3. 最初に、GMOインターネット株式会社についてです。 我々GMOインターネットは、「日本を代表する総合インターネットグループへ」というコーポレートキャッチで、インターネットに関する様々なサービスを展開しています。 現在GMOグループは、連結対象が86社、うち上場企業8社、もうすぐ9社になります、そして約4400名のインターネットのプロフェッショナル集団で運営されている、東証一部上場企業グループです。私たちは、1999年8月にインターネット企業として、日本で最も早く上場しました。 現在は「日本を代表する総合インターネットグループ」を目指し、4つの事業領域で展開しています。
  4. すみません、このページは一部日本語なのです。 我々がインターネットのインフラ事業と読んでいる事業領域がこちらです。 我々のユーザーがインターネット上でビジネスを行うために必要なサービスをまとめて提供するものです。 例えば、 ドメイン(ドットコム、ドットネット、どっとジェーピーのようなものですね セキュリティ SSL 決済 ECサービス支援 そして広告などです。 ユーザーがこういったサービスを利用するに当たって、多くの場合サーバーやクラウドが必要になります。 我々のクラウドサービスは、ユーザのビジネスを支えるために非常に重要な事業です。 そして、さまざまなインフラ事業を全て自分たちで提供することで、サービス同士のシナジー効果を出すことができます。 このようにクラウド事業は、我々のインフラ事業を支える非常に重要な事業というわけです。
  5. それでは、GMOインターネットでのOpenStackの使われ方をご説明します。
  6. 我々は現在4つのOpenStackベースのクラウドサービスを展開しています。 クラウドのサービスに限らないのですが、GMOインターネットは、自社のサービスを自分たちの手で設計、実装、運用を行うようにしています。そうすることで、我々は経験とノウハウを蓄積することができ、一方でユーザーに対して最適なサービスをスピーディーに提供することができると考えているからです。 これらのうち、一番最初に登場したのが「お名前VPS」です。最初OpenStackをVPSサービスとして使っていました。次に右上のGMOアプリクラウドが登場し、右下のお名前.comクラウドが登場し、その後ConoHaが登場しました。 ConoHaは我々のOpenStackプロダクトの中でも、非常にアグレッシブなプロダクトだと思います。ConoHaにはOpenStackのコンポーネントをベースにした多数の機能があります。一方でOpenStackのAPIを公開しているので、ユーザーはOpenStackに対応したソフトウェア、サービスをそのままConoHa上で使うことができます。ConoHaは我々のプロダクトの中で、OpenStackの機能を一番フルに使っています。 このように、OpenStackを利用することで、我々は常にプロダクトを改善することができています。
  7. Within all the services we’ve launched so far, we have 2,000 active physical node and over 100,000 VMs activated. I will dive into the newly released ConoHa’s features.
  8. As Park san mentioned, multiple OpenStack clusters are operating in multiple Products within our environment. Primarily this is very inefficient in terms of cloud operation and it is off a principal of a fundamental business rule “selection and concentration”. Starting with the Diablo cluster, we’ve built many OpenStack clusters such as Grizzly, Havana and Juno and they are still in operations. In terms of Swift cluster, we share multiple OpenStack by deploying swift-proxy per Keystone auth. However, it takes a lot of time and cost to deploy OpenStack cluster each time. There is stackforge project called Tricircle that deals with OpenStack deployment across multiple sites but for now, we don’t want to complicate our operation. ========= 先ほどPark sanが話したように、我々の環境では複数のOpenStack clusterが複数のProductで稼働しています。 本来ならば、このようなことは、クラウド運用には無駄が多いですし、ビジネスの「選択と集中」の原則から外れますね。 Diablloのclusterから始まり、 Grizzly、 Havana、 Junoと数多くのOpenStack clusterを構築して、現在もサービスとして運用しています。 Swift clusterはKeystone authごとにswift-proxyを起動することで、複数のOpenStackから共有して利用しています。 しかし、毎回OpenStack cluster環境を構築するのは、工数もかかり大変です。 もちろん、OpenStackをCascadingするProjectでTricircle というのがありますが、いまのところ、より複雑な運用は我々の望むところではありません。
  9. それでは、GMOインターネットでのOpenStackの使われ方をご説明します。
  10. それでは、GMOインターネットでのOpenStackの使われ方をご説明します。
  11. それでは、GMOインターネットでのOpenStackの使われ方をご説明します。
  12. それでは、GMOインターネットでのOpenStackの使われ方をご説明します。
  13. As Park san mentioned, multiple OpenStack clusters are operating in multiple Products within our environment. Primarily this is very inefficient in terms of cloud operation and it is off a principal of a fundamental business rule “selection and concentration”. Starting with the Diablo cluster, we’ve built many OpenStack clusters such as Grizzly, Havana and Juno and they are still in operations. In terms of Swift cluster, we share multiple OpenStack by deploying swift-proxy per Keystone auth. However, it takes a lot of time and cost to deploy OpenStack cluster each time. There is stackforge project called Tricircle that deals with OpenStack deployment across multiple sites but for now, we don’t want to complicate our operation. ========= 先ほどPark sanが話したように、我々の環境では複数のOpenStack clusterが複数のProductで稼働しています。 本来ならば、このようなことは、クラウド運用には無駄が多いですし、ビジネスの「選択と集中」の原則から外れますね。 Diablloのclusterから始まり、 Grizzly、 Havana、 Junoと数多くのOpenStack clusterを構築して、現在もサービスとして運用しています。 Swift clusterはKeystone authごとにswift-proxyを起動することで、複数のOpenStackから共有して利用しています。 しかし、毎回OpenStack cluster環境を構築するのは、工数もかかり大変です。 もちろん、OpenStackをCascadingするProjectでTricircle というのがありますが、いまのところ、より複雑な運用は我々の望むところではありません。
  14. それでは、GMOインターネットでのOpenStackの使われ方をご説明します。
  15. Based on the feedbacks we received from our users, we decided to upgrade ConoHa using the latest version of OpenStack. In order for ConoHa to be accepted by users all over the globe, we needed to make sure we have the following features. Multi region SSD ONLY Scalability API competitive pricing For the time being, I will focus on talking about the Multi region feature as it is very unique.
  16. Park san has talked about the region strucutre in Multi-Region and how it works in ConoHa cloud environment. We have more to that. And they are, Application to multi location region structure (Domain structure). Application of one domain to 1 OEM service or product service. I’m going to dive into the details of these 2 features. ========= ここまで、Park sanにMuli-LocationにおけるRegion構成について、我々のConoHaのクラウド環境での適用をお話しました。 ConoHaインフラでは、さらにもう一工夫しています。 それは、次の内容になります。 ドメイン構造のマルチロケーション・リージョン構成への適用 一つのドメインを一つの製品サービスまたは、OEMサービスへの適用 これらの側面をさらに適用した話をします。
  17. I’d like to take a few minutes to go over the definition of each terms. When I say Domain, it refers to the Keystone Domain. I will talk specifically about the domain that is operated with the Keystone V2 API. I will also talk about the Designate DNS domain but that’s not all. Location means areas that are physically in a location that are far from each other. In our cases, they will be US (San Jose), Japan (Tokyo) and SG (Singapore). Region refers to OpenStack region. Which means that Location and Region are not used as same meanings. There are caseswhere we set up multiple Region in one Location. ========== ちょっと、ここからの単語について、前もって定義しておきます。 ここから、Domainとは、主にKeystone doaminのことです。 その中でも、我々が設定したKeystoen V2 APIで運用しているdomainについて、主に言及します。 DesignateでのDNS domainについても話しますが、ここでのドメインはそれだけではありません。 Locationとは、地域的に遠い場所にあるところを意味します。 我々の環境では、US(San Jose), JP(Tokyo), SG(Singapore)になります。 Regionとは、OpenStack regionを指します。 LocationとRegionは同一ではないです。 ゆえに、同じLocationにRegionを複数設定することもあります。 ==========
  18. Supporting multi region was our first priority out of all the features in the roadmap. Physical location of the servers means a lot to our users. The data center location we chose initially were Tokyo, Singapore and San Jose. We’ve successfully built a multi region architected OpenStack environment between the 3 locations.
  19. Now I’m going to explain the actual process we took to architect multi region. The OS and OpenStack version for ConoHa areas shown. We were able to build it just by connecting to Tokyo KeyStone from all regions and adding each region endpoints to Tokyo KeyStone. We of course didn’t have to modify any of OpenStack codes.
  20. Restriction 1: The system that manages both service site and user information only exists in Japan. Therefore user registration was only available in Japan.
  21. Restriction 1: The system that manages both service site and user information only exists in Japan. Therefore user registration was only available in Japan. Restriction 2:We of course use 10G network interface for connection between physical server and Switch but the network used for data base replication within the Region is a VPN of 10Mbps so it is not stable. Restriction 3: As we anticipated 10s of thousand of token issues per day, it was clear that the table capacity was not suitable for long distance replication. Although we were able to delete all the tokens that was automatically issued by components such as glance and neutron, we still anticipated a tremendous amount of queries. I will talk more about it in the next page.
  22. Restriction 3: As we anticipated 10s of thousand of token issues per day, it was clear that the table capacity was not suitable for long distance replication. Although we were able to delete all the tokens that was automatically issued by components such as glance and neutron, we still anticipated a tremendous amount of queries.
  23. The procedure we use for internal transaction, we were able to reduce the Token by setting up token with expiration date of 100 years to each components of neutron and glance. As per the 3 restrictions I’ve mentioned, we had to give up the initial idea of a very simple multi region structure. We separated the KeyStone functionality with the data base and then picked out the ones that requires region to region replication and the ones that doesn’t. Handling data replications that are in 3 different regions with a very narrow bandwidth, we knew there was a chance of failing to sync the data discrepancies that is caused by a massive amount of tokens. Also, if the data replications between the regions happens to fail, all services in different regions will stop and it would be difficult for us to match the data in the recovery process. Therefore we decided to architect as shown in the next slide.
  24. Thank’s Park-san. Now I’m going to talk about the relationship between the keystone V2 API domain operation and regions within the OpenStack authentication in Juno. ========= ここからは、JunoのOpenStackの認証基盤のkeystone V2 APIでのDomain運用とRegionの関係について、おはなしします。
  25. Why? さて、どういうことでしょうか?
  26. As Park san mentioned, multiple OpenStack clusters are operating in multiple Products within our environment. Primarily this is very inefficient in terms of cloud operation and it is off a principal of a fundamental business rule “selection and concentration”. Starting with the Diablo cluster, we’ve built many OpenStack clusters such as Grizzly, Havana and Juno and they are still in operations. In terms of Swift cluster, we share multiple OpenStack by deploying swift-proxy per Keystone auth. However, it takes a lot of time and cost to deploy OpenStack cluster each time. There is stackforge project called Tricircle that deals with OpenStack deployment across multiple sites but for now, we don’t want to complicate our operation. ========= 先ほどPark sanが話したように、我々の環境では複数のOpenStack clusterが複数のProductで稼働しています。 本来ならば、このようなことは、クラウド運用には無駄が多いですし、ビジネスの「選択と集中」の原則から外れますね。 Diablloのclusterから始まり、 Grizzly、 Havana、 Junoと数多くのOpenStack clusterを構築して、現在もサービスとして運用しています。 Swift clusterはKeystone authごとにswift-proxyを起動することで、複数のOpenStackから共有して利用しています。 しかし、毎回OpenStack cluster環境を構築するのは、工数もかかり大変です。 もちろん、OpenStackをCascadingするProjectでTricircle というのがありますが、いまのところ、より複雑な運用は我々の望むところではありません。
  27. The cost to operate Multi version Openstack have increased, and it is difficult to upgrade or add new features. Managing multiple sites of OpenStack is a headache for us. ========= ・複数のバージョンのOpenStack clusterを運用する負荷が高くなる。 ・ちょっとしたupgradeや新機能追加もやりにくくなる。 という頭の痛い問題に直面しています。
  28. It is a dark age for the cloud suppliers ========= クラウド事業者の暗黒面に突入しています。
  29. Even in that circumstance, we’ve developed a Multi Location environment with OpenStack Juno and launched ConoHa. Speaking of infrastructure features, we’ve deployed features such as DNS and LBaaS. As a keystone feature for IaaS authentication infrastructure, we were able to segment the “by Domain user management” feature. ========= そのような中で、OpenStack JunoでのMulti Location環境を構築してConoHaのサービスを開始したのは先程まで話したとおりです。 インフラの機能としては、DNS, LBaaSなどの機能を盛り込みました。 そのなかでも、IaaS認証基盤のkeystoneの機能として、ドメインによるユーザ管理機能の分割ができるようにしました。
  30. Motivation is these. ========== Motivationとしては、ドメインにより、スコープをドメイン内に作ることができ、ドメインに属する場合には、 scoped itemsとshared itemsの両方の利用ができるということです。 また、keystone APIはクライアントとサービスのサポートの観点からv2.0を使います。
  31. Juno Keystone V2 API doesn’t support Domains. We use and customize the code that is in Juno keystone v3 domain. Then we use doamin ID for Juno Keystone v2 API. What you see in the slide is the actual token information in the response JSON. You can see “gnc” as a Domain ID. By doing this you can use Domain ID in token and as long as you write a script based on Domain ID, SaaS we built on top of OpenStack will work just fine. ========== Keystone ver. 2 APIでは、Domainのサポートはありません。 ですが、v3 APIで本来稼働するためのDomain実装ののソースコードが入っていたので、 それを利用して、domain IDをJuno Keystone V2 APIで扱えるようにしました。 右に、実際に keystoneでtokenを取得したときのresponse JSONの中のToken infomationのところを抜き出しています。 Domain IDとして”gnc”が入っていることがわかります。 このようにして、domain_idをtokenでつかえるようになり、OpenStack上に我々が実装したSaaSでもDomain IDに基づいた 処理を書けば動くようになりました。
  32. There’s one more thing we need to do. In our IaaS case, there is a wrapper proxy for Validation check in the Public API. In Keystone, you determine the Domain either by the prefix of user name and tenant name or by looking up user ID or tenant ID in the keystone DB. Also for other Nova, Glance and Cinder that we want to Scope, we add prefix name. ========== もう一つ、補わなければならないことがあります。 Public APIには、われわれのIaaSの場合、Validation checkのwrapper proxyが入っています。 Keystoneでは、user IDまたはtenant IDをkeystone DBでDomain IDの確認、またはuser name、tenant nameのprefixでDomainを判別します。 Domain IDを判別すると、適切なDomainごとに起動しているKeystoneにAPIがわに、パケットが流れます。 また、ほかのNova, Glance, CinderでもScope化したいものには、同じようにprefix name space をつけることにしています。
  33. This October, we released our 2nd service on same Juno infrastructure. We added a domain of OEM service for your group company “z.com”. z.com is a brand domain and an OEM partner in Asia that mainly distributes GMO Internet Group companies’ services. 3 regions which includes US, Singapore and Japan is also available with this product. Different domain ids are used for each OEM partners. ============= 10月にConoHaのJuno基盤上に、z.comというグループ企業へのOEMサービスのドメインを追加して、リリースしています。 GMO Internet Groupでもアジアに展開しているグループ会社が、世界に向けてOEM販売するブランドドメインになっています。 このProductでも、先ほどPark sanが説明したUS, SG, JPの3 LocationのRegionが、利用できます。 そのなかで、販売OEMごとに、domain IDがつかわれるようになっています。 =============
  34. By adding Z.com product, keystone endpoint related to z.com domain is separated in to API endpoint for admin and public API endpoint for users. PaaS and SaaS that we built using Keystone auth is designed to lookup up the Admin URL of this default domain. This is because there is domain ID in the keystone DB and with reverse lookup such as GET token within Admin, there is no issue with using default domain keystone. Also ConoHa and z.com each has a Wrapper proxy program which introduced earlier, in Public API, Internal API and Admin API. ============== Z.comのProductを追加したことで、z.comのドメインに関するkeystone endpointが、adminのAPI endpintとuser用のpublic API endpintがそれぞれつくられています。 我々がKeystone authを使って作ったPaaSやSaaSの サービスはこのDefault domainのAdmin URLを見るようになっています。 これは、Keystone DBにdomain IDが入っているので、GET tokenのようなAdminでのtokenの逆引きでは、Default Domainのkeystoneでも問題ないためです。 また、ConoHa / z.comはそれぞれPublic API, Internal API , admin API の前に、さきほど紹介したWrapper proxy programが入っています。 ==============
  35. This is Multi-domains and Multi-endpoint details. Left side is named “gnc” domain as ConoHa service. Right side is named “zjp” domain as z.com service. When user access from Internet, connect to the wrapper proxy program by php and nginx system. Validation check to verify the value to OpenStack DB(for example: nova, cinder, neutron or keystone). Then, after passing through the validation check, you can access the real keystone. Other side “zjp” domain is a same scheme, like this, but the different API Value validation and API endpoint. ========== そして、異なるドメインでは、Keystone APIサーバは、ドメインごとに起動する必要があります。 この図の例では、Domain “gnc”とDomain “zjp”では、異なるサービスですので、別々のAPIのEndpoint URLに アクセスすることになります。 アクセス先には、我々が追加で構築したhttps proxyのwrapper serverがあり、ユーザのアクセス情報がそのDomainに属しているのか OpenStack DBに確認して、その後ろの実際のOpenStack APIサーバに渡すようになっています。 この図では、keystone APIですが、wrapper proxyでユーザ名のprefixに”gnc”が付いている場合には、Domain “gnc”では正規のユーザとして、 後ろのkeystone APIに処理を渡します。 Keystone APIが分かれているのは、サービスDomainごとのEndpoint URLのCatalog一覧など、Domainごとに異なる応答をするためです。 Domain “zjp”のユーザがDomain “gnc”にアクセスしても、wrapper proxyがドメインが異なるとして、エラーとして処理します。 ===========
  36. Here is an our example of how Keystore API servers are set up for each domain. Default Domain ID is a voluntary name and then you use default catalog template file for each regions and set it up the API call. As an END point configuration, this was way more easy to use and has higher versatility. In the IP address section, you would put in the hostname that you registered in DNS for each products. =============== DomainごとのKeystone API serverの設定例を示します。 Default Domain IDとして任意のものを入れて、リージョンごとに、default_catalog.templatesファイルをつかって、API応答するように設定します。 END point登録処理としては、こちらのほうが汎用性と使いやすさがSQLの設定よりあることがわかりました。 上記では、IPアドレスになっていますが、ここをProductごとにDNSに登録したhostnameにします。 ===============
  37. これらがConoHaで使用しているOpenStackのコンポーネントの一覧です。左の列がOpenStackのコンポーネント名、中央がConoHaのサービス名です。一番右はリージョン名で、一部のコンポーネントは東京リージョンのみに配置しています。
  38. それでは、GMOインターネットでのOpenStackの使われ方をご説明します。
  39. それでは、GMOインターネットでのOpenStackの使われ方をご説明します。
  40. それでは、GMOインターネットでのOpenStackの使われ方をご説明します。
  41. それでは、GMOインターネットでのOpenStackの使われ方をご説明します。
  42. That’s all from me. Thanks.
  43. 最後に、少しエンジニアらしいことを話させて下さい。 私、今回のサミットでビジネスのことや会社のことばかり話しました。 ただ、私は元々アプリケーション開発者です。少しエンジニアっぽいことも話しておくべきでしょう。 この二つはプロビジョニングツールです。上のVagrant、これはVirtualBox、AWS、DigitalOceanなど、いろいろなプラットフォームで自動プロビジョニングを行うものです。エンジニアだけでなくWebデザイナー、アプリ開発者などから非常に多く利用されています。もちろん私も使います。 下の、Docker MachineはDockerホストをプロビジョニングするツールです。最近出てきたもので、まだβです。 この二つにはOpenStackのドライバーやプロバイダーが存在します。ただ、残念ながらConoHaではそのまま動かなかったです。問題となった点は二つ。一つはConoHaがIPv4/IPv6のデュアルスタックに対応していたこと、もう一つはプロバイダーがFixed I1Pに対応していないことです。 自分が使うツールが、自分のクラウドで動かない。これはだめだろう。 VagrantのドライバはFloating IPのみ対応していなくて、Fixed IPに対応していなかったんですね。あと、KeyStoneから返ってくるサービスからログの名前がConoHaとちょっと違っていた。あと他にも細かい問題がいろいろありました。ということで、ForkしてConoHa用のプロバイダーを作って、RubyGemに登録した。いま1000くらいのダウンロードがあります。これでConoHaのインスタンスをvagrant upできる。すばらしい。 Docker Machineの方は、このツールはIpv4 ipv6のデュアルスタックに対応していなかったんですね。ConoHaはデュアルスタックの環境で、docker Machineを走らせるとIP取得の失敗していました。 これはDockerにプルリクエストを送ってマージしてもらえました。次のリリースで入ります。
  44. ほかにも上のようなWordPressのプラグインなども開発しています。 これはWordPressのストレージバックエンドとしてオブジェクトストレージを使えるようにするプラグインです。 下は、ConoHaの独自APIを操作するCLIツールです。 私はPythonを知らないので、残念ながらOpenStackにコードで貢献することができません。なのでOpenStackのAPIを使ったツールやドライバを、いろいろ書いていきたいと思っています。そうすることで、結果としてConoHaで動作するソフトウェアが増えていくでしょう。