Soumettre la recherche
Mettre en ligne
Openstack+Ceph設定ガイド
•
8 j'aime
•
4,675 vues
OSSラボ株式会社
Suivre
Openstack/Icehouseでの、Ceph/Firefly分散ストレージ設定ガイド by オープンクラウド実証実験タスクフォース(OCDET) ストレージ基盤 WG
Lire moins
Lire la suite
Logiciels
Signaler
Partager
Signaler
Partager
1 sur 24
Télécharger maintenant
Télécharger pour lire hors ligne
Recommandé
Ceph アーキテクチャ概説
Ceph アーキテクチャ概説
Emma Haruka Iwao
分散ストレージ技術Cephの最新情報
分散ストレージ技術Cephの最新情報
Emma Haruka Iwao
CephとGluster次期バージョンでの新機能
CephとGluster次期バージョンでの新機能
Emma Haruka Iwao
How to use Ceph RBD as CloudStack Primary Storage
How to use Ceph RBD as CloudStack Primary Storage
Kimihiko Kitase
openstack+cephインテグレーション
openstack+cephインテグレーション
OSSラボ株式会社
10年効く分散ファイルシステム技術 GlusterFS & Red Hat Storage
10年効く分散ファイルシステム技術 GlusterFS & Red Hat Storage
Etsuji Nakai
Cephのベンチマークをしました
Cephのベンチマークをしました
OSSラボ株式会社
Ceph With Quanta Stor
Ceph With Quanta Stor
Kazuki Mayama
Recommandé
Ceph アーキテクチャ概説
Ceph アーキテクチャ概説
Emma Haruka Iwao
分散ストレージ技術Cephの最新情報
分散ストレージ技術Cephの最新情報
Emma Haruka Iwao
CephとGluster次期バージョンでの新機能
CephとGluster次期バージョンでの新機能
Emma Haruka Iwao
How to use Ceph RBD as CloudStack Primary Storage
How to use Ceph RBD as CloudStack Primary Storage
Kimihiko Kitase
openstack+cephインテグレーション
openstack+cephインテグレーション
OSSラボ株式会社
10年効く分散ファイルシステム技術 GlusterFS & Red Hat Storage
10年効く分散ファイルシステム技術 GlusterFS & Red Hat Storage
Etsuji Nakai
Cephのベンチマークをしました
Cephのベンチマークをしました
OSSラボ株式会社
Ceph With Quanta Stor
Ceph With Quanta Stor
Kazuki Mayama
フルオープンソースでここまで出来る。OpenStackの構築と運用
フルオープンソースでここまで出来る。OpenStackの構築と運用
Ikuo Kumagai
ソフトウェア・デファインドが再定義するストレージ -- OpenStackデファクト標準ストレージCeph - OpenStack最新情報セミナー 201...
ソフトウェア・デファインドが再定義するストレージ -- OpenStackデファクト標準ストレージCeph - OpenStack最新情報セミナー 201...
VirtualTech Japan Inc.
141030ceph
141030ceph
OSSラボ株式会社
Seastar in 歌舞伎座.tech#8「C++初心者会」
Seastar in 歌舞伎座.tech#8「C++初心者会」
Takuya ASADA
Cephを用いたwordpressの構築[LT版]
Cephを用いたwordpressの構築[LT版]
Kat 0gm
Ceph Loves OpenStack: Why and How
Ceph Loves OpenStack: Why and How
Emma Haruka Iwao
Pgcon2012 ori-20120224
Pgcon2012 ori-20120224
Manabu Ori
ceph acceleration and storage architecture
ceph acceleration and storage architecture
Yuki Kitajima
OpenStack 101
OpenStack 101
Rongze Zhu
Ceph Day Tokyo - High Performance Layered Architecture
Ceph Day Tokyo - High Performance Layered Architecture
Ceph Community
高スループットなサーバアプリケーションの為の新しいフレームワーク 「Seastar」
高スループットなサーバアプリケーションの為の新しいフレームワーク 「Seastar」
Takuya ASADA
Using Kubernetes on Google Container Engine
Using Kubernetes on Google Container Engine
Etsuji Nakai
Quick Introduction to GlusterFS
Quick Introduction to GlusterFS
Etsuji Nakai
GlusterFS Masakari Talks
GlusterFS Masakari Talks
Keisuke Takahashi
OSSラボ様講演 OpenStack最新情報セミナー 2014年6月
OSSラボ様講演 OpenStack最新情報セミナー 2014年6月
VirtualTech Japan Inc.
ONIC-Japan-2019-OVN public
ONIC-Japan-2019-OVN public
Manabu Ori
Seastar:高スループットなサーバアプリケーションの為の新しいフレームワーク
Seastar:高スループットなサーバアプリケーションの為の新しいフレームワーク
Takuya ASADA
マルチAZ対応!AWS上で稼働するスケールアウトNAS Red Hat Storage
マルチAZ対応!AWS上で稼働するスケールアウトNAS Red Hat Storage
Taira Hajime
Comparing GlusterFS Swift API to Native Swift
Comparing GlusterFS Swift API to Native Swift
Etsuji Nakai
Gluster fsにおいて内在するincident要因
Gluster fsにおいて内在するincident要因
TaikaiSebastianHirose
分散ストレージソフトウェアCeph・アーキテクチャー概要
分散ストレージソフトウェアCeph・アーキテクチャー概要
Etsuji Nakai
Awsを使った構築事例
Awsを使った構築事例
株式会社雲屋ネットワーク
Contenu connexe
Tendances
フルオープンソースでここまで出来る。OpenStackの構築と運用
フルオープンソースでここまで出来る。OpenStackの構築と運用
Ikuo Kumagai
ソフトウェア・デファインドが再定義するストレージ -- OpenStackデファクト標準ストレージCeph - OpenStack最新情報セミナー 201...
ソフトウェア・デファインドが再定義するストレージ -- OpenStackデファクト標準ストレージCeph - OpenStack最新情報セミナー 201...
VirtualTech Japan Inc.
141030ceph
141030ceph
OSSラボ株式会社
Seastar in 歌舞伎座.tech#8「C++初心者会」
Seastar in 歌舞伎座.tech#8「C++初心者会」
Takuya ASADA
Cephを用いたwordpressの構築[LT版]
Cephを用いたwordpressの構築[LT版]
Kat 0gm
Ceph Loves OpenStack: Why and How
Ceph Loves OpenStack: Why and How
Emma Haruka Iwao
Pgcon2012 ori-20120224
Pgcon2012 ori-20120224
Manabu Ori
ceph acceleration and storage architecture
ceph acceleration and storage architecture
Yuki Kitajima
OpenStack 101
OpenStack 101
Rongze Zhu
Ceph Day Tokyo - High Performance Layered Architecture
Ceph Day Tokyo - High Performance Layered Architecture
Ceph Community
高スループットなサーバアプリケーションの為の新しいフレームワーク 「Seastar」
高スループットなサーバアプリケーションの為の新しいフレームワーク 「Seastar」
Takuya ASADA
Using Kubernetes on Google Container Engine
Using Kubernetes on Google Container Engine
Etsuji Nakai
Quick Introduction to GlusterFS
Quick Introduction to GlusterFS
Etsuji Nakai
GlusterFS Masakari Talks
GlusterFS Masakari Talks
Keisuke Takahashi
OSSラボ様講演 OpenStack最新情報セミナー 2014年6月
OSSラボ様講演 OpenStack最新情報セミナー 2014年6月
VirtualTech Japan Inc.
ONIC-Japan-2019-OVN public
ONIC-Japan-2019-OVN public
Manabu Ori
Seastar:高スループットなサーバアプリケーションの為の新しいフレームワーク
Seastar:高スループットなサーバアプリケーションの為の新しいフレームワーク
Takuya ASADA
マルチAZ対応!AWS上で稼働するスケールアウトNAS Red Hat Storage
マルチAZ対応!AWS上で稼働するスケールアウトNAS Red Hat Storage
Taira Hajime
Comparing GlusterFS Swift API to Native Swift
Comparing GlusterFS Swift API to Native Swift
Etsuji Nakai
Gluster fsにおいて内在するincident要因
Gluster fsにおいて内在するincident要因
TaikaiSebastianHirose
Tendances
(20)
フルオープンソースでここまで出来る。OpenStackの構築と運用
フルオープンソースでここまで出来る。OpenStackの構築と運用
ソフトウェア・デファインドが再定義するストレージ -- OpenStackデファクト標準ストレージCeph - OpenStack最新情報セミナー 201...
ソフトウェア・デファインドが再定義するストレージ -- OpenStackデファクト標準ストレージCeph - OpenStack最新情報セミナー 201...
141030ceph
141030ceph
Seastar in 歌舞伎座.tech#8「C++初心者会」
Seastar in 歌舞伎座.tech#8「C++初心者会」
Cephを用いたwordpressの構築[LT版]
Cephを用いたwordpressの構築[LT版]
Ceph Loves OpenStack: Why and How
Ceph Loves OpenStack: Why and How
Pgcon2012 ori-20120224
Pgcon2012 ori-20120224
ceph acceleration and storage architecture
ceph acceleration and storage architecture
OpenStack 101
OpenStack 101
Ceph Day Tokyo - High Performance Layered Architecture
Ceph Day Tokyo - High Performance Layered Architecture
高スループットなサーバアプリケーションの為の新しいフレームワーク 「Seastar」
高スループットなサーバアプリケーションの為の新しいフレームワーク 「Seastar」
Using Kubernetes on Google Container Engine
Using Kubernetes on Google Container Engine
Quick Introduction to GlusterFS
Quick Introduction to GlusterFS
GlusterFS Masakari Talks
GlusterFS Masakari Talks
OSSラボ様講演 OpenStack最新情報セミナー 2014年6月
OSSラボ様講演 OpenStack最新情報セミナー 2014年6月
ONIC-Japan-2019-OVN public
ONIC-Japan-2019-OVN public
Seastar:高スループットなサーバアプリケーションの為の新しいフレームワーク
Seastar:高スループットなサーバアプリケーションの為の新しいフレームワーク
マルチAZ対応!AWS上で稼働するスケールアウトNAS Red Hat Storage
マルチAZ対応!AWS上で稼働するスケールアウトNAS Red Hat Storage
Comparing GlusterFS Swift API to Native Swift
Comparing GlusterFS Swift API to Native Swift
Gluster fsにおいて内在するincident要因
Gluster fsにおいて内在するincident要因
En vedette
分散ストレージソフトウェアCeph・アーキテクチャー概要
分散ストレージソフトウェアCeph・アーキテクチャー概要
Etsuji Nakai
Awsを使った構築事例
Awsを使った構築事例
株式会社雲屋ネットワーク
ビジネス雑談サロン オンライン・ストレージ入門
ビジネス雑談サロン オンライン・ストレージ入門
㈱経営教育総合研究所 竹永亮
Dropbox
Dropbox
Yasufumi Minoda
クラウドストレージ
クラウドストレージ
Tohru Miyashita
Dropbox Start Guide
Dropbox Start Guide
GOD_oda
ownCloudについて
ownCloudについて
Shinya Saita
[夏サミ]クラウドストレージBoxのグリーによるコンテンツプラットフォームとしての効果的活用事例
[夏サミ]クラウドストレージBoxのグリーによるコンテンツプラットフォームとしての効果的活用事例
gree_tech
ファイル共有
ファイル共有
yuritaka10
アイデア説明_140626
アイデア説明_140626
Code for Japan
What you need to know about ceph
What you need to know about ceph
Emma Haruka Iwao
【デブサミ夏AL】クラウドストレージBoxのグリーによる コンテンツプラットフォームとしての効果的活用事例例
【デブサミ夏AL】クラウドストレージBoxのグリーによる コンテンツプラットフォームとしての効果的活用事例例
Developers Summit
クラウド時代のストレージとは (Cloudian Summit 2012)
クラウド時代のストレージとは (Cloudian Summit 2012)
CLOUDIAN KK
En vedette
(13)
分散ストレージソフトウェアCeph・アーキテクチャー概要
分散ストレージソフトウェアCeph・アーキテクチャー概要
Awsを使った構築事例
Awsを使った構築事例
ビジネス雑談サロン オンライン・ストレージ入門
ビジネス雑談サロン オンライン・ストレージ入門
Dropbox
Dropbox
クラウドストレージ
クラウドストレージ
Dropbox Start Guide
Dropbox Start Guide
ownCloudについて
ownCloudについて
[夏サミ]クラウドストレージBoxのグリーによるコンテンツプラットフォームとしての効果的活用事例
[夏サミ]クラウドストレージBoxのグリーによるコンテンツプラットフォームとしての効果的活用事例
ファイル共有
ファイル共有
アイデア説明_140626
アイデア説明_140626
What you need to know about ceph
What you need to know about ceph
【デブサミ夏AL】クラウドストレージBoxのグリーによる コンテンツプラットフォームとしての効果的活用事例例
【デブサミ夏AL】クラウドストレージBoxのグリーによる コンテンツプラットフォームとしての効果的活用事例例
クラウド時代のストレージとは (Cloudian Summit 2012)
クラウド時代のストレージとは (Cloudian Summit 2012)
Similaire à Openstack+Ceph設定ガイド
Hadoop on LXC
Hadoop on LXC
俊夫 森
Apache cloudstack4.0インストール
Apache cloudstack4.0インストール
Yasuhiro Arai
Havana版 RDO-QuickStart-4 (140421-Havana-RDO-QuickStart-4.pdf)
Havana版 RDO-QuickStart-4 (140421-Havana-RDO-QuickStart-4.pdf)
VirtualTech Japan Inc.
Apache CloudStack 4.0 インストール(ver0.5)
Apache CloudStack 4.0 インストール(ver0.5)
Yasuhiro Arai
OpenStack QuickStart - Icehouse
OpenStack QuickStart - Icehouse
Hideki Saito
OpenStack Liberty をインストールしてみた
OpenStack Liberty をインストールしてみた
Takashi Umeno
Havana版 RDO-QuickStart-3 (140421-Havana-RDO-QuickStart-3.pdf)
Havana版 RDO-QuickStart-3 (140421-Havana-RDO-QuickStart-3.pdf)
VirtualTech Japan Inc.
CloudFoundry 2 on Apache CloudStack 4.2.1
CloudFoundry 2 on Apache CloudStack 4.2.1
Kotaro Noyama
第20回CloudStackユーザ会_ApacheCloudStack4.4新機能紹介
第20回CloudStackユーザ会_ApacheCloudStack4.4新機能紹介
Midori Oge
Apache Bigtopによるオープンなビッグデータ処理基盤の構築(オープンデベロッパーズカンファレンス 2021 Online 発表資料)
Apache Bigtopによるオープンなビッグデータ処理基盤の構築(オープンデベロッパーズカンファレンス 2021 Online 発表資料)
NTT DATA Technology & Innovation
ネットワークエンジニアのための Puppet / Chef
ネットワークエンジニアのための Puppet / Chef
npsg
CloudFoundry 2 on Apache CloudStack 4.2.1
CloudFoundry 2 on Apache CloudStack 4.2.1
Kotaro Noyama
Open stackceilometer
Open stackceilometer
Takahiro Shida
実は怖くないDevOps
実は怖くないDevOps
Masanori Ishigami
OpenStackクラウド基盤構築ハンズオンセミナー 第1日:ハンズオンNo1
OpenStackクラウド基盤構築ハンズオンセミナー 第1日:ハンズオンNo1
Etsuji Nakai
Hive undocumented feature
Hive undocumented feature
tamtam180
OpenStack Grizzly構築手順書
OpenStack Grizzly構築手順書
VirtualTech Japan Inc.
osoljp 2011.08
osoljp 2011.08
@ otsuka752
CVE-2021-3156 Baron samedit (sudoの脆弱性)
CVE-2021-3156 Baron samedit (sudoの脆弱性)
Tetsuya Hasegawa
OpenStackで始めるクラウド環境構築入門
OpenStackで始めるクラウド環境構築入門
VirtualTech Japan Inc.
Similaire à Openstack+Ceph設定ガイド
(20)
Hadoop on LXC
Hadoop on LXC
Apache cloudstack4.0インストール
Apache cloudstack4.0インストール
Havana版 RDO-QuickStart-4 (140421-Havana-RDO-QuickStart-4.pdf)
Havana版 RDO-QuickStart-4 (140421-Havana-RDO-QuickStart-4.pdf)
Apache CloudStack 4.0 インストール(ver0.5)
Apache CloudStack 4.0 インストール(ver0.5)
OpenStack QuickStart - Icehouse
OpenStack QuickStart - Icehouse
OpenStack Liberty をインストールしてみた
OpenStack Liberty をインストールしてみた
Havana版 RDO-QuickStart-3 (140421-Havana-RDO-QuickStart-3.pdf)
Havana版 RDO-QuickStart-3 (140421-Havana-RDO-QuickStart-3.pdf)
CloudFoundry 2 on Apache CloudStack 4.2.1
CloudFoundry 2 on Apache CloudStack 4.2.1
第20回CloudStackユーザ会_ApacheCloudStack4.4新機能紹介
第20回CloudStackユーザ会_ApacheCloudStack4.4新機能紹介
Apache Bigtopによるオープンなビッグデータ処理基盤の構築(オープンデベロッパーズカンファレンス 2021 Online 発表資料)
Apache Bigtopによるオープンなビッグデータ処理基盤の構築(オープンデベロッパーズカンファレンス 2021 Online 発表資料)
ネットワークエンジニアのための Puppet / Chef
ネットワークエンジニアのための Puppet / Chef
CloudFoundry 2 on Apache CloudStack 4.2.1
CloudFoundry 2 on Apache CloudStack 4.2.1
Open stackceilometer
Open stackceilometer
実は怖くないDevOps
実は怖くないDevOps
OpenStackクラウド基盤構築ハンズオンセミナー 第1日:ハンズオンNo1
OpenStackクラウド基盤構築ハンズオンセミナー 第1日:ハンズオンNo1
Hive undocumented feature
Hive undocumented feature
OpenStack Grizzly構築手順書
OpenStack Grizzly構築手順書
osoljp 2011.08
osoljp 2011.08
CVE-2021-3156 Baron samedit (sudoの脆弱性)
CVE-2021-3156 Baron samedit (sudoの脆弱性)
OpenStackで始めるクラウド環境構築入門
OpenStackで始めるクラウド環境構築入門
Plus de OSSラボ株式会社
220523JS7.pdf
220523JS7.pdf
OSSラボ株式会社
JS7 JobScheduler プレビュー
JS7 JobScheduler プレビュー
OSSラボ株式会社
201023 jobscheduler os_cfall
201023 jobscheduler os_cfall
OSSラボ株式会社
ジョブストリーム紹介資料
ジョブストリーム紹介資料
OSSラボ株式会社
191010 opie2
191010 opie2
OSSラボ株式会社
CMDBuild V.3 update [Japanese]
CMDBuild V.3 update [Japanese]
OSSラボ株式会社
180729 jtf open-audit
180729 jtf open-audit
OSSラボ株式会社
170827 jtf garafana
170827 jtf garafana
OSSラボ株式会社
NMIS overview
NMIS overview
OSSラボ株式会社
JobSchedulerアップデート2016
JobSchedulerアップデート2016
OSSラボ株式会社
Site Reliability Engineering (SRE)を可能にするOpenPIEのご紹介
Site Reliability Engineering (SRE)を可能にするOpenPIEのご紹介
OSSラボ株式会社
160901 osce2016sre
160901 osce2016sre
OSSラボ株式会社
160724 jtf2016sre
160724 jtf2016sre
OSSラボ株式会社
オープンソースNW監視ツールのご紹介
オープンソースNW監視ツールのご紹介
OSSラボ株式会社
Ansible2.0と実用例
Ansible2.0と実用例
OSSラボ株式会社
CMDBuildを中心とした運用管理自動化基盤OpenPIEの事例紹介
CMDBuildを中心とした運用管理自動化基盤OpenPIEの事例紹介
OSSラボ株式会社
「今、ヨーロッパのオープンソースがアツい!」クラウドの構成管理を自動化する基盤CMDBuild
「今、ヨーロッパのオープンソースがアツい!」クラウドの構成管理を自動化する基盤CMDBuild
OSSラボ株式会社
150726cmdbuild jtf2015
150726cmdbuild jtf2015
OSSラボ株式会社
CMDBuild Ready2Use紹介資料
CMDBuild Ready2Use紹介資料
OSSラボ株式会社
Zabbix監視運用業務の自動化事例
Zabbix監視運用業務の自動化事例
OSSラボ株式会社
Plus de OSSラボ株式会社
(20)
220523JS7.pdf
220523JS7.pdf
JS7 JobScheduler プレビュー
JS7 JobScheduler プレビュー
201023 jobscheduler os_cfall
201023 jobscheduler os_cfall
ジョブストリーム紹介資料
ジョブストリーム紹介資料
191010 opie2
191010 opie2
CMDBuild V.3 update [Japanese]
CMDBuild V.3 update [Japanese]
180729 jtf open-audit
180729 jtf open-audit
170827 jtf garafana
170827 jtf garafana
NMIS overview
NMIS overview
JobSchedulerアップデート2016
JobSchedulerアップデート2016
Site Reliability Engineering (SRE)を可能にするOpenPIEのご紹介
Site Reliability Engineering (SRE)を可能にするOpenPIEのご紹介
160901 osce2016sre
160901 osce2016sre
160724 jtf2016sre
160724 jtf2016sre
オープンソースNW監視ツールのご紹介
オープンソースNW監視ツールのご紹介
Ansible2.0と実用例
Ansible2.0と実用例
CMDBuildを中心とした運用管理自動化基盤OpenPIEの事例紹介
CMDBuildを中心とした運用管理自動化基盤OpenPIEの事例紹介
「今、ヨーロッパのオープンソースがアツい!」クラウドの構成管理を自動化する基盤CMDBuild
「今、ヨーロッパのオープンソースがアツい!」クラウドの構成管理を自動化する基盤CMDBuild
150726cmdbuild jtf2015
150726cmdbuild jtf2015
CMDBuild Ready2Use紹介資料
CMDBuild Ready2Use紹介資料
Zabbix監視運用業務の自動化事例
Zabbix監視運用業務の自動化事例
Openstack+Ceph設定ガイド
1.
140830openstack_ceph 設定ガイド.docx Copyright
© OSS Laboratories Co., Ltd. All rights reserved Openstack-Ceph 設定ガイド Openstack/Icehouse + Ceph/Firefly 版 Ver. 1.0 2014/8/30 オープンクラウド実証実験タスクフォース(OCDET) ストレージ基盤WG OSS ラボ株式会社 http://www.ossl.co.jp
2.
140830openstack_ceph 設定ガイド.docx ⽬目次
1. はじめに ......................................................................................... 2 1 . 1 . 本書の目的 ............................................................................................. 2 1 . 2 . 本書の利用対象者 .................................................................................... 2 1 . 3 . 本手順の検証環境 .................................................................................... 2 2. システム概要 ................................................................................... 3 2 . 1 . システム概要図 ........................................................................................ 3 3. インストール手順 .............................................................................. 4 3 . 1 . 前提条件 ................................................................................................ 4 3 . 2 . インストール方法 ...................................................................................... 4 3.2.1. Ceph の構成 ................................................................................................................................. 4 3.2.2. Ceph のインストール ...................................................................................................................... 4 3.2.3. Openstack の設定 ........................................................................................................................ 6 3.2.4. 各種ファイル配置 ......................................................................................................................... 23 3.2.5. 各種ログ ...................................................................................................................................... 23 3.2.6. アンインストール ........................................................................................................................... 23 Copyright © OSS Laboratories Co., Ltd. All rights reserved 1
3.
140830openstack_ceph 設定ガイド.docx 1
. はじめに 1 . 1 . 本書の⽬目的 本書を⽤用いてOpenstack 環境でCeph を使⽤用できる環境を構築できることを⽬目的とします。 1 . 2 . 本書の利⽤用対象者 本書の利⽤用対象者は以下を想定して作成しております。 Openstack 構築の経験者。 1 . 3 . 本⼿手順の検証環境 本⼿手順書は以下の機器、OS、アプリケーションを⽤用いた検証環境を基に作成しております。 Ubuntu 12.04LTS 64bit Openstack Icehouse 2014.1 Ceph Firefly 8.0 注意:Ceph のクライアントモジュール(kernel client, librbd)は、linux kernel 3.1 以上が必要ですので、CentOS6.5 の 場合kernel upgrade が必要です。 Copyright © OSS Laboratories Co., Ltd. All rights reserved 2
4.
140830openstack_ceph 設定ガイド.docx 2
. システム概要 本システムの概要を以下に⽰示します。 2 . 1 . システム概要図 Management Network: 192.168.100.0/24 Ceph クラスタ EXFS2 .113 EXFS3 .114 EXFS1 .112 MON MDS OSD MON MDS OSD MON MDS OSD .123 controller network compute openstack .10 Pubric Network: 192.168.120.0/24 Copyright © OSS Laboratories Co., Ltd. All rights reserved 3
5.
140830openstack_ceph 設定ガイド.docx 3
. インストール⼿手順 3 . 1 . 前提条件 l Openstack インストール済 l インターネット接続されている事 3 . 2 . インストール⽅方法 3.2.1. Ceph の構成 ホスト名 ネットワーク/eth0 ネットワーク/eth1 OS 役割 EXFS1 192.168.100.112/24 - CentOS release 6.5 (Final) MON/MDS/OSD/RADOS-GW EXFS2 192.168.100.113/24 - CentOS release 6.5 (Final) MON/MDS/OSD EXFS3 192.168.100.114/24 - CentOS release 6.5 (Final) MON/MDS/OSD openstack 192.168.100.123/24 192.168.120.10/24 Ubuntu12.04LTS controller/network/ compute/ceph クライアント 3.2.2. Ceph のインストール ① 事前準備 Ceph クラスタ及びOpenstack 間での各サーバがホスト名での名前解決が行えること Ceph クラスタのファイアウォールの停止 ② C e p h - d e p l o y 作業サーバ:EXFS1 実行ユーザ:root 作業ディレクトリ:/root ◆Ceph クラスタのインストール Ceph クラスタはceph-deploy を使用して構築します。 ・EXFS1 にCeph-deploy のインストール # yum install ceph-deploy ・Ceph クラスタへCeph のインストール # ceph-deploy install EXFS1 EXFS2 EXFS3 ・鍵の生成とコンフィギュレーションの生成 Ceph クラスタ・クライアント間通信のため、鍵の生成とコンフィギュレーションの生成 を下記の操作を行い ます。 Copyright © OSS Laboratories Co., Ltd. All rights reserved 4
6.
140830openstack_ceph 設定ガイド.docx #
ceph-deploy new EXFS1 EXFS2 EXFS3 ・MON daemon のデプロイを行う # ceph-deploy mon create EXFS1 EXFS2 EXFS3 ・鍵のデプロイ Ceph サーバ間・クライアント間での共有鍵となります。1 Cluster に対して1 つの鍵を保有します。 # ceph-deploy gatherkeys EXFS1 EXFS2 EXFS3 ・OSD にて使用するディレクトリの作成 EXFS1、EXFS2、EXFS3 それぞれで作成します。 EXFS1: # mkdir /var/local/osd0 EXFS2: # mkdir /var/local/osd1 EXFS3: # mkdir /var/local/osd2 ・OSD daemon のデプロイ # ceph-deploy osd prepare EXFS1:/var/local/osd0 EXFS2:/var/local/osd1 EXFS3:/var/local/osd2 # ceph-deploy osd activate EXFS1:/var/local/osd0 EXFS2:/var/local/osd1 EXFS3:/var/local/osd2 # ceph-deploy admin EXFS1 EXFS2 EXFS3 ・MDS deamon のデプロイ # ceph-deploy mds create EXFS1 EXFS2 EXFS3 ◆Ceph クライアントインストール Openstack にてCeph クライアントをインストールします。 # apt-get install ceph-common python-ceph ceph-fuse ③ C e p h クライアントの配置 作業サーバ:EXFS1 実行ユーザ:root 作業ディレクトリ:/root Openstack にてCeph を使用するためceph.conf、adminKeyring ファイルをCeph クラスタよりコピーします。 ・Ceph のディレクトリの作成 Copyright © OSS Laboratories Co., Ltd. All rights reserved 5
7.
140830openstack_ceph 設定ガイド.docx #
mkdir /etc/ceph ・Ceph クラスタよりceph.conf、adminKeyring のコピー # scp ceph.conf ceph.client.admin.keyring openstack:/etc/ceph ④ R A DOS -GW 設定 作業サーバ:EXFS1 実行ユーザ:root 作業ディレクトリ:/root ◆RADOS-GW、Apache 等の必要なパッケージのインストール、及びApache の設定 ・Apache 等のインストール # yum install httpd mod_fastcgi mod_ssl openssl ・RADOS-GW のインストール # yum install ceph-radosgw ・Apache の設定 以下の行を追加します。 # vi /etc/httpd/conf/httpd.conf ServerName EXFS1 ・証明書の作成 openssl x509 -req -days 365 -in ca.csr -signkey ca.key -out ca.crt ・証明書のコピー cp ca.crt /etc/pki/tls/certs cp ca.key /etc/pki/tls/private/ca.key ca.csr /etc/pki/tls/private/ca.csr 3.2.3. Openstack の設定 ① Rbd pool の作成 作業サーバ:openstack 実行ユーザ:root 作業ディレクトリ:/root ◆Glance、Cinder、Cinder-Backup にて使用するpool の作成 ・Glance 用のpool 作成 # ceph osd pool create images 128 Copyright © OSS Laboratories Co., Ltd. All rights reserved 6
8.
140830openstack_ceph 設定ガイド.docx ・Cinder
用のpool 作成 # ceph osd pool create volumes 128 ・Cinder-Backup 用のpool 作成 # ceph osd pool create backups 128 ・作成したpool の確認 # rados lspools data metadata rbd images backups volumes ② Glance 設定 作業サーバ:openstack 実行ユーザ:root 作業ディレクトリ:/etc/ceph ◆Keyring の作成 Glance 用のpool に接続するためのユーザを作成し、Keyring を取得します。 ・ユーザ、keyring の作成 # ceph auth get-or-create client.images mon 'allow r' osd 'allow class-read object_prefix rbd_children, allow rwx pool=images' ・作成したGlance のkeyring の確認 # ceph auth list client.glance key: AQD0c5hTaOQGORAAP9fOw/bpG0NNHg0r7K71YQ== caps: [mon] allow r caps: [osd] allow class-read object_prefix rbd_children, allow rwx pool=images ・Keyring ファイルをローカルに取得 # ceph auth get-or-create client.images ¦ tee ceph.client.images.keyring ・オーナーをGlance に変更 # chown glance:glance ceph.client.images.keyring Copyright © OSS Laboratories Co., Ltd. All rights reserved 7
9.
140830openstack_ceph 設定ガイド.docx ・ceph.config
の修正 上記で取得したユーザとkeyring ファイルの設定をceph.conf に追加します。 # vi ceph.conf [client.images] keyring = /etc/ceph/ceph.client.images.keyring ◆Glance 設定ファイルの編集 作業サーバ:openstack 実行ユーザ:root 作業ディレクトリ:/etc/glance ・Glance の保存先をceph に変更するため、glance-api.conf を編集します。 以下の行を追加します。また、デフォルトの設定の「default_store = file」はコメントアウトします。 # vi glance-api.conf #default_store = file default_store = rbd rbd_store_ceph_conf = /etc/ceph/ceph.conf rbd_store_user = images rbd_store_pool = images rbd_store_chunk_size = 8 ・既に古い保存先にイメージを登録してある場合は削除する # glance image-list +--------------------------------------+---------------------------------+------------- +------------------+----------+--------+ ¦ ID ¦ Name ¦ Disk Format ¦ Container Format ¦ Size ¦ Status ¦ +--------------------------------------+---------------------------------+------------- +------------------+----------+--------+ ¦ 4b1fc154-7c04-4572-ac6d-40d35d012744 ¦ cirros-0.3.1-x86_64-uec ¦ ami ¦ ami ¦ 25165824 ¦ active ¦ +--------------------------------------+---------------------------------+------------- +------------------+----------+--------+ # glance image-delete 4b1fc154-7c04-4572-ac6d-40d35d012744 ・Glance サービスの再起動 # for init in /etc/init.d/glance-*; do $init restart; done ◆イメージの登録 作業サーバ:openstack Copyright © OSS Laboratories Co., Ltd. All rights reserved 8
10.
140830openstack_ceph 設定ガイド.docx 実行ユーザ:root
作業ディレクトリ:/usr/local/src 本書にて登録するイメージ(cirros-0.3.2-x86_64-disk.img)は予め/usr/local/src に格納 # glance add name=cirros-0.3.2-x86_64 is_public=true disk_format=qcow2 container_format=ovf < cirros-0.3.2-x86_64-disk.img Added new image with ID: 2f74d6c3-d6ec-4109-9f0b-187a6f3bdd1c ◆登録したイメージの確認 ・Openstack 上でのイメージ登録の確認 # glance image-list +--------------------------------------+---------------------+-------------+----------- -------+----------+--------+ ¦ ID ¦ Name ¦ Disk Format ¦ Container Format ¦ Size ¦ Status ¦ +--------------------------------------+---------------------+-------------+----------- -------+----------+--------+ ¦ 2f74d6c3-d6ec-4109-9f0b-187a6f3bdd1c ¦ cirros-0.3.2-x86_64 ¦ qcow2 ¦ ovf ¦ 13167616 ¦ active ¦ +--------------------------------------+---------------------+-------------+----------- -------+----------+--------+ # glance index ID Name Disk Format Container Format Size ------------------------------------ ------------------------------ -------------------- -------------------- -------------- 2f74d6c3-d6ec-4109-9f0b-187a6f3bdd1c cirros-0.3.2-x86_64 qcow2 ovf 13167616 ・ceph 上でのイメージ登録の確認 # rbd --pool images ls -l NAME SIZE PARENT FMT PROT LOCK 2f74d6c3-d6ec-4109-9f0b-187a6f3bdd1c 12859k 2 2f74d6c3-d6ec-4109-9f0b-187a6f3bdd1c@snap 12859k 2 yes ③ Cinder 設定 作業サーバ:openstack 実行ユーザ:root 作業ディレクトリ:/etc/ceph Copyright © OSS Laboratories Co., Ltd. All rights reserved 9
11.
140830openstack_ceph 設定ガイド.docx ◆Keyring
の作成 Cinder 用のpool に接続するためのユーザを作成し、Keyring を取得します。 ・ユーザ、keyring の作成 # ceph auth get-or-create client.volumes mon 'allow r' osd 'allow class-read object_prefix rbd_children, allow rwx pool=volumes, allow rx pool=images' ・作成したGlance のkeyring の確認 # client.volumes key: AQBEkLNTOJsYGRAAuN9hy3k7xGotKItfFb0LuQ== caps: [mon] allow r caps: [osd] allow class-read object_prefix rbd_children, allow rwx pool=volumes, allow rx pool=images ・Keyring ファイルをローカルに取得 # ceph auth get-or-create client.volumes ¦ tee ceph.client.volumes.keyring ・オーナーをCinder に変更 # chown cinder:cinder /etc/ceph/ceph.client.volumes.keyring ・ceph.config の修正 上記で取得したユーザとkeyring ファイルの設定をceph.conf に追加します。 # vi /etc/ceph/ceph.conf [client.images] keyring = /etc/ceph/ceph.client.volumes.keyring ◆Libvirt に鍵を登録 作業サーバ:openstack 実行ユーザ:root 作業ディレクトリ:/root ・鍵の取得 # ceph auth get-key client.volumes ¦ tee client.volumes.key ・XML ファイルの作成 # cat > secret.xml <<EOF <secret ephemeral='no' private='no'> <usage type='ceph'> <name>client.volumes secret</name> </usage> Copyright © OSS Laboratories Co., Ltd. All rights reserved 10
12.
140830openstack_ceph 設定ガイド.docx </secret>
EOF ・UUID の取得 # UUID=$(virsh secret-define --file secret.xml ¦ cut -d " " -f 2) # echo $UUID 2c01249d-9e02-ea2d-9d1e-fbadf82372a9 ・libvirt に鍵ファイルとUUID を登録 # virsh secret-set-value --secret $UUID --base64 $(cat client.volumes.key) && rm client.volumes.key secret.xml ※Ceph とlibvirt の鍵が一致していない場合、正常にCinder が動作しないのでこの時点で鍵の一致を確認 します。 2 つのコマンド実行後の値が同じであることを確認します。 # ceph auth get-key client.volumes AQBEkLNTOJsYGRAAuN9hy3k7xGotKItfFb0LuQ== # virsh secret-get-value --secret $UUID AQBEkLNTOJsYGRAAuN9hy3k7xGotKItfFb0LuQ== ◆Cinder 設定ファイルの編集 作業サーバ:openstack 実行ユーザ:root 作業ディレクトリ:/etc/cinder ・ボリュームの保存先をceph に変更するため、cinder.conf を編集します。 以下の行を追加します。 # vi cinder.conf volume_driver=cinder.volume.drivers.rbd.RBDDriver rbd_pool=volumes rbd_user=volumes rbd_secret_uuid=2c01249d-9e02-ea2d-9d1e-fbadf82372a9 ※rbd_secret_uuid の値は”UUID の取得”にて取得した値を記載します。 ・Cinder サービスの再起動 # for init in /etc/init.d/cinder-*; do $init restart; done ◆ Cinder ボリュームの作成 # cinder create --display_name test-01 1 Copyright © OSS Laboratories Co., Ltd. All rights reserved 11
13.
140830openstack_ceph 設定ガイド.docx +------------------------------+--------------------------------------+
¦ Property ¦ Value ¦ +------------------------------+--------------------------------------+ ¦ attachments ¦ [] ¦ ¦ availability_zone ¦ nova ¦ ¦ bootable ¦ false ¦ ¦ created_at ¦ 2014-07-22T14:02:05.000000 ¦ ¦ description ¦ None ¦ ¦ encrypted ¦ False ¦ ¦ id ¦ b6126f66-a6e8-456b-bb08-66ba284d9405 ¦ ¦ metadata ¦ {} ¦ ¦ name ¦ test-01 ¦ ¦ os-vol-tenant-attr:tenant_id ¦ ccf2e118dd794ce4843178f99d6e6b20 ¦ ¦ size ¦ 1 ¦ ¦ snapshot_id ¦ None ¦ ¦ source_volid ¦ None ¦ ¦ status ¦ creating ¦ ¦ user_id ¦ c961ec85993e4e3c90a1433a156bf3ff ¦ ¦ volume_type ¦ None ¦ +------------------------------+--------------------------------------+ ◆作成したボリュームの確認 ・Openstack 上でのボリューム作成の確認 # cinder list +--------------------------------------+-----------+---------+------+-------------+---- ------+-------------+ ¦ ID ¦ Status ¦ Name ¦ Size ¦ Volume Type ¦ Bootable ¦ Attached to ¦ +--------------------------------------+-----------+---------+------+-------------+---- ------+-------------+ ¦ b6126f66-a6e8-456b-bb08-66ba284d9405 ¦ available ¦ test-01 ¦ 1 ¦ None ¦ false ¦ ¦ +--------------------------------------+-----------+---------+------+-------------+---- ------+-------------+ ・Ceph 上でのボリューム作成の確認 # rbd --pool volumes ls -l NAME SIZE PARENT FMT PROT LOCK volume-b6126f66-a6e8-456b-bb08-66ba284d9405 1024M 2 Copyright © OSS Laboratories Co., Ltd. All rights reserved 12
14.
140830openstack_ceph 設定ガイド.docx ④
ライブマイグレーション設定 作業サーバ:openstack 実行ユーザ:root 作業ディレクトリ:/etc/nova ◆Ceph をマウント 使用している全ComputeNode でCeph をマウントします。 ※マウントは、以下のCephFS もしくは、RDB のどちらでも動作することを確認。 ・マウントディレクトリの作成 ♯mkdir /mnt/ceph ・ファイルシステムマウントを行うためのKeyring の確認 # cat /etc/ceph/ceph.client.admin.keyring [client.admin] key = AQA2vI5TGHUFIhAA6Az7D0WZSL6h7y9uCKyZxQ== ●CephFUSE マウント # mount.ceph EXFS1,EXFS2,EXFS3:/ /mnt/ceph -o name=admin,secret=AQA2vI5TGHUFIhAA6Az7D0WZSL6h7y9uCKyZxQ== ●RDB マウント ・ブロックデバイスイメージの作成 # rbd create foo --size 4096 -k /etc/ceph/ceph.client.admin.keyring ・RBD クライアントモジュールをロードします。 # modprobe rbd ・ブロックデバイスのイメージをマッピング rbd map foo --pool rbd --name client.admin -k /etc/ceph/ceph.client.admin.keyring ・クライアントにファイルシステムを作成 mkfs.ext4 -m0 /dev/rbd/rbd/foo ・RDB マウント mount /dev/rbd/rbd/foo /mnt Copyright © OSS Laboratories Co., Ltd. All rights reserved 13
15.
140830openstack_ceph 設定ガイド.docx ・マウントの確認
※以下の結果は、CephFS のものとなります。 # df -Th /mnt/ceph Filesystem Type Size Used Avail Use% Mounted on 192.168.100.112,192.168.100.113,192.168.100.114:/ ceph 686G 79G 607G 12% /mnt/ceph ◆Nova データの移行 本書ではVM がない状態での手順となりますが、VM がある場合、以下の手順を全てのComputeNode に て行う必要があります。 ・全ComputeNode でnova の停止 # for init in /etc/init.d/nova-*; do $init stop; done ・データディレクトリのコピー # cp -Rp /var/lib/nova /mnt/ceph/ ・キャッシュ置き場の実体作成 # mkdir -p /data/nova/instances/_base ・オーナをnova へ変更 # chown -R nova:nova /mnt/ceph/nova /data/nova ・キャッシュ置き場をリンクに変更 ※1 つのComputeNode だけで行う # rm -R /mnt/ceph/nova/instances/_base/ # ln -s /data/nova/instances/_base /mnt/ceph/nova/instances/ ・Nova データのオーナの確認 全てのComputeNode で、オーナがnova になっていることを確認する # ls -l /mnt/ceph/nova/ drwxr-xr-x 1 nova nova 30 4 月 14 11:38 .dsh/ drwxr-xr-x 1 nova nova 3745 4 月 14 11:41 .ssh/ drwxr-xr-x 1 nova nova 0 4 月 14 11:36 CA/ drwxr-xr-x 1 nova nova 0 2 月 27 04:05 buckets/ drwxr-xr-x 1 nova nova 0 2 月 27 04:05 images/ drwxr-xr-x 1 nova nova 6446418 7 月 22 19:20 instances/ drwxr-xr-x 1 nova nova 0 2 月 27 04:05 keys/ drwxr-xr-x 1 nova nova 0 2 月 27 04:05 networks/ Copyright © OSS Laboratories Co., Ltd. All rights reserved 14
16.
140830openstack_ceph 設定ガイド.docx -rw-r-----
1 nova nova 303104 4 月 14 11:38 nova.sqlite drwxr-xr-x 1 nova nova 0 2 月 27 04:05 tmp/ ・nova.conf の修正 以下の行を追加し、デフォルトの「state_path=/var/lib/nova」をコメントアウトする # vi nova.conf live_migration_bandwidth=0 live_migration_flag=VIR_MIGRATE_UNDEFINE_SOURCE,VIR_MIGRATE_PEER2PEER,VIR_MIGRATE_LIVE live_migration_retry_count=30 live_migration_uri=qemu+tcp://%s/system logdir=/var/log/nova #state_path=/var/lib/nova state_path=/mnt/ceph/nova instances_path = $state_path/instances base_dir_name = _base ◆libvirtd 設定 ・libvirtd.conf 編集 以下の行を追加する # vi /etc/libvirt/libvirtd.conf listen_tls = 0 listen_tcp = 1 auth_tcp = "none" ・libvirt-bin 編集 以下の行を追加し、デフォルトの「libvirtd_opts="-d"」をコメントアウトする # vi /etc/default/libvirt-bin #libvirtd_opts="-d" libvirtd_opts="-d -l" ・libvirt-bin.conf 編集 以下の行を追加し、デフォルトの「env libvirtd_opts="-d"」をコメントアウトする # vi /etc/init/libvirt-bin.conf #env libvirtd_opts="-d" env libvirtd_opts="-d -l" Copyright © OSS Laboratories Co., Ltd. All rights reserved 15
17.
140830openstack_ceph 設定ガイド.docx ⑤
Cinder-snapshot Cinder-snapshot の設定は” Cinder 設定”にて行ったもの以外は不要となります。 ◆ Cinder Snapshot の作成 先の手順で作成したCinder ボリュームのスナップショットを取ります。 ・Cinder ボリュームの確認 # cinder list +--------------------------------------+-----------+---------+------+-------------+---- ------+-------------+ ¦ ID ¦ Status ¦ Name ¦ Size ¦ Volume Type ¦ Bootable ¦ Attached to ¦ +--------------------------------------+-----------+---------+------+-------------+---- ------+-------------+ ¦ b6126f66-a6e8-456b-bb08-66ba284d9405 ¦ available ¦ test-01 ¦ 1 ¦ None ¦ false ¦ ¦ +--------------------------------------+-----------+---------+------+-------------+---- ------+-------------+ ・スナップショットの作成 # cinder snapshot-create b6126f66-a6e8-456b-bb08-66ba284d9405 +-------------+--------------------------------------+ ¦ Property ¦ Value ¦ +-------------+--------------------------------------+ ¦ created_at ¦ 2014-07-22T14:42:12.895876 ¦ ¦ description ¦ None ¦ ¦ id ¦ ccafb254-d498-4887-9c65-a1f39058ddb9 ¦ ¦ metadata ¦ {} ¦ ¦ name ¦ None ¦ ¦ size ¦ 1 ¦ ¦ status ¦ creating ¦ ¦ volume_id ¦ b6126f66-a6e8-456b-bb08-66ba284d9405 ¦ +-------------+--------------------------------------+ ◆作成したボリュームの確認 ・Openstack 上でのボリューム作成の確認 # cinder snapshot-list +--------------------------------------+--------------------------------------+-------- ---+------+------+ ¦ ID ¦ Volume ID ¦ Status ¦ Copyright © OSS Laboratories Co., Ltd. All rights reserved 16
18.
140830openstack_ceph 設定ガイド.docx Name
¦ Size ¦ +--------------------------------------+--------------------------------------+-------- ---+------+------+ ¦ ccafb254-d498-4887-9c65-a1f39058ddb9 ¦ b6126f66-a6e8-456b-bb08-66ba284d9405 ¦ available ¦ None ¦ 1 ¦ +--------------------------------------+--------------------------------------+-------- ---+------+------+ ・Ceph 上でのボリューム作成の確認 スナップショットは、Cinder と同じPool に格納されます # rbd --pool volumes ls -l NAME SIZE PARENT FMT PROT LOCK volume-b6126f66-a6e8-456b-bb08-66ba284d9405 1024M 2 volume-b6126f66-a6e8-456b-bb08-66ba284d9405@snapshot-ccafb254-d498-4887-9c65-a1f39058ddb9 1024M 2 yes ⑥ Cinder-Backup 作業サーバ:openstack 実行ユーザ:root 作業ディレクトリ:/etc/ceph ◆Keyring の作成 Backup 用のpool に接続するためのユーザを作成し、Keyring を取得します。 ・ユーザ、keyring の作成 ceph auth get-or-create client.cinder-backup mon 'allow r' osd 'allow class-read object_prefix rbd_children, allow rwx pool=backups' ・作成したBackup のkeyring の確認 # ceph auth list client.cinder-backup key: AQDUE5BTUMVMFhAAbmxxmLa9Kl2hTvGlXPb1HA== caps: [mon] allow r caps: [osd] allow class-read object_prefix rbd_children, allow rwx pool=backups ・Keyring ファイルをローカルに取得 ceph auth get-or-create client.volumes ¦ tee /etc/ceph/ceph.client.cinder-backup.keyring ・オーナーをCinder に変更 Copyright © OSS Laboratories Co., Ltd. All rights reserved 17
19.
140830openstack_ceph 設定ガイド.docx chown
cinder.cinder /etc/ceph/ceph.client.cinder-backup.keyring ・ceph.config の修正 上記で取得したユーザとkeyring ファイルの設定をceph.conf に追加します。 # vi /etc/ceph/ceph.conf [client.images] keyring = /etc/ceph/ceph.client.cinder-backup.keyring ◆Cinder 設定ファイルの編集 作業サーバ:openstack 実行ユーザ:root 作業ディレクトリ:/etc/cinder ・ボリュームのバックアップの保存先をceph に変更するため、cinder.conf を編集します。 以下の行を追加します。 # vi cinder.conf backup_driver=cinder.backup.drivers.ceph backup_ceph_conf=/etc/ceph/ceph.conf backup_ceph_user=cinder-backup backup_ceph_chunk_size=134217728 backup_ceph_pool=backups backup_ceph_stripe_unit=0 backup_ceph_stripe_count=0 restore_discard_excess_bytes=true ・Cinder サービスの再起動 # for init in /etc/init.d/cinder-*; do $init restart; done ◆ Cinde Backup ボリュームの作成 先の手順で作成したCinder ボリュームのバックアップを取ります。 ・Cinder ボリュームの確認 # cinder list +--------------------------------------+-----------+---------+------+-------------+---- ------+-------------+ ¦ ID ¦ Status ¦ Name ¦ Size ¦ Volume Type ¦ Bootable ¦ Attached to ¦ +--------------------------------------+-----------+---------+------+-------------+---- ------+-------------+ ¦ b6126f66-a6e8-456b-bb08-66ba284d9405 ¦ available ¦ test-01 ¦ 1 ¦ None ¦ false ¦ ¦ Copyright © OSS Laboratories Co., Ltd. All rights reserved 18
20.
140830openstack_ceph 設定ガイド.docx +--------------------------------------+-----------+---------+------+-------------+----
------+-------------+ ・バックアップボリュームの作成 # cinder backup-create --display-name backup-test01 b6126f66-a6e8-456b-bb08-66ba284d9405 +-----------+--------------------------------------+ ¦ Property ¦ Value ¦ +-----------+--------------------------------------+ ¦ id ¦ 691af46d-4f55-4469-870a-8bad9017c942 ¦ ¦ name ¦ backup-test01 ¦ ¦ volume_id ¦ b6126f66-a6e8-456b-bb08-66ba284d9405 ¦ +-----------+--------------------------------------+ ◆作成したボリュームの確認 ・Openstack 上でのボリューム作成の確認 # cinder backup-list +--------------------------------------+--------------------------------------+-------- ---+---------------+------+--------------+---------------+ ¦ ID ¦ Volume ID ¦ Status ¦ Name ¦ Size ¦ Object Count ¦ Container ¦ +--------------------------------------+--------------------------------------+-------- ---+---------------+------+--------------+---------------+ ¦ 691af46d-4f55-4469-870a-8bad9017c942 ¦ b6126f66-a6e8-456b-bb08-66ba284d9405 ¦ available ¦ backup-test01 ¦ 1 ¦ None ¦ backups ¦ +--------------------------------------+--------------------------------------+-------- ---+---------------+------+--------------+---------------+ ・Ceph 上でのボリューム作成の確認 # rbd --pool backups ls -l NAME SIZE PARENT FMT PROT LOCK volume-b6126f66-a6e8-456b-bb08-66ba284d9405.backup.base@backup.691af46d-4f55-4469-870a-8bad 9017c942.snap.1406039019.78 1024M 2 ⑦ SWIFT 作業サーバ:EXFS1 実行ユーザ:root 作業ディレクトリ:/etc/ceph Copyright © OSS Laboratories Co., Ltd. All rights reserved 19
21.
140830openstack_ceph 設定ガイド.docx ◆Keyring
の作成 Glance 用のpool に接続するための、Keyring を取得します。 ・keyring の作成 # ceph-authtool --create-keyring /etc/ceph/ceph.client.radosgw.keyring # sudo chmod +r /etc/ceph/ceph.client.radosgw.keyring # ceph-authtool /etc/ceph/ceph.client.radosgw.keyring -n client.radosgw.gateway --gen-key # ceph-authtool -n client.radosgw.gateway --cap osd 'allow rwx' --cap mon 'allow rw' /etc/ceph/ceph.client.radosgw.keyring # ceph -k /etc/ceph/ceph.client.admin.keyring auth add client.radosgw.gateway -i /etc/ceph/ceph.client.radosgw.keyring ・Keyring の確認 # ceph auth list client.radosgw.gateway key: AQA5ltRT6DEEBRAA5oGPolWuwuqFrUEzXabcKw== caps: [mon] allow rw caps: [osd] allow rwx ・Keyring ファイルを全てのクラスタにコピーします。 scp ceph.client.radosgw.keyring ceph.conf EXFS2:/etc/ceph scp ceph.client.radosgw.keyring ceph.conf EXFS3:/etc/ceph ◆RADOS-GW のスクリプトを追加 ・s3gw.fcgi の作成 # vi /var/www/html/s3gw.fcgi #!/bin/sh exec /usr/bin/radosgw -c /etc/ceph/ceph.conf -n client.radosgw.gateway ・実行権限の付与 # chmod +x /var/www/html/s3gw.fcgi ・オーナーをApache に変更 ※/var/log/ceph/client.radosgw.gateway.log が存在しない場合は、RADOS-GW を起動後にオーナーを変 更すること # chown apache:apache s3gw.fcgi # chown apache:apache /var/run/ceph/ # chown apache:apache /var/log/httpd/ # chown apache:apache /var/log/ceph/client.radosgw.gateway.log ・データディレクトリの作成 Copyright © OSS Laboratories Co., Ltd. All rights reserved 20
22.
140830openstack_ceph 設定ガイド.docx #
mkdir -p /var/lib/ceph/radosgw/ceph-radosgw.gateway ・rgw.conf の作成 # vi /etc/httpd/conf.d/rgw.conf FastCgiExternalServer /var/www/html/s3gw.fcgi -socket /var/run/ceph/ceph.radosgw.gateway.fastcgi.sock <VirtualHost *:80> ServerName EXFS1 ServerAdmin EXFS1 DocumentRoot /var/www/html RewriteEngine On RewriteRule ^/(.*) /s3gw.fcgi?%{QUERY_STRING} [E=HTTP_AUTHORIZATION:%{HTTP:Authorization},L] <IfModule mod_fastcgi.c> <Directory /var/www/html> Options +ExecCGI AllowOverride All SetHandler fastcgi-script Order allow,deny Allow from all AuthBasicAuthoritative Off </Directory> </IfModule> AllowEncodedSlashes On ErrorLog /var/log/httpd/error.log CustomLog /var/log/httpd/access.log combined ServerSignature Off </VirtualHost> ・ceph.conf の編集 以下の行を追加する # vi /etc/ceph/ceph.conf [client.radosgw.gateway] host = ceph-gateway keyring = /etc/ceph/ceph.client.radosgw.keyring Copyright © OSS Laboratories Co., Ltd. All rights reserved 21
23.
140830openstack_ceph 設定ガイド.docx rgw
socket path = /var/run/ceph/ceph.radosgw.gateway.fastcgi.sock log file = /var/log/ceph/client.radosgw.gateway.log ・Apache、RADOS-GW の起動 # /etc/init.d/httpd start # /etc/init.d/ceph-radosgw start ◆Keystone との連携 作業サーバ:EXFS1 実行ユーザ:root 作業ディレクトリ:/etc/ceph ・ceph.conf の編集 以下の行を[client.radosgw.gateway]の項目に追加する # vi /etc/ceph/ceph.conf [client.radosgw.gateway] rgw keystone url = http://openstack:3537 rgw keystone admin token = openstack rgw keystone accepted roles = Member, admin rgw keystone token cache size = 500 rgw keystone revocation interval = {number of seconds before checking revoked tickets} rgw s3 auth use keystone = true nss db path = /var/ceph/nss ・Keystone、endpoint 作成 作業サーバ:openstack 実行ユーザ:root 作業ディレクトリ:/root # keystone service-create --name swift --type object-store # keystone endpoint-create --service-id 17a507baf55846118bd41b0e303298f4 --publicurl "http://EXFS1/swif" --adminurl "http://EXFS1/swif" ‒internalurl "http://EXFS1/swif" 3.2.4. 各種ファイル配置 root@openstack:/etc/ceph# pwd /etc/ceph Copyright © OSS Laboratories Co., Ltd. All rights reserved 22
24.
140830openstack_ceph 設定ガイド.docx root@openstack:/etc/ceph#
ls -l total 28 -rw-r--r-- 1 root root 63 Jun 16 15:12 ceph.client.admin.keyring -rw-r--r-- 1 cinder cinder 71 Jun 16 15:12 ceph.client.cinder-backup.keyring -rw-r--r-- 1 glance glance 64 Jun 16 16:14 ceph.client.images.keyring -rw-r--r-- 1 root root 120 Jul 23 17:34 ceph.client.radosgw.keyring -rw-r--r-- 1 cinder cinder 65 Jul 2 13:54 ceph.client.volumes.keyring -rw-r--r-- 1 root root 927 Jul 23 17:51 ceph.conf -rw-r--r-- 1 root root 92 May 13 00:32 rbdmap 3.2.5. 各種ログ Ceph 連携ログ(Ceph クラスタ):/var/log/ceph/ceph.log 3.2.6. アンインストール ◆Ceph クラスタアンインストール # yum remove ceph ceph-common python-ceph ceph-radosgw # rm ‒rf /var/run/ceph/ # ls /var/local/osd* # rm ‒rf /etc/ceph ◆Ceph クライアントアンインストール # apt-get ‒purge remove ceph-common python-ceph ceph-fuse # rm ‒rf /etc/ceph 以上 Copyright © OSS Laboratories Co., Ltd. All rights reserved 23
Télécharger maintenant