1. Ceph Cluster Monitoring & Dashboard Overview
강성욱(Mail.swkang@gmail.com)
Korea Ceph User Group Tech Talk / 2018. 12. 05.
2. Contents
• Ceph Cluster Monitoring
• Health Check
• OSD Status / Monitoring
• POOL Status / Monitoring
• PG(PlacementGroup)_Status
• CrushMap And CrushRule - DEMO
• MGR(Prometheus_Plugin) + Prometheus + Grafana - DEMO
• Ceph MGR Dashboard Overview(Mimic_Release) - DEMO
3. Demo_Architecture
Host : Ceph-001
O
S
D
O
S
D
O
S
D
ETH1
Host : Ceph-002
ETH1
Host : Ceph-003
ETH1
Public_Network | Link_Speed(10G) | 192.168.100.0/24
Host : Client
(KRBD_Mount)
ETH1
Public_Network | Link_Speed(10G) | 192.168.100.0/24
Ceph_Version : Mimic(13.2.2) / KRBD_Test
Storage_Size : HDD 4TB X 4EA X 6HOST= 96TB / Replication(3) = 32TB
RBD Pool
Ceph-Deploy / Ntpd / Admin
Mon.0 Mgr.0 Mon.1 Mgr.1 Mon.2 Mgr.2
ETH0
Host : Ceph-004~006
ETH1
ETH2 ETH2 ETH2 ETH2
ETH0 ETH0 ETH0 ETH0
Cluster_Network | Link_Speed(10G) | 192.168.200.0/24
O
S
D
O
S
D
O
S
D
O
S
D
O
S
D
O
S
D
O
S
D
O
S
D
O
S
D
O
S
D
O
S
D
O
S
D
O
S
D
4. Ceph_Cluster_Monitoring
{Health Check} / 기본적인 Health_Check 방법으로, Cluster의 전체 데몬들의 상태 및 클러스터 구조의 확인이 가능합니다.
• Command : ceph –s
• 전체 클러스터의 데몬들의 상태와, Client / Recovery등의 요청을 받는 부분에 대한 상태 확인이 가능함.
5. Ceph_Cluster_Monitoring
{OSD_Monitoring} / 전체 클러스터의 OSD(Disk)의 배치(CrushRule) 나, 가용량등의 상태를 확인할 수 있습니다.
• Command : ceph osd df {tree}
• 전체 OSD의 사용량/가용량 및 가중치(weight), PG갯수, CrushMap 까지 한눈에 확인이 가능합니다.
• Command : ceph osd tree
• 전체 OSD의 상태(UP/Down) CrushMap 상태를 확인할 수 있습니다.
6. Ceph_Cluster_Monitoring
{Pool_Monitoring} / 각 Pool의 용량과, Replication, Crush 정책들에 대해 확인할 수 있습니다.
• Command : ceph df {detail}
• 전체 클러스터의 가용량 및 Pool이 사용하고 있는 용량 및 가용량 등에 대한 정보 확인이 가능합니다.
• Command : ceph osd dump | grep pool
• 전체 클러스터의 Pool에 대한 Replication_Size, PG갯수, Crush_Rule등의 환경값을 확인할 수 있습니다.