💻 Proxmox VE 강좌 V-2. Ceph OSD, MON, MDS 구성

2026. 2. 8. 07:21Proxmox VE/V. 고급 기능 및 CLI 활용

🧠 분산 스토리지의 심장, Ceph 컴포넌트 완벽 이해하기

지난 시간에는 Proxmox VE와 Ceph가 만나 구현하는 HCI의 기초를 살펴보았습니다 단순히 "연결된다"는 개념을 넘어, Ceph가 내부적으로 어떻게 데이터를 쪼개고 관리하며 안정성을 유지하는지 알기 위해서는 핵심 컴포넌트인 OSD, MON, 그리고 MDS에 대한 심도 있는 이해가 필수적입니다 이들은 마치 유기체처럼 서로 정보를 주고받으며 하나의 거대한 스토리지 풀을 형성합니다 이번 #강좌에서는 각 컴포넌트의 역할과 최적의 구성 환경을 구축하는 실전 가이드를 전해드리겠습니다


1. Monitor (MON): 클러스터의 지도 제작자

Monitor (MON): 클러스터의 지도 제작자

Ceph 클러스터가 시작될 때 가장 먼저 작동하고, 마지막까지 상태를 감시하는 것이 바로 Monitor입니다

A. 클러스터 맵 관리와 합의 도달

  • MON은 전체 클러스터의 상태 정보가 담긴 'Cluster Map'을 유지 관리하는 #시스템의 뇌입니다 노드가 추가되거나 장애가 발생했을 때 이 지도를 업데이트하여 다른 컴포넌트들이 데이터를 어디로 보낼지 결정하게 합니다

B. 쿼럼(Quorum) 구성의 중요성

  • 데이터의 일관성을 위해 MON은 반드시 홀수(3, 5개 등)로 구성하여 과반수 이상의 동의를 얻는 '쿼럼' 방식을 사용합니다 이는 네트워크 분할 시 발생할 수 있는 데이터 오염을 방지하는 핵심 #기능입니다

C. 자원 소모와 배치 전략

  • MON은 CPU나 디스크 I/O를 많이 사용하지는 않지만, 매우 낮은 지연 시간(Latency)을 요구합니다 따라서 클러스터 전반에 걸쳐 분산 배치하여 하드웨어 장애로부터 #데이터의 가용성을 지켜야 합니다

2. OSD (Object Storage Daemon): 실제 저장소의 주인

OSD는 Ceph 클러스터에서 실제 데이터를 저장하고 복제하며 재분배하는 실무 책임자입니다

A. 디스크 단위의 관리

  • 일반적으로 하나의 물리적 디스크(HDD/SSD/NVMe)가 하나의 OSD가 됩니다 각 OSD는 스스로 다른 OSD와 통신하며 데이터 복제본을 생성하므로 중앙 서버의 부하를 획기적으로 줄이는 #전략이 가능해집니다

B. 상태 보고와 복구 작업

  • 만약 특정 디스크에 문제가 생기면 해당 OSD는 이를 MON에게 보고하고, 클러스터는 즉시 다른 OSD들을 이용해 데이터 복구(Backfilling)를 시작합니다 이 과정에서 시스템의 #안정성이 유지되며 사용자는 장애를 느끼지 못하게 됩니다

C. 쓰기 성능 최적화 (BlueStore)

  • Proxmox VE 환경에서는 최신 저장 엔진인 BlueStore를 사용하여 메타데이터와 실제 데이터를 효율적으로 분리 저장합니다 이를 통해 SSD를 활용한 I/O #최적화가 극대화됩니다

3. MDS (Metadata Server): 파일 시스템의 가이드

OSD (Object Storage Daemon): 실제 저장소의 주인

Ceph를 단순히 블록 스토리지(RBD)로만 쓰는 것이 아니라, 공유 파일 시스템인 CephFS로 확장할 때 MDS가 필요합니다

A. 계층적 구조의 관리

  • Ceph는 기본적으로 객체(Object) 기반 스토리지이지만, 사용자는 폴더와 파일 구조를 원합니다 MDS는 이러한 파일 시스템의 메타데이터(디렉터리 구조, 권한 등)를 별도로 관리하여 빠른 검색과 접근 #정책을 수립합니다

B. CephFS 활성화를 위한 필수 조건

  • 여러 대의 VM이 동시에 같은 저장소를 읽고 써야 하는 공유 환경에서는 MDS 구성이 필수입니다 Proxmox 클러스터 내에서 고가용성을 위해 최소 2개 이상의 MDS를 활성/대기(Active/Standby) 형태로 구성하는 것이 #인프라 설계의 기본입니다

C. 메모리 집약적 특성

  • MDS는 모든 메타데이터를 메모리에 캐싱하여 성능을 높이기 때문에, 충분한 RAM 자원을 할당하는 것이 전체 #네트워크 기반 파일 시스템의 성능을 좌우합니다

4. 실전 구성 가이드 및 유지보수 팁

컴포넌트들을 조화롭게 배치하여 성능을 끌어올리는 방법입니다

A. 배치 그룹(PG)의 수동 조절

  • OSD 수에 따라 적절한 PG(Placement Group) 수를 설정해야 데이터가 편중되지 않습니다 잘못된 설정은 특정 디스크에만 부하를 주어 시스템 #보안 및 가용성에 위협이 될 수 있으므로 세심한 계산이 필요합니다

B. 하드웨어 혼합 구성 시 주의사항

  • 속도가 느린 HDD와 빠른 SSD를 섞어 쓸 때는 Ceph의 'Device Class' 기능을 사용하여 성능별로 #자원 풀을 분리해야 합니다 이는 저비용 고효율 인프라를 구축하는 영리한 방법입니다

C. 장애 노드 교체 및 확장 시나리오

  • 새로운 노드를 추가할 때는 MON을 먼저 추가하여 클러스터 상태를 안정화한 뒤, OSD를 순차적으로 추가하여 데이터 재균형(Rebalancing)에 따른 부하에 #대응해야 합니다

Ceph의 OSD, MON, MDS는 각자의 영역에서 최선을 다하며 거대한 분산 인프라를 완성합니다 Proxmox VE의 GUI를 통하면 이 복잡한 컴포넌트들을 단 몇 번의 클릭만으로 생성하고 관리할 수 있다는 점이 가장 큰 매력입니다 단순히 설정을 완료하는 것에 그치지 말고, 각 컴포넌트가 내뱉는 상태 메시지에 귀를 기울여 보십시오 데이터가 어떻게 살아 움직이는지 이해하는 순간, 여러분의 클러스터는 그 어떤 고가의 장비보다 강력한 신뢰성을 제공할 것입니다 다음 시간에는 Ceph 스토리지의 실제 활용도를 높여주는 'RBD와 CephFS 풀 생성 및 활용'에 대해 알아보겠습니다


강좌, 시스템, 기능, 데이터, 전략, 안정성, 최적화, 정책, 인프라, 네트워크, 보안, 자원, 대응


최적의 성능, 최고의 비용 효율성! 당신의 프로젝트에 딱 맞는 Proxmox VE 기반 호스팅을 경험해 보세요. 루젠호스팅 바로가기