Zero To Hero Guide : : CEPH CLUSTER PLANNING

概要:
Cephについて考えたり議論したりする場合、最も一般的な質問は「CEPHストレージクラスタにはどのハードウェアを選択すべきか」であり、もしあなたが本当にこの質問を心の中で考えているなら、あなたはCEPH技術に真剣であるようでおめでとうと言いたいし、CEPHはストレージの未来なのでそうすべきです。 Cephは、マルチペタバイトのストレージクラスタを構築するように設計されており、エンタープライズ対応の機能を備えています。 単一障害点なし、エクサバイトへのスケーリング、自己管理および自己回復(運用コストの節約)、コモディティ・ハードウェア上での実行(ベンダーロックなし、設備投資の節約)
Ceph概要:-

Cephストレージクラスタの唯一のものはRADOS(Reliable Autonomic Distributed Object Store)です。 Cephは、データ配置の最適化、自己管理、自己回復のための強力なCRUSH(Controlled Replication Under Scalable Hashing)アルゴリズムを使用しています。 RESTfulインターフェースはCeph Object Gateway (RGW) aks Rados GateWayによって提供され、仮想ディスクはCeph Block Device (RBD) によって提供される。

Ceph Overview – Image Credit : Inktank

Ceph Components :-

# Ceph OSD ( Object Storage Daemons ) オブジェクトでデータを保存、データの複製、回復、リバランスを管理、Ceph Monitorにステージ情報を提供します。
# Ceph MON ( モニター ) は、モニターマップ、OSDマップ、プレースメントグループ ( PG ) マップ、CRUSHマップなどのクラスタマップの状態を維持し、クラスタ全体の健全性を維持します。 Ceph RGW ( Object Gateway / Rados Gateway ) RESTful APIインターフェースは、Amazon S3、OpenStack Swiftと互換性があります。 スナップショット、シンプロビジョニング、圧縮などのエンタープライズ機能を含む。
# CephFS ( File System ) 分散POSIX NASストレージ。
Few Thumb Rules :-

  • Run OSD on a dedicated storage node ( server with multiple disk ) , actual data is stored in form of objects.
  • Run Monitor on a separate dedicated hardware or coexists with Ceph client nodes ( other than OSD node ) such as RGW, CephFS node.Ceph クライアントノード。

Monitor Hardware Configuration :-
Monitor はクラスタ全体の健全性を維持し、PGログとOSDログが含まれます。 クラスタークォーラムには、最低3つのモニターノードを推奨します。 Cephモニターノードはリソースを必要としないので、かなり低いCPUとメモリでうまく動作します。 低価格のプロセッサE5-2603、16GB RAM、1GbEネットワークを搭載した1Uサーバで十分な場合がほとんどです。 PG、モニター、および OSD ログがモニター ノードのローカル ディスクに保存される場合、ローカル ストレージがいっぱいにならないように十分な量を確保してください。
不健全なクラスターはログ用にさらにストレージを必要とし、クラスターが非常に長い間不健全なままだと最大で GB、さらには数百 GB にも達することがあります。 モニターノードで冗長出力が設定されている場合、これらは膨大な量のログ情報を生成することになります。
The Planning Stage :-
Ceph clusterを実稼働環境に導入するには、ちょっとした宿題が必要です。 これらは、あなたのニーズとIT環境に非常に特化したものです。

  • ビジネス要件
    • 予算
    • Ceph clusterは日々の運用に必要ですか?
  • 技術要件
    • Ceph clusterで実行するアプリケーションはなんでしょうか?
    • Cephクラスタに格納されるデータの種類は?
    • Cephクラスタは容量とパフォーマンスを最適化する必要がありますか?
    • 使用できるストレージ容量は?
    • 予想成長率はどのくらいですか?
    • クラスタがサポートすべきIOPSはいくつですか。
    • クラスタがサポートすべきスループットはいくつですか。

計画段階でできるだけ多くの情報を収集すると、より良いCephクラスタを構築するために必要なすべての答えが得られます。
物理ノードとクラスタリング技術:-
上記の収集した情報に加えて、ラック密度や電力予算、データセンターのスペース、最適なノード構成のサイズを決定するためのコストも考慮します。 Cephは、ストレージクラスタ内の複数のノードにデータをレプリケートし、データの冗長性と可用性を向上させます。

  • SPOFを回避するために、複製されたノードは同じラックにあるべきか、複数のラックにあるべきか。
  • OSDトラフィックはラック内にとどまるべきか、専用または共有ネットワークでラック間にわたるべきか。
  • 許容できるノード障害はいくつあるか。
  • ノードが複数のラックにまたがっている場合、ネットワークトラフィックが増加し、待ち時間の影響とネットワークスイッチホップ数を考慮する必要があります。
Cephは、クラスタの他のノードにあるセカンダリコピーを使って障害ノードからデータを再レプリケーションして自動的に回復します。
  • クラスタ全体の容量が数分の一に減少します。
  • クラスタ全体のスループットが数分の一に減少します。
  • クラスタが書き込みの多いリカバリプロセスに入る。

OSDノードあたり1ディスクのCephクラスタでリカバリ時間を計算する一般法則は:
Recovery Time in seconds = disk capacity in Gigabits / ( network speed *(nodes-1) )

# POC 環境 – 各 10 OSD の最低 3 物理ノードを持つことが可能です。 これにより、物理ノード障害時に 66% のクラスタ可用性を、OSD 障害時に 97% のアップタイムを提供します。 RGWとモニターノードはOSDノード上に置くことができますが、パフォーマンスに影響を与える可能性があり、本番環境ではお勧めできません。
# 本番環境 – 最低5つの物理的に分離したノードと最低100 OSD(OSDあたり4TB)で、クラスタ容量は130TB以上、物理ノード故障時に80%のアップタイム、OSD故障時に99%のアップタイムを提供します。
OSD CPU の選択 : –
< 工事中 … そのままで >

コメントを残す

メールアドレスが公開されることはありません。