Zero To Hero Guide : : For CEPH CLUSTER PLANNING

O co chodzi :
Jeśli myślisz lub dyskutujesz o Ceph, najczęstszym pytaniem, jakie przychodzi Ci do głowy, jest “Jaki sprzęt powinienem wybrać do mojego klastra pamięci masowej CEPH?” i tak, jeśli naprawdę myślisz o tym pytaniu w swoim umyśle, gratulacje, wydaje się, że poważnie podchodzisz do technologii Ceph i powinieneś, ponieważ CEPH JEST PRZYSZŁOŚCIĄ MAGAZYNOWANIA.
Ceph działa na sprzęcie Commodity, Ohh Yeah !!! każdy teraz to wie. Został zaprojektowany do budowy wielopetabajtowych klastrów pamięci masowej przy jednoczesnym zapewnieniu funkcji gotowych dla przedsiębiorstw. Brak pojedynczego punktu awarii, skalowanie do eksabajtów, samozarządzanie i samoleczenie (oszczędność kosztów operacyjnych), działa na sprzęcie klasy commodity (brak blokady dostawcy, oszczędność inwestycji kapitałowych).
Przegląd Ceph :-

Podstawą klastra pamięci masowej ceph jest RADOS (Reliable Autonomic Distributed Object Store). Ceph używa wydajnego algorytmu CRUSH (Controlled Replication Under Scalable Hashing) do optymalizacji rozmieszczenia danych, samozarządzania i samoleczenia. Interfejs RESTful jest dostarczany przez Ceph Object Gateway (RGW) aks Rados GateWay a wirtualne dyski są dostarczane przez Ceph Block Device (RBD)

Przegląd Ceph – Image Credit : Inktank

Komponenty Ceph :-

# Ceph OSD (Object Storage Daemons) przechowuje dane w obiektach, zarządza replikacją danych, odzyskiwaniem, rebalansowaniem i dostarcza informacji o etapie do Ceph Monitor. Zaleca się stosowanie 1 OSD na dysk fizyczny.
# Ceph MON ( Monitory ) utrzymuje ogólny stan klastra poprzez utrzymywanie stanu map klastra, w tym mapy Monitora, mapy OSD, mapy Placement Group ( PG ) i mapy CRUSH. Monitory otrzymują informacje o stanie od innych komponentów w celu utrzymania map i przekazywania tych map do innych węzłów Monitor i OSD.
# Ceph RGW ( Object Gateway / Rados Gateway ) Interfejs RESTful API kompatybilny z Amazon S3 , OpenStack Swift .
# Ceph RBD ( Raw Block Device ) Zapewnia Block Storage dla maszyn wirtualnych / bare metal jak również zwykłych klientów, obsługuje OpenStack i CloudStack . Zawiera funkcje Enterprise takie jak snapshot , thin provisioning , kompresja.
# CephFS ( File System ) distributed POSIX NAS storage.
Kilka zasad :-

  • Run OSD na dedykowanym węźle storage ( serwer z wieloma dyskami ) , rzeczywiste dane są przechowywane w formie obiektów.
  • Run Monitor na oddzielnym dedykowanym sprzęcie lub współistnieje z węzłami klienckimi ceph ( innymi niż OSD node ) takimi jak RGW , CephFS node . W przypadku produkcji zaleca się uruchamianie Monitorów na dedykowanych, tanich serwerach, ponieważ Monitory nie są głodne zasobów.

Konfiguracja sprzętowa Monitora :-
Monitor utrzymuje zdrowie całego klastra, zawiera logi PG i logi OSD. Minimum trzy węzły monitorujące są zalecane dla kworum klastra. Węzły monitorujące Ceph nie są głodne zasobów, mogą pracować dobrze z dość niskim cpu i pamięcią. Serwer 1U z tanim procesorem E5-2603, 16GB RAM i siecią 1GbE powinien być wystarczający w większości przypadków. Jeśli logi PG, Monitora i OSD są przechowywane na dysku lokalnym węzła monitora, upewnij się, że masz wystarczającą ilość pamięci lokalnej, aby nie zapełnić tego miejsca.
Niezdrowe klastry wymagają więcej miejsca na logi, może to sięgać do GB, a nawet setek GB, jeśli klaster jest pozostawiony w stanie niezdrowym przez bardzo długi czas. Jeśli na węzłach monitora ustawione jest wyjście verbose, to będą one generować ogromne ilości informacji o logach. Odwołaj się do dokumentacji ceph w celu ustawienia logów monitora.
Zaleca się uruchamianie monitora na odległych węzłach raczej na wszystkich na jednym węźle lub na maszynach wirtualnych na fizycznych oddzielnych maszynach, aby zapobiec pojedynczemu punktowi awarii.
Etap planowania :-
Wdrożenie klastra ceph do produkcji wymaga trochę pracy domowej, powinieneś zebrać poniższe informacje, abyś mógł zaprojektować lepszy i bardziej niezawodny i skalowalny klaster ceph, aby dopasować go do swoich potrzeb IT. Są one bardzo specyficzne dla Twoich potrzeb i Twojego środowiska IT. Te informacje pomogą ci lepiej zaprojektować twoje wymagania dotyczące pamięci masowej.

  • Wymagania biznesowe
    • Budżet ?
    • Czy potrzebujesz klastra Ceph do codziennej pracy lub SPECJALNE
  • Wymagania techniczne
    • Jakie aplikacje będą działać na twoim klastrze ceph ?
    • Jaki typ danych będzie przechowywany na twoim klastrze ceph ?
    • Czy klaster ceph powinien być zoptymalizowany pod kątem pojemności i wydajności ?
    • Jaka powinna być użyteczna pojemność pamięci masowej ?
    • Jaka jest oczekiwana stopa wzrostu ?
    • Ile IOPS powinien wspierać klaster ?
    • Jaką przepustowość powinien wspierać klaster
    • Jakiej replikacji danych (poziom niezawodności) potrzebujesz ?

Zbierz jak najwięcej informacji podczas fazy planowania, to da wszystkie odpowiedzi wymagane do zbudowania lepszego klastra ceph.
Węzeł fizyczny i technika klastrowania:-
Oprócz wyżej zebranych informacji, weź również pod uwagę gęstość stelaża i budżet na zasilanie, koszty przestrzeni centrum danych, aby dobrać optymalną konfigurację węzłów. Ceph replikuje dane przez wiele węzłów w klastrze pamięci masowej, aby zapewnić redundancję danych i wyższą dostępność. Czy replikowany węzeł powinien znajdować się w tej samej szafie lub w wielu szafach, aby uniknąć SPOF? Czy ruch OSD powinien pozostać w obrębie szafy, czy też rozchodzić się po szafach w sieci dedykowanej lub współdzielonej? Jak wiele awarii węzłów można tolerować?

  • Jeśli węzły są rozdzielone na wiele szaf, ruch sieciowy wzrasta i należy rozważyć wpływ opóźnień i liczby skoków przełączników sieciowych.
  • Ceph automatycznie odzyskuje dane poprzez replikację danych z uszkodzonych węzłów przy użyciu kopii wtórnych obecnych na innych węzłach w klastrze. Awaria węzła ma zatem kilka skutków.
    • Całkowita pojemność klastra jest zmniejszona o pewne ułamki.
    • Całkowita przepustowość klastra jest zmniejszona o pewne ułamki.
    • Klaster wchodzi w procesy odzyskiwania obciążone zapisem.

    Ogólny kciuk reguły obliczania czasu odzyskiwania w klastrze ceph, biorąc pod uwagę 1 dysk na węzeł OSD, to :
    Czas odzyskiwania w sekundach = pojemność dysku w Gigabitach / ( prędkość sieci *(nodes-1) )

    # Środowisko POC – Może posiadać minimum 3 węzły fizyczne z 10 OSD każdy. Zapewnia to dostępność klastra na poziomie 66% w przypadku awarii węzła fizycznego oraz 97% czasu pracy w przypadku awarii OSD. Węzły RGW i Monitor można umieścić na węzłach OSD, ale może to mieć wpływ na wydajność i nie jest zalecane w przypadku produkcji.
    # Środowisko produkcyjne – minimum 5 fizycznie oddzielonych węzłów i minimum 100 OSD @ 4TB na OSD, pojemność klastra wynosi ponad 130TB i zapewnia 80% czasu sprawności w przypadku awarii węzła fizycznego oraz 99% czasu sprawności w przypadku awarii OSD. RGW i Monitory powinny znajdować się na oddzielnych węzłach.
    W oparciu o wynik fazy planowania, fizycznych węzłów i fazy klastrowania należy przyjrzeć się sprzętowi dostępnemu na rynku, zgodnie z budżetem.
    Wybór procesora OSD :-
    < W budowie … Stay Tuned >

    .

    Dodaj komentarz

    Twój adres e-mail nie zostanie opublikowany.