Zero To Hero Guide : : För CEPH CLUSTER PLANERING

Vad det handlar om :
Om du tänker på eller diskuterar Ceph är den vanligaste frågan som slår dig: “Vilken hårdvara ska jag välja för mitt CEPH-lagringskluster?” och ja, om du verkligen har tänkt på den här frågan, gratulerar jag dig till att du verkar vara seriös när det gäller Ceph-teknologi, och det borde du vara, för CEPH ÄR FRAMTIDEN FÖR LAGERVARING.
Ceph körs på Commodity-hårdvara, Ohh Yeah !!! alla vet det nu. Den är utformad för att bygga ett lagringskluster på flera petabyte samtidigt som den tillhandahåller företagsanpassade funktioner. Ingen enskild felpunkt, skalning till exabyte, självhanterande och självläkande (sparar driftskostnader), körs på råvaruhårdvara (ingen leverantörslåsning, sparar kapitalinvesteringar)
Ceph Overview :-

Endast av ceph-lagringsklustret är RADOS (Reliable Autonomic Distributed Object Store). Ceph använder kraftfull CRUSH-algoritm ( Controlled Replication Under Scalable Hashing ) för att optimera dataplacering , självförvaltning och självläkning. REST-gränssnittet tillhandahålls av Ceph Object Gateway (RGW) och Rados GateWay och virtuella diskar tillhandahålls av Ceph Block Device (RBD)

Ceph Overview – Image Credit : Inktank

Ceph Components :-

# Ceph OSD (Object Storage Daemons) lagrar data i objekt, hanterar datareplikation, återställning, ombalansering och tillhandahåller information till Ceph Monitor. Det rekommenderas att man använder 1 OSD per fysisk disk.
# Ceph MON ( Monitors ) upprätthåller klustrets övergripande hälsa genom att hålla klusterkartan status inklusive Monitor map , OSD map , Placement Group ( PG ) map , och CRUSH map . Monitors tar emot tillståndsinformation från andra komponenter för att upprätthålla kartor och cirkulera dessa kartor till andra Monitor- och OSD-noder.
# Ceph RGW ( Object Gateway / Rados Gateway ) RESTful API-gränssnitt som är kompatibelt med Amazon S3 , OpenStack Swift .
# Ceph RBD ( Raw Block Device ) tillhandahåller blocklagring till virtuella maskiner / bare metal samt vanliga klienter, stöder OpenStack och CloudStack . Inkluderar företagsfunktioner som snapshot, thin provisioning, komprimering.
# CephFS ( File System ) distribuerad POSIX NAS-lagring.
Få tumregler :-

  • Kör OSD på en dedikerad lagringsnod ( server med flera diskar ) , faktiska data lagras i form av objekt.
  • Kör Monitor på separat dedikerad hårdvara eller samexisterar med ceph-klientnoder ( andra än OSD-noden ) som RGW , CephFS-nod . För produktion rekommenderas att köra monitorer på dedikerade lågkostnadsservrar eftersom monitorer inte är resurskrävande.

Monitor hårdvarukonfiguration :-
Monitor upprätthåller hela klustrets hälsa, den innehåller PG-loggar och OSD-loggar . Minst tre monitors-noder rekommenderas för ett klusterquorum. Ceph Monitor-noderna är inte resurskrävande och kan fungera bra med ganska lite CPU och minne. En 1U-server med lågkostnadsprocessor E5-2603, 16 GB RAM och 1 GbE-nätverk bör räcka i de flesta fall. Om PG-, monitor- och OSD-loggar lagras på monitor-nodens lokala disk, se till att du har tillräckligt med lokalt lagringsutrymme så att det inte fylls upp.
Ohälsosamma kluster kräver mer lagringsutrymme för loggar, som kan uppgå till GB och till och med hundratals GB om klustret lämnas ohälsosamt under en mycket lång tid. Om verbose output är inställd på monitor-noderna kommer dessa att generera stora mängder loggningsinformation. Se ceph-dokumentationen för inställning av monitorlogg.
Det rekommenderas att köra monitor på avlägsna noder snarare än på alla på alla på alla en nod eller på virtuella maskiner på fysiska separerade maskiner för att förhindra single point of failure.
Planeringsstadiet :-
Deployeringen av ett ceph-kluster i produktion kräver lite hemläxor , du bör samla in nedanstående information så att du kan utforma ett bättre och mer tillförlitligt och skalbart ceph-kluster för att passa in i dina IT-behov. Dessa är mycket specifika för dina behov och din IT-miljö. Denna information kommer att hjälpa dig att utforma ditt lagringsbehov bättre.

  • Företagsbehov
    • Budget?
    • Behövs Ceph-klustret för den dagliga driften eller SPECIALT
  • Tekniska krav
    • Hvilka tillämpningar kommer att köras på ditt ceph-kluster?
    • Vilken typ av data kommer att lagras i ditt ceph-kluster?
    • Ska ceph-klustret optimeras med avseende på kapacitet och prestanda?
    • Vad bör den användbara lagringskapaciteten vara?
    • Vad är den förväntade tillväxttakten?
    • Hur många IOPS bör klustret stödja?
    • Hur stor genomströmning bör klustret stödja?
    • Hur mycket datareplikering ( tillförlitlighetsnivå ) behöver du?

Samla in så mycket information som möjligt under planeringsstadiet , det kommer att ge alla svar som krävs för att konstruera ett bättre ceph-kluster.
Fysisk nod och klusterteknik:-
Inom ovan insamlad information , ta också hänsyn till rackdensitet och effektbudget , datacenterutrymme taktkostnad för att dimensionera den optimala nodkonfigurationen. Ceph replikerade data över flera noder i ett lagringskluster för att ge dataredundans och högre tillgänglighet. Det är viktigt att tänka på följande:

  • Ska den replikerade noden vara på samma rack eller flera rack för att undvika SPOF?
  • Ska OSD-trafiken stanna inom racket eller spänna över racket i ett dedikerat eller delat nätverk?
  • Hur många noder fel kan tolereras?
  • Om noderna är utspridda över flera rack ökar nätverkstrafiken och effekten av latenstid och antalet hopp av nätverksväxlar bör beaktas.
Ceph återhämtar sig automatiskt genom att replikera data från de felande noderna med hjälp av sekundära kopior som finns på andra noder i klustret. Ett nodfel har således flera effekter.
  • Den totala klusterkapaciteten minskas med några bråkdelar.
  • Den totala genomströmningen i klustret minskas med några bråkdelar.
  • Klustret går in i en skrivtung återhämtningsprocess.

En allmän tumregel för att beräkna återhämtningstiden i ett ceph-kluster med 1 disk per OSD-nod är :
Räddningstid i sekunder = diskkapacitet i gigabit / ( nätverkshastighet *(noder-1) )

# POC-miljö – kan ha minst 3 fysiska noder med 10 OSD:er vardera. Detta ger 66 % klustertillgänglighet vid fel på en fysisk nod och 97 % drifttid vid fel på en OSD. RGW- och Monitor-noder kan placeras på OSD-noder, men detta kan påverka prestandan och rekommenderas inte för produktion.
# Produktionsmiljö – minst 5 fysiskt separerade noder och minst 100 OSD @ 4 TB per OSD. Klusterkapaciteten är över 130 TB och ger 80 % tillgänglighet vid fel på fysiska noder och 99 % tillgänglighet vid fel på OSD. RGW och monitorer bör finnas på separata noder.
Baserat på resultatet av planeringsfasen och fysiska noder och klusterfasen kan du ta en titt på den hårdvara som finns tillgänglig på marknaden enligt din budget.
OSD CPU-val :-
< Under uppbyggnad … Stay Tuned >

Lämna ett svar

Din e-postadress kommer inte publiceras.