Zero To Hero Guide : : For CEPH CLUSTER PLANNING

Miről van szó :
Ha a Ceph-ről gondolkodsz vagy beszélsz, a leggyakoribb kérdés, ami eszedbe jut: “Milyen hardvert válasszak a CEPH tároló klaszteremhez?” és igen, ha tényleg ez a kérdés jár a fejedben, gratulálok, úgy tűnik, hogy komolyan gondolod a ceph technológiát, és így is kell lennie, mert a CEPH a tárolás jövője.
Ceph Commodity hardveren fut, Ohh Yeah !! mindenki tudja már. Úgy tervezték, hogy egy több petabájtos tárolási fürtöt építsen, miközben vállalati funkciókat biztosít. Nincs egyetlen hibapont , exabájtig skálázódik , önmenedzselés és öngyógyítás ( működési költséget takarít meg ) , commodity hardveren fut ( nincs vendor locking , tőkebefektetést takarít meg )
Ceph áttekintés :-

A ceph tároló fürt egyedüliként a RADOS ( Reliable Autonomic Distributed Object Store ). A Ceph erős CRUSH ( Controlled Replication Under Scalable Hashing ) algoritmust használ az adatok elhelyezésének optimalizálásához , az önmenedzseléshez és az öngyógyításhoz. A RESTful interfészt a Ceph Object Gateway (RGW) aks Rados GateWay biztosítja, a virtuális lemezeket pedig a Ceph Block Device (RBD) biztosítja

Ceph áttekintés – Image Credit : Inktank

Ceph Components :-

# Ceph OSD ( Object Storage Daemons ) tárolási adatok objektumokban , kezeli az adatok replikációját , helyreállítását , újrakiegyenlítését és szakaszinformációkat biztosít a Ceph Monitor számára. Fizikai lemezenként 1 OSD használata ajánlott.
# A Ceph MON ( Monitors ) fenntartja a klaszter általános állapotát a klaszter térképek állapotának fenntartásával, beleértve a Monitor térképet , OSD térképet , Placement Group ( PG ) térképet és CRUSH térképet. A Monitors állapotinformációkat kap a többi komponenstől a térképek fenntartásához, és ezeket a térképeket továbbítja a többi Monitor és OSD csomópontnak.
# Ceph RGW ( Object Gateway / Rados Gateway ) RESTful API interfész kompatibilis az Amazon S3 , OpenStack Swift .
# Ceph RBD ( Raw Block Device ) Block Storage-t biztosít a VM / bare metal valamint a normál ügyfelek számára , támogatja az OpenStack és CloudStack . Tartalmazza a vállalati funkciókat, mint a pillanatkép , vékony rendelkezésre bocsátás , tömörítés.
# CephFS ( File System ) elosztott POSIX NAS tárolás.
Pár hüvelykujj szabály :-

  • Futtassa az OSD-t egy dedikált tároló csomóponton ( szerver több lemezzel ) , a tényleges adatokat objektumok formájában tárolja.
  • Futtassa a Monitor-t egy külön dedikált hardveren vagy együtt létezik a ceph kliens csomópontokkal ( az OSD csomóponton kívül ), mint például az RGW , CephFS csomópont . A termeléshez ajánlott a Monitorokat dedikált alacsony költségű szervereken futtatni, mivel a Monitorok nem erőforrás igényesek.

Monitor Hardver konfiguráció :-
A Monitor fenntartja a teljes fürt egészségét , tartalmazza a PG naplókat és az OSD naplókat . Legalább három monitor csomópont ajánlott a klaszter kvórumához. Ceph monitor csomópontok nem erőforrás-éhesek tudnak jól működni meglehetősen alacsony cpu és memória. Egy 1U szerver olcsó E5-2603 processzorral, 16GB RAM-mal és 1GbE hálózattal a legtöbb esetben elegendőnek kell lennie. Ha a PG, Monitor és OSD naplók a monitor csomópont helyi lemezén tárolódnak , győződjön meg róla, hogy elegendő mennyiségű helyi tárolóval rendelkezik, hogy ne teljen meg.
Az egészségtelen klaszterek több tárolót igényelnek a naplók számára, akár több száz GB-ot is elérhetnek, ha a klaszter nagyon hosszú ideig egészségtelen marad. Ha a monitor csomópontokon be van állítva a verbózus kimenet, akkor ezek szükségszerűen hatalmas mennyiségű naplózási információt generálnak. Lásd a ceph dokumentációt a monitor napló beállításához.
A monitor futtatása távoli csomópontokon ajánlott inkább az összes egy csomóponton vagy a virtuális gépeken a fizikai különálló gépeken, hogy megakadályozza az egyetlen hibapontot.
A tervezési szakasz :-
A ceph fürt termelésben történő telepítése egy kis házi feladatot igényel, az alábbi információkat kell összegyűjtenie, hogy jobb és megbízhatóbb és skálázhatóbb ceph fürtöt tervezhessen, amely megfelel az Ön informatikai igényeinek. Ezek nagyon specifikusak az Ön igényeihez és az Ön informatikai környezetéhez. Ezek az információk segítenek Önnek abban, hogy jobban megtervezze a tárolási követelményeket.

  • Üzleti követelmény
    • Budget?
    • Ceph fürtre van szüksége a napi működéshez vagy SPECIAL
  • Technikai követelmény
    • Milyen alkalmazások fognak futni a ceph fürtjén?
    • Milyen típusú adatokat fognak tárolni a ceph fürtön?
    • A ceph fürtöt optimalizálni kell a kapacitás és a teljesítmény szempontjából?
    • Milyen legyen a felhasználható tárolási kapacitás?
    • Milyen a várható növekedési ütem?
    • Hány IOPS-ot kell támogatnia a klaszternek?
    • Hány áteresztőképességet kell támogatnia a klaszternek
    • Hány adatreplikációra ( megbízhatósági szint ) van szüksége?

A tervezés során a lehető legtöbb információt gyűjtse össze , ez minden szükséges választ megad a jobb ceph klaszter felépítéséhez.
A fizikai csomópont és a klaszterezési technika:-
A fenti összegyűjtött információk mellett , figyelembe kell venni a rack sűrűséget és a teljesítmény költségvetést is , az adatközpont területének ütemköltségét az optimális csomópont konfiguráció méretezéséhez. Ceph replikált adatok több csomóponton keresztül egy tárolási fürtben, hogy adatredundanciát és nagyobb rendelkezésre állást biztosítson. Fontos figyelembe venni.

  • A replikált csomópontnak ugyanazon a racken vagy több racken kell lennie az SPOF elkerülése érdekében?
  • Az OSD-forgalomnak a racken belül kell maradnia, vagy dedikált vagy megosztott hálózaton keresztül kell áthaladnia a racken?
  • Hány csomópont hibája tolerálható?
  • Ha a csomópontok több rackre vannak szétosztva, a hálózati forgalom megnő, és figyelembe kell venni a késleltetés hatását és a hálózati kapcsoló ugrások számát.
A Ceph automatikusan helyreáll az adatok újrapéldányozásával a meghibásodott csomópontokról a fürt többi csomópontján lévő másodlagos másolatok segítségével . Egy csomópont meghibásodásának így több hatása is van.
  • A teljes klaszterkapacitás néhány töredékével csökken.
  • A teljes klaszter áteresztőképessége néhány töredékével csökken.
  • A fürt írási nehéz helyreállítási folyamatokba lép.

A helyreállítási idő kiszámítására szolgáló általános hüvelykujjszabály egy ceph fürtben OSD csomópontonként 1 lemez esetén :
A helyreállítási idő másodpercben = lemezkapacitás gigabitben / ( hálózati sebesség *(csomópontok-1) )

# POC környezet – Minimum 3 fizikai csomópont lehet 10 OSD-vel. Ez 66%-os fürt rendelkezésre állást biztosít egy fizikai csomópont meghibásodása esetén és 97%-os üzemidőt egy OSD meghibásodása esetén. Az RGW és Monitor csomópontok elhelyezhetők az OSD csomópontokon, de ez hatással lehet a teljesítményre, és nem ajánlott a termeléshez.
# Termelési környezet – legalább 5 fizikailag elkülönített csomópont és legalább 100 OSD @ 4TB OSD-nként, a fürt kapacitása több mint 130TB, és 80%-os rendelkezésre állást biztosít a fizikai csomópontok meghibásodása esetén és 99%-os rendelkezésre állást OSD meghibásodása esetén. Az RGW-nek és a monitoroknak külön csomópontokon kell lenniük.
A tervezési fázis, a fizikai csomópontok és a fürtözési szakasz eredménye alapján megnézheti a piacon elérhető hardvert a költségvetésnek megfelelően.
OSD CPU kiválasztása :-
< Under Construction … Stay Tuned >

Vélemény, hozzászólás?

Az e-mail-címet nem tesszük közzé.