O čem to celé je :
Pokud přemýšlíte nebo diskutujete o Ceph , nejčastější otázka, která vás napadne, je “Jaký hardware bych měl zvolit pro svůj CEPH Storage Cluster ?” A ano, pokud vás tato otázka opravdu napadla, gratulujeme, zdá se, že to s technologií Ceph myslíte vážně a měli byste, protože CEPH JE BUDOUCNOST ÚLOŽIŠTĚ.
Ceph běží na komoditním hardwaru , ach jo !!! to už ví každý. Je navržen tak, aby umožňoval vybudovat několikapetabajtový úložný cluster a zároveň poskytoval funkce připravené pro podniky. Žádné jediné místo selhání , škálování na exabajty , samospráva a samoléčení ( šetří provozní náklady ) , běží na komoditním hardwaru ( žádné blokování dodavatelem , šetří kapitálové investice )
Přehled clusteru ceph :-
Jediným clusterem úložiště ceph je RADOS ( Reliable Autonomic Distributed Object Store ). Ceph používá výkonný algoritmus CRUSH ( Controlled Replication Under Scalable Hashing ) pro optimalizaci umístění dat , samosprávu a samoléčení. Rozhraní RESTful poskytuje Ceph Object Gateway (RGW) aks Rados GateWay a virtuální disky zajišťuje Ceph Block Device (RBD)
Přehled Ceph – Obrázek Kredit : Inktank
# Ceph OSD ( Object Storage Daemons ) ukládá data do objektů , spravuje replikaci dat , obnovení , vyvažování a poskytuje informace o fázích do nástroje Ceph Monitor. Doporučuje se používat 1 OSD na fyzický disk.
# Ceph MON ( Monitorování ) udržuje celkový stav clusteru tím, že udržuje stav mapy clusteru včetně mapy Monitor , mapy OSD , mapy Placement Group ( PG ) a mapy CRUSH. Monitory přijímají informace o stavu map od ostatních komponent a předávají tyto mapy ostatním uzlům Monitor a OSD.
# Ceph RGW ( Object Gateway / Rados Gateway ) RESTful API rozhraní kompatibilní s Amazon S3 , OpenStack Swift .
# Ceph RBD ( Raw Block Device ) Poskytuje blokové úložiště virtuálním počítačům / holému kovu i běžným klientům , podporuje OpenStack a CloudStack . Obsahuje podnikové funkce jako snapshot , thin provisioning , komprese.
# CephFS ( File System ) distribuované úložiště POSIX NAS.
Několik stručných pravidel :-
- Spustit OSD na vyhrazeném uzlu úložiště ( server s více disky ) , vlastní data jsou uložena ve formě objektů.
- Spustit Monitor na samostatném vyhrazeném hardwaru nebo koexistuje s klientskými uzly ceph ( jinými než uzel OSD ) , jako je RGW , uzel CephFS . Pro produkční účely se doporučuje provozovat Monitory na vyhrazených levných serverech, protože Monitory nejsou náročné na zdroje.
Konfigurace hardwaru monitoru :-
Monitor udržuje stav celého clusteru , obsahuje protokoly PG a OSD. Pro kvorum clusteru se doporučují minimálně tři uzly monitorů. Monitorovací uzly Ceph nejsou náročné na zdroje, mohou dobře pracovat s poměrně malým množstvím procesoru a paměti. Ve většině případů by měl stačit 1U server s levným procesorem E5-2603,16 GB RAM a sítí 1GbE. Pokud se protokoly PG,Monitor a OSD ukládají na místní disk monitorovacího uzlu , ujistěte se, že máte dostatečné množství místního úložiště, takže by se nemělo zaplnit.
Nezdravé clustery vyžadují větší úložiště pro protokoly , může dosáhnout až GB a dokonce stovek GB, pokud je cluster ponechán nezdravý po velmi dlouhou dobu. Pokud je na monitorovacích uzlech nastaven slovní výstup, pak tyto uzly určitě generují obrovské množství informací o logování. Nastavení logů monitoru naleznete v dokumentaci ke clusteru ceph.
Doporučuje se spouštět monitor spíše na vzdálených uzlech nebo na všech na jednom uzlu nebo na virtuálních strojích na fyzicky oddělených strojích, aby se zabránilo jedinému bodu selhání.
Fáze plánování :-
Doplnění clusteru ceph do výroby vyžaduje trochu domácí práce , měli byste shromáždit níže uvedené informace, abyste mohli navrhnout lepší a spolehlivější a škálovatelný cluster ceph, který bude vyhovovat vašim potřebám v oblasti IT. Ty jsou velmi specifické pro vaše potřeby a vaše IT prostředí. Tyto informace vám pomohou lépe navrhnout požadavky na úložiště.
- Podnikový požadavek
- Budget
- Potřebujete cluster Ceph pro každodenní provoz nebo SPECIÁLNÍ
- Technický požadavek
- Jaké aplikace budou běžet na vašem clusteru Ceph ?
- Jaký typ dat bude na vašem clusteru ceph uložen ?
- Měl by být cluster ceph optimalizován z hlediska kapacity a výkonu ?
- Jaká by měla být využitelná kapacita úložiště ?
- Kolik IOPS by měl cluster podporovat ?
- Jakou propustnost by měl cluster podporovat
- Jakou replikaci dat ( úroveň spolehlivosti ) potřebujete ?
Shromážděte co nejvíce informací ve fázi plánování , které poskytnou všechny odpovědi potřebné k sestavení lepšího clusteru ceph.
Fyzický uzel a technika clusteru:-
Kromě výše shromážděných informací , vezměte v úvahu také hustotu racků a rozpočet na napájení , náklady na tempo prostoru datového centra pro stanovení velikosti optimální konfigurace uzlů. Ceph replikuje data ve více uzlech v úložném clusteru, aby zajistil redundanci dat a vyšší dostupnost. Je důležité vzít v úvahu.
- Měl by být replikovaný uzel ve stejném racku nebo ve více raccích, aby se předešlo SPOF ?
- Měl by provoz OSD zůstat v rámci racku nebo se rozprostřít mezi racky ve vyhrazené nebo sdílené síti
- Kolik selhání uzlů lze tolerovat ?
- Pokud jsou uzly rozděleny do více racků, síťový provoz se zvýší a je třeba zvážit dopad latence a počet skoků síťového přepínače.
- Celková kapacita clusteru se sníží o některé zlomky.
- Celková propustnost clusteru se sníží o některé zlomky.
- Klastr vstupuje do procesů obnovy náročných na zápis.
# Prostředí POC – Může mít minimálně 3 fyzické uzly s 10 OSD každý. To zajišťuje 66% dostupnost clusteru při selhání fyzického uzlu a 97% provozuschopnost při selhání OSD. Uzly RGW a Monitor lze umístit na uzly OSD, ale může to mít vliv na výkon a nedoporučuje se to pro produkční prostředí.
# Produkční prostředí – minimálně 5 fyzicky oddělených uzlů a minimálně 100 OSD @ 4 TB na OSD kapacita clusteru je více než 130 TB a poskytuje 80 % dostupnosti při selhání fyzického uzlu a 99 % dostupnosti při selhání OSD. RGW a monitory by měly být na oddělených uzlech.
Na základě výsledku fáze plánování a fyzických uzlů a fáze clusteru se podíváte na hardware dostupný na trhu podle vašeho rozpočtu.
Výběr procesoru OSD :-
< Ve výstavbě … Stay Tuned >