Hvad det hele handler om :
Hvis du tænker eller diskutere om Ceph , det mest almindelige spørgsmål strejke til dit sind er “Hvilken hardware skal jeg vælge til min CEPH Storage Cluster ?” og ja, hvis du virkelig tænkte på dette spørgsmål i dit sind , tillykke du synes at være seriøs om ceph teknologi og du bør være fordi CEPH ER FREMTIDEN FOR STORAGE.
Ceph kører på Commodity hardware , Ohh Yeah !!! alle ved det nu . Det er designet til at opbygge en multi-petabyte storage cluster, samtidig med at det giver virksomhedsklare funktioner. Ingen single point of failure , skalering til exabytes , selvstyrende og selvhelbredende ( sparer driftsomkostninger ) , kører på råvarehardware ( ingen leverandørlåsning , sparer kapitalinvestering )
Ceph Oversigt :-
Den eneste af ceph storage cluster er RADOS ( Reliable Autonomic Distributed Object Store ). Ceph bruger kraftfuld CRUSH ( Controlled Replication Under Scalable Hashing ) algoritme til optimering af dataplacering , selvstyrende og selvhelbredende. REST-grænsefladen leveres af Ceph Object Gateway (RGW) aks Rados GateWay og virtuelle diske tilvejebringes af Ceph Block Device (RBD)
Ceph Overview – Image Credit : Inktank
# Ceph OSD ( Object Storage Daemons ) lagrer data i objekter , administrerer datareplikation , genopretning , rebalancering og giver faseoplysninger til Ceph Monitor. Det anbefales at bruge 1 OSD pr. fysisk disk.
# Ceph MON ( Monitors ) opretholder klyngens generelle tilstand ved at holde klyngekortstatus, herunder Monitor map , OSD map , Placement Group ( PG ) map , og CRUSH map . Monitors modtager tilstandsinformationer fra andre komponenter for at vedligeholde kort og cirkulere disse kort til andre Monitor- og OSD-noder.
# Ceph RGW ( Object Gateway / Rados Gateway ) RESTful API-grænseflade kompatibel med Amazon S3 , OpenStack Swift .
# Ceph RBD ( Raw Block Device ) Giver Block Storage til VM / bare metal samt almindelige klienter , understøtter OpenStack og CloudStack . Inkluderer Enterprise-funktioner som snapshot , thin provisioning , komprimering.
# CephFS ( File System ) distribueret POSIX NAS storage.
Few Thumb Rules :-
- Run OSD på en dedikeret storage node ( server med flere diske ) , faktiske data er gemt i form af objekter.
- Run Monitor på en separat dedikeret hardware eller sameksisterer med ceph klient noder ( andre end OSD node ) såsom RGW , CephFS node . Til produktion anbefales det at køre Monitors på dedikerede lavprisservere, da Monitors ikke er ressourcehungrende.
Monitor Hardware Configuration :-
Monitor vedligeholder hele klyngens sundhed , den indeholder PG logs og OSD logs . Der anbefales mindst tre monitors-noder til et klyngequorum. Ceph monitor nodes er ikke ressourcehungrende, de kan fungere godt med ret lav cpu og hukommelse. En 1U-server med en billig processor E5-2603, 16 GB RAM og 1 GbE-netværk bør være tilstrækkelig i de fleste tilfælde. Hvis PG-, monitor- og OSD-logfiler lagres på den lokale disk på monitorknuden, skal du sørge for, at du har tilstrækkelig lokal lagerplads, så den ikke fyldes op.
Usunde klynger kræver mere lagerplads til logfiler, der kan nå op på GB og endda hundreder af GB, hvis klyngen forbliver usund i meget lang tid. Hvis verbose output er indstillet på monitor noder, så er disse forpligtet til at generere store mængder logningsoplysninger. Se ceph dokumentation for monitor log indstilling.
Det anbefales at køre monitor på fjerntliggende noder snarere på alle på alle på alle en knude eller på virtuelle maskiner på fysiske adskilte maskiner for at forhindre single point of failure.
Planlægningsfasen :-
Deployering af en ceph klynge i produktion kræver en lille smule hjemmearbejde , du bør samle nedenstående oplysninger, så du kan designe en bedre og mere pålidelig og skalerbar ceph klynge, der passer til dine it-behov. Disse er meget specifikke for dine behov og dit IT-miljø. Disse oplysninger vil hjælpe dig med at designe dit lagerbehov bedre.
- Business Requirement
- Budget ?
- Har du brug for Ceph cluster til daglig drift eller SPECIAL
- Technical Requirement
- Hvilke applikationer skal køre på din ceph cluster ?
- Hvilken type data vil blive lagret på din ceph-klynge?
- Skal ceph-klyngen optimeres med hensyn til kapacitet og ydeevne?
- Hvad skal den anvendelige lagerkapacitet være?
- Hvad er den forventede vækstrate?
- Hvor mange IOPS skal klyngen understøtte?
- Hvor meget gennemløb skal klyngen understøtte
- Hvor meget datareplikation ( pålidelighedsniveau ) har du brug for?
Indhent så mange oplysninger som muligt i planlægningsfasen , det vil give alle de svar, der kræves for at konstruere en bedre ceph-klynge.
Den fysiske knude og clustering teknik:-
I tillæg til ovenstående indsamlede oplysninger , også tage hensyn til rack tæthed og strøm budget , datacenter plads tempo omkostninger til at dimensionere den optimale knude konfiguration. Ceph replikerede data på tværs af flere knudepunkter i en lagringsklynge for at give data redundans og højere tilgængelighed. Det er vigtigt at overveje:
- Bør den replikerede knude være på samme rack eller flere racks for at undgå SPOF?
- Bør OSD-trafikken forblive inden for racket eller spænde over racket i et dedikeret eller delt netværk?
- Hvor mange knudefejl kan tolereres?
- Hvis knuderne er spredt ud over flere racks, øges netværkstrafikken, og virkningen af latenstid og antallet af netværksswitchhop bør overvejes.
- Den samlede klyngekapacitet reduceres med nogle brøkdele.
- Den samlede klyngegenes gennemstrømning reduceres med nogle brøkdele.
- Klyngen går ind i en skrivetung genoprettelsesproces.
# POC-miljø – Kan have mindst 3 fysiske noder med 10 OSD’er hver. Dette giver 66 % klyngetilgængelighed ved fejl på en fysisk knude og 97 % oppetid ved fejl på en OSD. RGW- og Monitor-noder kan placeres på OSD-noder, men dette kan påvirke ydeevnen og anbefales ikke til produktion.
# Produktionsmiljø – mindst 5 fysisk adskilte knuder og mindst 100 OSD @ 4 TB pr. OSD klyngekapaciteten er over 130 TB og giver 80 % oppetid ved fejl på fysiske knuder og 99 % oppetid ved fejl på OSD’er. RGW og skærme skal være på separate knuder.
Baseret på resultatet af planlægningsfasen og fysiske knuder og clusteringfasen har du et kig på den hardware, der er tilgængelig på markedet i henhold til dit budget.
OSD CPU-valg :-
< Under konstruktion … Stay Tuned >