Zero To Hero Guide: : For CEPH CLUSTER PLANNING

What it is all about :
Se pensate o discutete di Ceph, la domanda più comune che vi viene in mente è “What Hardware Should I Select For My CEPH Storage Cluster?” e sì, se davvero avete pensato a questa domanda nella vostra mente, congratulazioni, sembra che siate seri sulla tecnologia Ceph e dovreste esserlo perché CEPH è il futuro dello storage.
Ceph gira su Commodity hardware, Ohh Yeah!!! ora lo sanno tutti. È progettato per costruire un cluster di archiviazione multi-petabyte, fornendo allo stesso tempo caratteristiche pronte per l’impresa. Nessun singolo punto di fallimento, scalabilità fino a exabyte, autogestione e autoguarigione (consente di risparmiare sui costi operativi), gira su hardware commodity (nessun blocco del fornitore, consente di risparmiare investimenti di capitale)
Panoramica Ceph :-

L’unico cluster di storage Ceph è RADOS (Reliable Autonomic Distributed Object Store). Ceph usa un potente algoritmo CRUSH (Controlled Replication Under Scalable Hashing) per ottimizzare il posizionamento dei dati, l’autogestione e l’autoguarigione. L’interfaccia RESTful è fornita da Ceph Object Gateway (RGW) aks Rados GateWay e i dischi virtuali sono forniti da Ceph Block Device (RBD)

Ceph Overview – Image Credit : Inktank

Componenti Ceph :-

# Ceph OSD (Object Storage Daemons) memorizza i dati in oggetti, gestisce la replica dei dati, il recupero, il riequilibrio e fornisce informazioni sulla fase a Ceph Monitor. Si raccomanda di utilizzare 1 OSD per ogni disco fisico.
# Ceph MON ( Monitors ) mantiene la salute generale del cluster mantenendo lo stato della mappa del cluster, compresa la mappa Monitor, la mappa OSD, la mappa PG ( Placement Group ) e la mappa CRUSH. Monitors riceve informazioni sullo stato da altri componenti per mantenere le mappe e far circolare queste mappe ad altri nodi Monitor e OSD.
# Ceph RGW ( Object Gateway / Rados Gateway ) Interfaccia API RESTful compatibile con Amazon S3 , OpenStack Swift .
# Ceph RBD ( Raw Block Device ) Fornisce Block Storage a VM / bare metal così come i clienti regolari , supporta OpenStack e CloudStack . Include funzioni Enterprise come snapshot , thin provisioning , compressione.
# CephFS ( File System ) distribuito POSIX NAS storage.
Poche regole Thumb :-

  • Esegui OSD su un nodo di storage dedicato ( server con più dischi ) , i dati effettivi sono memorizzati sotto forma di oggetti.
  • Esegui Monitor su un hardware separato dedicato o coesiste con nodi client ceph ( diversi dal nodo OSD ) come RGW , nodo CephFS . Per la produzione si consiglia di eseguire i monitor su server dedicati a basso costo in quanto i monitor non sono affamati di risorse.

Configurazione hardware del monitor :-
Monitor mantiene la salute dell’intero cluster, contiene PG logs e OSD logs. Un minimo di tre nodi monitor sono raccomandati per un quorum di cluster. I nodi monitor di Ceph non sono affamati di risorse e possono lavorare bene con CPU e memoria abbastanza basse. Un server 1U con un processore a basso costo E5-2603, 16GB di RAM e una rete 1GbE dovrebbe essere sufficiente nella maggior parte dei casi. Se i log di PG, Monitor e OSD sono memorizzati sul disco locale del nodo monitor, assicuratevi di avere una quantità sufficiente di storage locale in modo che non si riempia.
I cluster malsani richiedono più storage per i log, possono arrivare fino a GB e anche centinaia di GB se il cluster viene lasciato malsano per un tempo molto lungo. Se l’output verboso è impostato sui nodi monitor, allora questi sono destinati a generare un’enorme quantità di informazioni di log. Fare riferimento alla documentazione ceph per l’impostazione del log del monitor.
Si raccomanda di eseguire il monitor su nodi distanti piuttosto che su tutti su tutti i nodi o su macchine virtuali su macchine fisiche separate per prevenire il singolo punto di errore.
La fase di pianificazione :-
L’implementazione di un cluster ceph in produzione richiede un po’ di lavoro a casa, è necessario raccogliere le informazioni di seguito in modo da poter progettare un cluster ceph migliore e più affidabile e scalabile per adattarsi alle vostre esigenze IT. Queste sono molto specifiche per le vostre esigenze e il vostro ambiente IT. Queste informazioni ti aiuteranno a progettare meglio il tuo requisito di storage.

  • Requisiti aziendali
    • Budget?
    • Hai bisogno del cluster Ceph per le operazioni quotidiane o SPECIALI
  • Requisiti tecnici
    • Quali applicazioni saranno in esecuzione sul tuo cluster Ceph?
    • Che tipo di dati saranno memorizzati sul tuo cluster ceph?
    • Il cluster ceph deve essere ottimizzato per capacità e prestazioni?
    • Quale dovrebbe essere la capacità di archiviazione utilizzabile?
    • Qual è il tasso di crescita previsto?
    • Quante IOPS dovrebbe supportare il cluster?
    • Quanto throughput dovrebbe supportare il cluster
    • Quanto replicazione dei dati (livello di affidabilità) è necessario?

Raccogliere quante più informazioni possibili durante la fase di pianificazione, che darà tutte le risposte necessarie per costruire un migliore cluster Ceph.
Il nodo fisico e la tecnica di clustering:-
Oltre alle informazioni raccolte sopra, prendi anche in considerazione la densità del rack e il budget di potenza, il costo dello spazio del centro dati per dimensionare la configurazione ottimale del nodo. Ceph replica i dati su più nodi in un cluster di storage per fornire ridondanza dei dati e maggiore disponibilità. E’ importante considerare.

  • Il nodo replicato deve essere sullo stesso rack o su più rack per evitare SPOF?
  • Il traffico OSD deve rimanere all’interno del rack o estendersi attraverso i rack in una rete dedicata o condivisa?
  • Quanti guasti dei nodi possono essere tollerati?
  • Se i nodi sono separati su più rack il traffico di rete aumenta e si dovrebbe considerare l’impatto della latenza e il numero di salti degli switch di rete.
Ceph si riprenderà automaticamente replicando i dati dai nodi falliti utilizzando copie secondarie presenti su altri nodi del cluster. Un guasto di un nodo ha quindi diversi effetti.
  • La capacità totale del cluster si riduce di alcune frazioni.
  • Il throughput totale del cluster si riduce di alcune frazioni.
  • Il cluster entra in un processo di recupero pesante in scrittura.

Una regola generale per calcolare il tempo di recupero in un cluster ceph dato 1 disco per nodo OSD è :
Tempo di recupero in secondi = capacità del disco in Gigabit / ( velocità di rete *(nodi-1) )

# Ambiente POC – Può avere un minimo di 3 nodi fisici con 10 OSD ciascuno. Questo fornisce il 66% di disponibilità del cluster in caso di guasto di un nodo fisico e il 97% di uptime in caso di guasto di un OSD. I nodi RGW e Monitor possono essere messi sui nodi OSD ma questo può avere un impatto sulle prestazioni e non è raccomandato per la produzione.
# Ambiente di produzione – un minimo di 5 nodi fisicamente separati e un minimo di 100 OSD @ 4TB per OSD la capacità del cluster è oltre 130TB e fornisce l’80% di uptime su un guasto del nodo fisico e il 99% di uptime su un guasto OSD. RGW e monitor dovrebbero essere su nodi separati.
Sulla base del risultato della fase di pianificazione e dei nodi fisici e della fase di clustering dai un’occhiata all’hardware disponibile sul mercato secondo il tuo budget.
Selezione CPU OSD :-
< In costruzione … Stay Tuned >

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.