Zero Para o Guia do Herói : : Para CEPH CLUSTER PLANNING

Do que se trata :
Se você pensa ou discute sobre a Ceph , a pergunta mais comum que lhe vem à cabeça é “Que Hardware devo escolher para o meu cluster de armazenamento CEPH ?” e sim se você realmente pensou nesta pergunta na sua mente , parabéns você parece ser sério sobre a tecnologia ceph e você deve ser porque CEPH É O FUTURO DO ARMAZENAMENTO.
Ceph roda em hardware de Commodity , Ohh Yeah !! todos agora sabem disso . Ele é projetado para construir um cluster de armazenamento multipetabyte enquanto fornece recursos prontos para a empresa. Sem ponto único de falha , escalonamento para exabytes , auto gerenciamento e auto cura ( economiza custo operacional ) , roda em commodity hardware ( sem travamento do fornecedor , economiza investimento de capital )
Ceph Visão Geral :-

A única coisa que o cluster de armazenamento ceph é o RADOS ( Reliable Autonomic Distributed Object Store ). Ceph usa um poderoso algoritmo CRUSH ( Controlled Replication Under Scalable Hashing ) para otimizar a colocação de dados , auto gerenciamento e auto cura. A interface RESTful é fornecida pelo Ceph Object Gateway (RGW) aks Rados GateWay e os discos virtuais são provisionados pelo Ceph Block Device (RBD)

Ceph Overview – Image Credit : Inktank

Ceph Componentes :-

# Ceph OSD ( Object Storage Daemons ) armazena dados em objetos, gerencia a replicação de dados, recuperação, rebalanceamento e fornece informações de palco para o Ceph Monitor. É recomendado ao usuário 1 OSD por disco físico.
# Ceph MON ( Monitores ) mantém a saúde geral do cluster, mantendo o estado do mapa de cluster, incluindo o mapa do Monitor , mapa OSD , mapa do Grupo de Colocação ( PG ) , e mapa CRUSH. Os monitores recebem informações de estado de outros componentes para manter os mapas e circulam esses mapas para outros nós de Monitor e OSD.
# Ceph RGW ( Object Gateway / Rados Gateway ) RESTful API interface compatível com Amazon S3 , OpenStack Swift .
# Ceph RBD ( Raw Block Device ) fornece armazenamento de blocos para VM / bare metal assim como clientes regulares , suporta OpenStack e CloudStack . Inclui recursos corporativos como snapshot , thin provisioning , compressão.
# CephFS ( File System ) distribuída POSIX NAS storage.
Few Thumb Rules :-

  • Executar OSD em um nó de armazenamento dedicado ( servidor com múltiplos discos ) , os dados reais são armazenados na forma de objetos.
  • Executar Monitor em um hardware dedicado separado ou coexiste com nós de cliente ceph ( diferente do nó OSD ) como o RGW , nó CephFS . Para a produção é recomendado rodar Monitores em servidores dedicados de baixo custo, uma vez que os Monitores não estão com fome de recursos.

>Configuração de Hardware do Monitor :-
Monitor mantém a saúde de todo o cluster , ele contém logs PG e logs OSD . Um mínimo de três nós de monitores são recomendados para um quorum de cluster. Os nós de monitor Ceph não estão com fome de recursos, eles podem funcionar bem com um CPU e memória bastante baixos. Um servidor 1U com processador E5-2603,16GB RAM e rede 1GbE de baixo custo deve ser suficiente na maioria dos casos. Se os logs PG,Monitor e OSD são armazenados no disco local do nó monitor , certifique-se de ter quantidade suficiente de armazenamento local para que ele não se encha.
Clusters não saudáveis requerem mais armazenamento para logs , podem alcançar até GB e até centenas de GB se o cluster for deixado não saudável por muito tempo . Se a saída verbosa estiver definida nos nós do monitor, então estes são obrigados a gerar uma enorme quantidade de informação de registo. Consulte a documentação ceph para a configuração de log do monitor.
Its recomendados para executar o monitor em nós distantes ao invés de em todos os nós em um nó ou em máquinas virtuais em máquinas físicas separadas para evitar um único ponto de falha.
O Estágio de Planejamento :-
A implantação de um cluster ceph na produção requer um pouco de trabalho de casa , você deve reunir as informações abaixo para que você possa projetar um cluster ceph melhor e mais confiável e escalável para se adequar às suas necessidades de TI. Estes são muito específicos para as suas necessidades e para o seu ambiente de TI. Essas informações o ajudarão a projetar melhor sua necessidade de armazenamento.

  • Requisito Comercial
    • Orçamento ?
    • Você precisa de Ceph cluster para operação diária ou ESPECIAL
  • Requisito Técnico
    • Que aplicações estarão rodando no seu ceph cluster ?
    • Que tipo de dados serão armazenados em seu cluster de cefalorização ?
    • Deve o cluster de cefalorização ser otimizado para capacidade e desempenho ?
    • Qual deve ser a capacidade de armazenamento utilizável ?
    • Qual é a taxa de crescimento esperada?
    • Quantos IOPS o cluster deve suportar ?
    • Quanta produção deve suportar
    • Quanta replicação de dados (nível de confiabilidade) você precisa ?

Colher o máximo de informação possível durante a fase de planejamento, o que dará todas as respostas necessárias para construir um melhor ceph cluster.
A técnica de Nó Físico e clustering:-
Além das informações acima coletadas , também levar em conta a densidade do rack e o orçamento de energia , o custo de espaço do centro de dados para dimensionar a configuração ideal do nó. Dados replicados em múltiplos nós em um cluster de armazenamento para fornecer redundância de dados e maior disponibilidade. É importante considerar.

  • O nó replicado deve estar no mesmo rack ou em vários racks para evitar SPOF ?
  • O tráfego OSD deve ficar dentro do rack ou atravessar o rack em uma rede dedicada ou compartilhada ?
  • Quantas falhas de nós podem ser toleradas?
  • Se os nós forem separados através de múltiplos racks, o tráfego de rede aumenta e o impacto da latência e do número de lúpulos do switch de rede deve ser considerado.
Ceph irá recuperar automaticamente, replicando os dados dos nós com falha usando cópias secundárias presentes em outros nós em cluster . Uma falha de nó assim tem vários efeitos.
  • A capacidade total do cluster é reduzida por algumas frações.
  • A produção total do cluster é reduzida por algumas frações.
  • O cluster entra em um processo de recuperação pesado de escrita.

Um polegar geral de regra para calcular o tempo de recuperação em um cluster ceph dado 1 disco por nó OSD é :
Tempo de recuperação em segundos = capacidade de disco em Gigabits / ( velocidade da rede *(nódulos-1) )

# Ambiente POC – Pode ter um mínimo de 3 nós físicos com 10 OSD’s cada. Isto fornece 66% de disponibilidade de cluster em caso de falha do nó físico e 97% de tempo de funcionamento em caso de falha do OSD. Os nós RGW e Monitor podem ser colocados em nós OSD, mas isso pode ter impacto no desempenho e não ser recomendado para produção.
# Ambiente de Produção – um mínimo de 5 nós fisicamente separados e um mínimo de 100 OSD @ 4TB por OSD a capacidade do cluster é superior a 130TB e fornece 80% de tempo de atividade em caso de falha física do nó e 99% de tempo de atividade em caso de falha OSD. RGW e Monitores devem estar em nós separados.
Baseado no resultado da fase de planejamento e nós físicos e fase de clustering você tem uma visão do hardware disponível no mercado conforme seu orçamento.
Seleção de CPU OSD :-
< Em Construção … Fique Atento >

Deixe uma resposta

O seu endereço de email não será publicado.