Guía de Cero a Héroe : : Para la PLANIFICACIÓN DE CLUSTERES CEPH

De qué se trata :
Si piensa o discute sobre Ceph, la pregunta más común que le viene a la mente es “¿Qué hardware debo seleccionar para mi clúster de almacenamiento CEPH?” y sí, si realmente pensó en esta pregunta en su mente, felicitaciones, parece ser serio acerca de la tecnología Ceph y debe serlo porque CEPH ES EL FUTURO DEL ALMACENAMIENTO.
Ceph se ejecuta en hardware Commodity, ¡oh sí! todo el mundo lo sabe ahora. Está diseñado para construir un clúster de almacenamiento de varios petabytes, a la vez que proporciona características listas para la empresa. No hay punto único de fallo, escalado a exabytes, autogestión y autocuración (ahorra costes operativos), se ejecuta en hardware básico (sin bloqueo de proveedor, ahorra inversión de capital).
Resumen de Ceph :-

El único clúster de almacenamiento Ceph es RADOS (Reliable Autonomic Distributed Object Store). Ceph utiliza el potente algoritmo CRUSH ( Controlled Replication Under Scalable Hashing ) para optimizar la colocación de los datos, la autogestión y la autocuración. La interfaz RESTful es proporcionada por Ceph Object Gateway (RGW) aks Rados GateWay y los discos virtuales son aprovisionados por Ceph Block Device (RBD)

Resumen de Ceph – Crédito de la imagen : Inktank

Componentes de Ceph :-

# Ceph OSD ( Object Storage Daemons ) datos de almacenamiento en objetos , gestiona la replicación de datos , la recuperación , el reequilibrio y proporciona información de la etapa a Ceph Monitor. Se recomienda el uso de 1 OSD por disco físico.
# Ceph MON ( Monitors ) mantiene la salud general del cluster manteniendo el estado del mapa del cluster incluyendo el mapa de Monitor , el mapa de OSD , el mapa de Placement Group ( PG ) y el mapa de CRUSH. Los monitores reciben información de estado de otros componentes para mantener los mapas y hacerlos circular a otros nodos Monitor y OSD.
# Ceph RGW ( Object Gateway / Rados Gateway ) Interfaz API RESTful compatible con Amazon S3 , OpenStack Swift .
# Ceph RBD ( Raw Block Device ) Proporciona almacenamiento en bloque a VM / bare metal así como a clientes regulares , soporta OpenStack y CloudStack . Incluye características empresariales como snapshot, thin provisioning, compresión.
# CephFS ( File System ) almacenamiento POSIX NAS distribuido.
Reglas básicas :-

  • Ejecutar OSD en un nodo de almacenamiento dedicado ( servidor con múltiples discos ) , los datos reales se almacenan en forma de objetos.
  • Ejecutar Monitor en un hardware dedicado separado o coexiste con los nodos de cliente ceph ( aparte del nodo OSD ) como RGW , nodo CephFS . Para la producción se recomienda ejecutar los monitores en servidores dedicados de bajo costo, ya que los monitores no son hambrientos de recursos.

Configuración del hardware del monitor :-
El monitor mantiene la salud de todo el clúster, contiene los registros de PG y los registros de OSD. Se recomienda un mínimo de tres nodos monitores para el quórum del clúster. Los nodos de monitorización de Ceph no son hambrientos de recursos, pueden trabajar bien con una cpu y una memoria bastante bajas. Un servidor 1U con un procesador E5-2603 de bajo coste, 16GB de RAM y una red de 1GbE debería ser suficiente en la mayoría de los casos. Si los registros de PG, Monitor y OSD se almacenan en el disco local del nodo monitor, asegúrese de que tiene suficiente cantidad de almacenamiento local para que no se llene. Si la salida verbosa se establece en los nodos de monitoreo, entonces estos están obligados a generar una gran cantidad de información de registro. Consulte la documentación de ceph para la configuración del registro del monitor.
Se recomienda ejecutar el monitor en nodos distantes en lugar de en todos en un nodo o en máquinas virtuales en máquinas físicas separadas para evitar un único punto de fallo.
La etapa de planificación :-
El despliegue de un clúster ceph en producción requiere un poco de tarea, debe reunir la siguiente información para que pueda diseñar un clúster ceph mejor y más fiable y escalable para adaptarse a sus necesidades de TI. Estos son muy específicos a sus necesidades y su entorno de TI. Esta información le ayudará a diseñar mejor sus requisitos de almacenamiento.

  • Requisitos empresariales
    • Presupuesto
    • ¿Necesita un clúster Ceph para el funcionamiento diario o ESPECIAL
  • Requisitos técnicos
    • Qué aplicaciones se ejecutarán en su clúster Ceph?
    • ¿Qué tipo de datos se almacenarán en su clúster ceph?
    • ¿Debe optimizarse el clúster ceph en cuanto a capacidad y rendimiento?
    • ¿Cuál debe ser la capacidad de almacenamiento utilizable?
    • ¿Cuál es la tasa de crecimiento prevista?
    • ¿Cuántos IOPS debería soportar el clúster?
    • ¿Cuánto rendimiento debería soportar el clúster?
    • ¿Cuánta replicación de datos (nivel de fiabilidad) necesita?

Recoge toda la información posible durante la etapa de planificación, la dará todas las respuestas necesarias para construir un mejor clúster ceph.
El nodo físico y la técnica de clustering:-
Además de la información recopilada anteriormente, también hay que tener en cuenta la densidad del rack y el presupuesto de energía, el coste del espacio del centro de datos para dimensionar la configuración óptima del nodo. Ceph replica los datos a través de múltiples nodos en un clúster de almacenamiento para proporcionar redundancia de datos y una mayor disponibilidad. Es importante considerar.

  • ¿Debe el nodo replicado estar en el mismo rack o en múltiples racks para evitar el SPOF?
  • ¿Debe el tráfico OSD permanecer dentro del rack o extenderse a través del rack en una red dedicada o compartida?
  • ¿Cuántos fallos de nodos se pueden tolerar?
  • Si los nodos se separan a través de múltiples bastidores el tráfico de la red aumenta y el impacto de la latencia y el número de saltos de conmutación de la red debe ser considerado.
Ceph se recuperará automáticamente volviendo a replicar los datos de los nodos que han fallado utilizando copias secundarias presentes en otros nodos del clúster . Un fallo de nodo tiene por tanto varios efectos.
  • La capacidad total del cluster se reduce en algunas fracciones.
  • El rendimiento total del cluster se reduce en algunas fracciones.
  • El clúster entra en procesos de recuperación de escritura pesada.

Una regla general para calcular el tiempo de recuperación en un clúster ceph dado 1 disco por nodo OSD es :

Tiempo de recuperación en segundos = capacidad del disco en Gigabits / ( velocidad de la red *(nodos-1) )

# Entorno POC – Puede tener un mínimo de 3 nodos físicos con 10 OSD’s cada uno. Esto proporciona un 66% de disponibilidad del clúster en caso de fallo de un nodo físico y un 97% de tiempo de actividad en caso de fallo de un OSD. Los nodos RGW y Monitores pueden colocarse en los nodos OSD pero esto puede impactar en el rendimiento y no se recomienda para producción.
# Entorno de Producción – un mínimo de 5 nodos físicamente separados y un mínimo de 100 OSD @ 4TB por OSD la capacidad del cluster es de más de 130TB y proporciona un 80% de tiempo de actividad ante un fallo del nodo físico y un 99% de tiempo de actividad ante un fallo del OSD. RGW y Monitores deben estar en nodos separados.
Basado en el resultado de la fase de planificación y los nodos físicos y la etapa de clustering usted tiene una mirada en el hardware disponible en el mercado según su presupuesto.
Selección de CPU de OSD :-
< En construcción … Stay Tuned >

Deja una respuesta

Tu dirección de correo electrónico no será publicada.