Ceph incluye un orquestador (ceph-deploy) para la instalación y la configuración de los monitores y OSD. Los clientes tienen la capacidad de montar el sistema de archivos utilizando el módulo cliente del Linux kernel. El 19 de marzo de 2010, Linus Benedict Torvalds incluyó el cliente Ceph para el Linux kernel 2.6.34.[2] También está disponible un viejo cliente basado en FUSE. Los servidores lo corren como un Unixdaemon regular. Ceph soporta las API de Swift (OpenStack) y Amazon (S3).
El 3 de julio de 2012, el equipo de desarrollo de Ceph liberó la versión Argonaut, la primera versión de Ceph con soporte de larga duración. Esta versión contará solamente con correcciones de estabilidad y actualizaciones de rendimiento, y las nuevas características se implementaran nativamente en las futuras versiones.[5]
Monitores de clúster (ceph-mon), mantienen un control de actividad y fallos en los nodos del cluster. Los monitores de Ceph son responsables de la gestión del sistema de almacenamiento mediante copia del mapa del cluster, realizando actualizaciones periódicas en respuesta a cambios en la configuración o cambios en el estado del OSD (falla, recuperación o agregar). Cuando algún OSD es adicionado o falla, los monitores detectan y mantienen el mapa del cluster actualizado. Se le informa al RADOS que hubo un cambio de manera que este mantenga los datos replicados, consistentes y disponibles en el sistema. Ceph usa Paxos, un algoritmo para el consenso distribuido.
Dispositivos de Almacenamiento de Objetos (ceph-osds), actualmente es el que almacena el contenido de los archivos. Idealmente, el ceph-osds debería almacenar los datos en un sistema de archivosBTRFS local, pero también pueden utilizarse otros sistemas de archivo local.[6]
Todos los demonios funcionan totalmente distribuidos, y pueden ejecutarse en el mismo ambiente de servidores, mientras los clientes interactuarán directamente entre ellos.[7]
Ceph distribuye los segmentos de los archivos individuales a través de los múltiples nodos para así conseguir un incremento de rendimiento, de manera similar como lo hace el agrupamiento de discos en RAID0 segmenta los datos en las diferentes porciones de múltiples disco duros. Su balanceo de carga es autoadaptable por lo cual soporta la frecuencia de acceso a objetos replicandolos sobre más nodos.[8]
Etimología
El nombre de "Ceph" deriva de Cephalopoda (una clase biológica de moluscos que incluye al pulpo y a las babosas) y éste del griego antiguo κεφαλή (kephalē), que significa "cabeza". El nombre (enfatizado por el logo) sugiere un comportamiento muy semejante al pulpo y fue elegido por el parentesco del animal con la mascota de la UCSC, una babosa banana llamada "Sammy".[9]
Incidencias
A lo largo de su historia el Ceph File System, ha presentado una serie de incidencias,[10] de las cuales las más importantes han sido las siguientes:
El 12 de noviembre fue anunciada la creación de la Ceph Foundation auspiciada y hospedado por la Fundación Linux.[11] Las empresas que inicialmente forman parte de esta nueva fundación son:[12]
↑Lardinois, Frederic (12 de noviembre de 2018). «The Ceph storage project gets a dedicated open-source foundation»(html). TechCrunch(en inglés). Archivado desde el original el 12 de noviembre de 2018. Consultado el 13 de noviembre de 2018. «These days, you can’t have a successful open source project without setting up a foundation that manages the many diverging interests of the community and so it’s maybe no surprise that Ceph is now getting its own foundation. Like so many other projects, the Ceph Foundation will be hosted by the Linux Foundation.»