• 贡献

  • 关注

  • 访问

个人简介:

 
共 20 篇文章
显示摘要每页显示  条
ceph-deploy osd HOST:DISK[:JOURNAL]ceph-deploy osd prepare 数据盘:日志盘ceph-deploy osd prepare --zap-disk objStor02:/dev/sdd:/dev/sdb.每个 [stripe_unit] 的连续字节会被连续地保存到同一个对象中,client 写满 stripe unit 大小的数据后,接着去下一个 object 中写下一个 stripe unit 大小的数据。2. stripe_unit 为 object size 的...
每个存储池最大pg数:mon max pool pg num同一个OSD Daemon中创建PG所间隔的秒数:mon pg create interval.开启filestore flusher:filestore flusherflusher的最大文件描述符数量:filestore flusher max fds开启同步flusher:filestore sync flush文件系统同步时下刷journal数据:filestore fsync flushes journal data(4)文件系统队列 (f...
理解 OpenStack + Ceph (2):Ceph 的物理和逻辑结构 [Ceph Architecture](1)Ceph client 通过 CRUSH 算法计算出存放 object 的 PG 的 ID:客户端输入 pool ID 和 object ID (比如 pool = “liverpool” and object-id = “john”)ceph 对 object ID 做 hashceph 对该 hash 值取 PG 总数的模,得到 PG ID (比如 58)ceph 或者 pool ID (...
Ceph浅析(上):概况与设计思想。Ceph的官方网站Ceph.com上用如下这句话简明扼要地定义了Ceph:具体而言,“统一的”意味着Ceph可以一套存储系统同时提供对象存储、块存储和文件系统存储三种功能,以便在满足不同应用需求的前提下简化部署和运维。理解Ceph的设计思想,首先还是要了解Sage设计Ceph时所针对的目标应用场景,换言之,“做这东西...
Ceph浅析(中):结构、工作原理及流程。这一层包括了三个部分:RADOS GW(RADOS Gateway)、 RBD(Reliable Block Device)和Ceph FS(Ceph File System),其作用是在librados库的基础上提供抽象层次更高、更便于应用或客户端使用的上层接口。这一层就是不同场景下对于Ceph各个应用接口的各种应用方式,例如基于librados直接开发的对象存储应...
关于Ceph产品化的一些感悟。一般来说客户的一个存储节点采用1-2个SSD作为缓存盘,对外提供的带宽其实也就300MBPS到600MBPS,而Ceph的journal + 两副本的方式,消耗了4倍写带宽,最终实际一个服务器能提供的写带宽只有75MBPS~150MPBS,远远小于多个机械盘的顺序写能力,严重制约着Ceph的顺序写性能。我们正在同每一个致力于Ceph的企业和个人一...
在磁盘故障做RAID重建时,只需计算该磁盘上有数据部分,同时由于逻辑块是分布在多个磁盘的,读取校验和写入新数据都能能够调动多个磁盘,改变传统RAID写热备的瓶颈问题,大大提升RAID重建速度,在磁盘容量越来越大的今天,这个技术就显得更有价值。传统RAID以磁盘为组建磁盘组,而网络RAID以节点(存储设备)作为组建RAID的单位,相比传统RAID...
由于本文只使用1个OSD,因此修改ceph.conf文件,增加以下两行:接下来创建mon、osd、mds:至此,CephFS集群就搭建好了,查看集群状态ceph -s后的输出如下:4两种导出CephFS作为nfs-server的方法Ceph集群提供了ceph-fuse客户端访问CephFS,用户先在平台上安装ceph-fuse软件包,然后拷贝集群的ceph.client.admin.keyring到本机的/etc/ceph目录下...
预留会同时考虑Primary OSD和Replica OSD,Primary OSD通过local_reserver来预留,Replica OSD通过remote_reserver来预留,默认每个AsyncReserver同一个时刻只允许一个PG进行恢复。当osd_scrub_begin_hour小于osd_scrub_end_hour时,允许时间段为[osd_scrub_begin_hour, osd_scrub_end_hour];当osd_scrub_begin_hour大于osd_scrub_end_hour时...
解析Ceph和9000分布式存储 Ceph是呼声很高的开源分布式的SDS产品存储系统。搭建一台Ceph系统至少需要1个Ceph Monitor和2个Ceph OSD逻辑角色,而Ceph Metadata server仅仅是运行CephFS时存储文件元数据。在Ceph存储系统中,Ceph Metadata Daemon 提供了元数据服务器,而Ceph Object Storage Daemon 提供了数据和元数据的实际存储。虽然说Ceph...
帮助 | 留言交流 | 联系我们 | 服务条款 | 下载网文摘手 | 下载手机客户端
北京六智信息技术股份有限公司 Copyright© 2005-2020 360doc.com , All Rights Reserved
京ICP证090625号 京ICP备05038915号 京网文[2016]6433-853号 京公网安备11010502030377号
返回
顶部