部署Ceph集群
- 创建本地源。
1 2 3 4 5 6
yum -y install createrepo cd /home/ceph-glz cp /home/rpmbuild/RPMS/aarch64/*rpm ./ createrepo ./ cd /etc/yum.repos.d/ vi ceph-local.repo
1 2 3 4 5 6 7 8 9 10 11 12 13
[local] name=local baseurl=file:///home/ceph-glz enable=1 gpgcheck=0 [Ceph-noarch] name = Ceph noarch packages baseurl = http://download.ceph.com/rpm-nautilus/el7/noarch enabled = 1 gpgcheck = 1 type = rpm-md gpgkey = https://download.ceph.com/keys/release.asc priority = 1
- 安装压缩算法RPM包。
1
rpm -ivh /home/ceph-glz/glz-1.0.0-centos.aarch64.rpm
- 部署MON、MGR。
详细操作请参考Ceph部署指导:
- 块存储场景请参考《Ceph块存储 部署指南》中的安装Ceph软件、部署MON节点和部署MGR节点。
- 对象存储场景请参考《Ceph对象存储 部署指南》中的安装Ceph软件、部署MON节点和部署MGR节点。
部署指南中的配置Ceph镜像源为Ceph官方镜像,该镜像为不包含压缩算法插件的Ceph RPM包,因此,需要采用本地源的方式配置。
- 修改Ceph配置文件ceph.conf。
- 本文提供配置项仅针对HDD场景适用。
- bluestore_min_alloc_size_hdd为bluestore对象最小分配大小,默认为32K,修改为8K可以减小压缩后最终数据的大小,保证压缩率。
- osd_op_num_shards_hdd与osd_op_num_threads_per_shard_hdd相乘为OSD进程处理IO请求的线程数,默认为5*1,修改为12*2可以保证压缩算法发挥最大性能。
1
vi /etc/ceph/ceph.conf
- 修改bluestore默认字节对齐大小为8K。
1
bluestore_min_alloc_size_hdd = 8192
该修改需要在部署OSD前设置,否则不生效。如已部署OSD,需要重新进行部署。
- 修改默认OSD线程数。
1 2
osd_op_num_shards_hdd = 12 osd_op_num_threads_per_shard_hdd = 2
该修改可在部署完OSD后动态调整。
- 部署OSD。
父主题: 编译部署Ceph