EN
注册
我要评分
文档获取效率
文档正确性
内容完整性
文档易理解
在线提单
论坛求助
鲲鹏小智

部署Ceph集群

  1. 创建本地源。
    1
    2
    3
    4
    5
    6
    yum -y install createrepo
    cd /home/ceph-glz
    cp /home/rpmbuild/RPMS/aarch64/*rpm ./ 
    createrepo ./
    cd /etc/yum.repos.d/
    vi ceph-local.repo
    
     1
     2
     3
     4
     5
     6
     7
     8
     9
    10
    11
    12
    13
    [local]
    name=local
    baseurl=file:///home/ceph-glz
    enable=1
    gpgcheck=0
    [Ceph-noarch]
    name = Ceph noarch packages
    baseurl = http://download.ceph.com/rpm-nautilus/el7/noarch
    enabled = 1
    gpgcheck = 1
    type = rpm-md
    gpgkey = https://download.ceph.com/keys/release.asc
    priority = 1
    
  2. 安装压缩算法RPM包。
    1
    rpm -ivh /home/ceph-glz/glz-1.0.0-centos.aarch64.rpm
    
  3. 部署MON、MGR。

    详细操作请参考Ceph部署指导:

    部署指南中的配置Ceph镜像源为Ceph官方镜像,该镜像为不包含压缩算法插件的Ceph RPM包,因此,需要采用本地源的方式配置。

  4. 修改Ceph配置文件ceph.conf。
    • 本文提供配置项仅针对HDD场景适用。
    • bluestore_min_alloc_size_hdd为bluestore对象最小分配大小,默认为32K,修改为8K可以减小压缩后最终数据的大小,保证压缩率。
    • osd_op_num_shards_hdd与osd_op_num_threads_per_shard_hdd相乘为OSD进程处理IO请求的线程数,默认为5*1,修改为12*2可以保证压缩算法发挥最大性能。
    1
    vi /etc/ceph/ceph.conf
    
    1. 修改bluestore默认字节对齐大小为8K。
      1
      bluestore_min_alloc_size_hdd = 8192
      

      该修改需要在部署OSD前设置,否则不生效。如已部署OSD,需要重新进行部署。

    2. 修改默认OSD线程数。
      1
      2
      osd_op_num_shards_hdd = 12
      osd_op_num_threads_per_shard_hdd = 2
      

      该修改可在部署完OSD后动态调整。

  5. 部署OSD。

    详细操作请参考《Ceph块存储 部署指南(CentOS 7.6&openEuler 20.03)》中的部署OSD节点

搜索结果
找到“0”个结果

当前产品无相关内容

未找到相关内容,请尝试其他搜索词