在ceph1上引导新集群

请在ceph1上创建集群配置,引导生成Ceph容器集群,管理所有节点。

  1. 创建默认配置ceph.conf。

    1. 返回“home”目录,打开ceph.conf文件
      1
      2
      cd /home
      vim ceph.conf
      
    2. “i”进入编辑模式,在文件中添加以下内容。
       1
       2
       3
       4
       5
       6
       7
       8
       9
      10
      11
      12
      13
      14
      15
      16
      17
      18
      19
      20
      21
      22
      23
      24
      [global]
      mon_allow_pool_delete = true
      osd_pool_default_size = 3
      osd_pool_default_min_size = 2
      
      osd_pg_object_context_cache_count = 256
      
      bluestore_kv_sync_thread_polling = true
      bluestore_kv_finalize_thread_polling = true
      
      osd_min_pg_log_entries = 10
      osd_max_pg_log_entries = 10
      osd_pool_default_pg_autoscale_mode = off
      
      bluestore_cache_size_ssd = 18G
      
      osd_memory_target = 20G # 限制osd内存的参数
      
      bluestore_block_db_path = ""
      bluestore_block_db_size = 0
      bluestore_block_wal_path = ""
      bluestore_block_wal_size = 0
      
      bluestore_rocksdb_options = use_direct_reads=true,use_direct_io_for_flush_and_compaction=true,compression=kNoCompression,max_write_buffer_number=128,min_write_buffer_number_to_merge=32,recycle_log_file_num=64,compaction_style=kCompactionStyleLevel,write_buffer_size=4M,target_file_size_base=4M,max_background_compactions=2,level0_file_num_compaction_trigger=64,level0_slowdown_writes_trigger=128,level0_stop_writes_trigger=256,max_bytes_for_level_base=6GB,compaction_threads=2,max_bytes_for_level_multiplier=8,flusher_threads=2
      

      更多Ceph调优配置以及配置说明,请参见Ceph对象存储 调优指南中的“Ceph调优”章节。

    3. “Esc”键退出编辑模式,输入:wq!,按“Enter”键保存并退出文件。

  2. 引导Ceph集群。

    1
    cephadm bootstrap -c ceph.conf --mon-ip 192.168.3.166 --cluster-network 192.168.4.0/24 --skip-monitoring-stack
    
    • --mon-ip:对应前端公共网络的IP地址。
    • --cluster-network:对应后端集群网络的IP地址。
    • -c ceph.conf:可选,需要修改Ceph默认配置可以使用。

  3. 拷贝公钥到其他节点进行使用。

    1
    2
    ssh-copy-id -f -i /etc/ceph/ceph.pub root@ceph2
    ssh-copy-id -f -i /etc/ceph/ceph.pub root@ceph3
    

  4. 本地仓库配置同步到其他节点。

    1
    2
    scp /etc/containers/registries.conf ceph2:/etc/containers/
    scp /etc/containers/registries.conf ceph3:/etc/containers/
    

  5. 进入Ceph集群容器。

    1
    cephadm shell
    

  6. 添加除ceph1外的其他两个主机节点到集群中。

    1
    2
    ceph orch host add ceph2 --labels _admin
    ceph orch host add ceph3 --labels _admin
    

    命令执行完后ceph2和ceph3节点上的Ceph集群正常启动需3~5min,请耐心等待。

  7. 查看是否添加成功。

    1
    ceph orch host ls
    

  8. 查看集群状态,确认其他两个节点加入集群。

    1
    ceph -s