OSD是Ceph集群数据管理服务。添加OSD需满足以下所有条件。
1
|
ceph orch device ls --wide --refresh |
ceph orch apply osd --all-available-devices
ceph orch daemon add osd ceph1:/dev/nvme0n1 for node in {1..3};do for i in {0..7};do ceph orch daemon add osd ceph${node}:/dev/nvme${i}n1;done;done
通过.yaml配置文件,启动一个部署OSD的服务,通过此方式部署OSD服务有以下优势。
vi osd_spec.yaml 添加如下内容(下面编写两种常用文件): 指定可用ssd的方式 service_type: osd service_id: x18_bluestore placement: hosts: #根据实际各节点名编写 - node1 - node2 - node3 osds_per_device: 1 #一个ssd启osd的数量 #unmanaged: True spec: data_devices: paths: #按ceph orch device ls 得到的可用盘写 - /dev/nvme0n3 - /dev/nvme0n3 - /dev/nvme0n3 - /dev/nvme0n3
通过ssd的model的方式自动筛选可用硬盘,并限定该硬盘启动几个osd。 service_type: osd service_id: osd_nvme_1.5T placement: # host_pattern: '*' hosts: #根据实际各节点名编写 - node1 - node2 - node3 osds_per_device: 1 #一个ssd启osd的数量 #unmanaged: True spec: data_devices: model: HWE56P431T6M002N #通过ceph-volume inventory 命令获取ssd的Model limit: 1 #限定该model的盘只能用一块
ceph orch apply -i osd_spec.yaml
ceph -s