下面为满足安装 Ceph 14.2.8的硬件及软件环境,具体设置分别如下所示:
硬件要求表1所示。
服务器名称 |
鲲鹏服务器 |
---|---|
处理器 |
鲲鹏920 5220处理器 |
核数 |
2*32核 |
主频 |
2600MHz |
内存大小 |
8*16GB |
内存频率 |
2933MHz |
网卡 |
IN200网卡4*25GE |
硬盘 |
系统盘:RAID 1(2*960GB SATA SSD) 数据盘:RAID模式下使能JBOD(12*4TB SATA HDD) |
缓存盘:1*ES3000 V5 3.2TB NVMe SSD |
|
RAID控制卡 |
Avago SAS 3508 |
软件要求如下所示。
软件名称 |
版本 |
下载地址 |
---|---|---|
OS |
CentOS Linux release 7.6.1810 |
|
openEuler 20.03 LTS SP1 (Kernel: 4.19.90-2012.4.0.0053.oe1) |
||
openEuler 22.03 -LTS-SP2 (Kernel: 5.10.0-153.12.0.92.oe2203sp2) |
||
Ceph |
14.2.8 Nautilus |
集群由Ceph客户端和Ceph服务端组成,其中客户端为client1~client3,服务端为ceph1~ceph3,其组网方式如图1所示。
Ceph集群部署时各服务端IP地址举例如表3所示。
集群 |
管理IP地址 |
Public Network |
Cluster Network |
---|---|---|---|
ceph1 |
192.168.2.166 |
192.168.3.166 |
192.168.4.166 |
ceph2 |
192.168.2.167 |
192.168.3.167 |
192.168.4.167 |
ceph3 |
192.168.2.168 |
192.168.3.168 |
192.168.4.168 |
Ceph集群部署各客户端IP地址举例如表4所示。
客户端 |
管理IP地址 |
Public Network |
---|---|---|
client1 |
192.168.2.160 |
192.168.3.160 |
client2 |
192.168.2.161 |
192.168.3.161 |
client3 |
192.168.2.162 |
192.168.3.162 |
Ceph 14.2.8 以后都采用了BlueStore作为后端存储引擎,没有了Jewel版本的Journal盘分区的划分,而是变成DB分区(元数据分区)和WAL分区。这两个分区分别存储BlueStore后端产生的元数据和日志文件。在集群部署时,每个Ceph节点配置12块4TB数据盘和1块3.2TB的NVMe盘。每个4TB数据盘作为一个OSD的数据分区,单个NVMe盘作为12个OSD的DB、WAL分区。一般WAL分区大于10GB就足够使用,Ceph官方文档建议每个DB分区不小于每个数据盘容量的4%,具体可根据NVMe盘容量灵活设置。在本方案中,以WAL分区设置为60GB、DB分区设置为180GB为例进行说明。
对于一个OSD,分区如表5所示。