本文共 576 字,大约阅读时间需要 1 分钟。
ceph 节点中, 每个磁盘(10块) 创建独立 Raid0
每个磁盘创建独立对应 OSD 创建CEPH 集群 CEPH数据备份副本数量为 3
osd 用于存储数据
osd 可以理解为数据存储的小房间 每个 osd 对应一个独立的磁盘 ceph 集群是有多个 osd 组成, 而对于用户来说, osd 是透明不可见 当 monitor 运行后, 你需要添加 osd 你的集群只有在获得足够的 osd 数量用于复制对象时候才可能获得 active + clean 状态
例如 osd pool size = 2, 那么至少需要 2 个 OSD
crush map 可以理解为 ceph 集群中的结构蓝图
所有的存储节点, 及存储节点对应的机柜, osd 信息都可以通过 crush map 体现出来 在启动 MONITOR 后,你的集群具有默认的 CURSH MAP 当前 CURSH MAP 并没有 CEPH OSD 进程映射到 CEPH 节点 详细信息参考 crush map 文档
###1. 系统初始化
安装 Centos 7.1 版本操作系统在 /etc/hosts 定义集群中所有主机名及 ip 地址保证时间同步确保 iptables, se
转载地址:http://lonni.baihongyu.com/