RADOS 块设备 (RBD) 一一其前身是 Ceph 块设备Cep 客户端提供基于块的恃久化存储,通常作为一 个额外的磁盘使用,客户可以灵活地使用这个磁盘,可以作为裸设备使用 ,也可以格式化成文件系统,然后挂载它。RBD 利用 librbd 库并将块数据连续地存储在跨越多个 OSD 的条带状非储空间中 。RBD 由 Ceph Rados 层提供支持,因此每个块设备都分布多个 Ceph 节点上,从而提供了高性能和出色的可靠性, RBD 具有丰富的企业特性,如自动精简配置( thin proviioning) 、动态调整容量、快照、写时复制以及缓存。 协议作为主线内核驱动程序由 Linux 完全支持;它注支持多种虚拟化平台,如 KVM QEMU libvirt ,使得虚拟可以利用 Ceph 块设备 所有这些特点使 RBD 成为云平台(例如 OpenStack CloudStack)个理想选择 。
现在我们将学习如何创建一个 Ceph 块设备并使用它,在已经部署的集群上执行一下操作。
#ceph集群配置,任何一个节点都行
#(1)创建块存储pool池
[root@node140 osd]# ceph osd pool create rbd 128
#(2)查看已经创建的pools池
[root@node140 osd]# ceph osd lspools
1 rdb
#(3)初始化pool
[root@node140 osd]# rbd pool init rbd
#(4)ceph集群中创建remote_rbd71镜像 rbd_data1镜像
[root@node140 osd]# rbd create rbd_data1 --size 100G --image-feature layering
[root@node140 osd]# rbd create remote_rbd71 --size 100G --image-feature layering
#(5)查看rbd
[root@node140 /]# rb