TypechoJoeTheme

院长技术

统计
登录
用户名
密码
/
注册
用户名
邮箱
搜索到 127 篇与 Ceph 的结果
2021-01-28

Ceph配置DashBoard管理

Ceph配置DashBoard管理
安装软件包yum -y install ceph-mgr-dashboard查看模块ceph mgr module ls |less启动模块ceph mgr module enable dashboard --force ceph mgr module ls |less ... "enabled_modules": [ "dashboard", "iostat", "restful" ]配置生成证书[root@node-1 ~]# ceph dashboard create-self-signed-cert Self-signed certificate created配置dashboard[root@node-1 ~]# ceph config set mgr mgr/dashboard/server_addr 172.16.10.224 [root@node-1 ~]# ceph config set mgr mgr/dashboa...
admin
2021-01-28

Ceph,存储

94 阅读
0 评论
2021年01月28日
94 阅读
0 评论
2020-09-22

Ceph检查集群容量使用情况

Ceph检查集群容量使用情况
# ceph df RAW STORAGE: CLASS SIZE AVAIL USED RAW USED %RAW USED hdd 336 TiB 326 TiB 9.6 TiB 9.7 TiB 2.87 ssd 16 TiB 9.7 TiB 6.4 TiB 6.5 TiB 39.90 TOTAL 352 TiB 336 TiB 16 TiB 16 TiB 4.57 POOLS: POOL ID STORED OBJECTS USED %USED MAX AVAIL volumes 1 269 GiB 586.71k 809 GiB 0.26 103 TiB images 2 68 GiB 46.23k 135 GiB 1.67 3.9 TiB ssd 3 672 GiB 822.81k 1.3 TiB 14.15 3.9 TiB vms 4 0 B 3 0 B 0 56 TiB参数说明:输出的GLOBAL段显示了数据所占用集群存储空间概况。SIZE: 集群的总容量AVAIL: 集群的总空闲容量RAW USED: 已用存储空间总量%RAW USED: 已用存储空间百分比输出...
admin
2020-09-22

Ceph,存储

75 阅读
0 评论
2020年09月22日
75 阅读
0 评论
2020-09-22

Ceph rbd 常用命令

Ceph rbd 常用命令
1.rbd ls 查看ceph默认资源池rbd里面的镜像2.rbd info xxx.img 查看xxx.img的具体的具体信息3.rbd rm xxx.img 删除xxx.img4.rbd cp aaa.img bbb.img 拷贝镜像aaa.img为bbb.img5.rbd rename aaa.img bbb.img 重命名aaa.img为bbb.img6.rbd import aaa.img 将本地的aaa.img导入ceph集群中7.rbd export aaa.img 将ceph集群中aaa.img导出到本地8.rbd import --image-format 2 win2008_32.img rbd/win2008_test.img --order 25导入原有虚机镜像, format为2,--order 25 表示object size为32M(将win2008_32.img导入rbd资源池,并命名为win2008_test.img,因为在快照保护时format必须是2,import默认format是1)9.创建镜像快照(给win2008_...
admin
2020-09-22

Ceph,存储

73 阅读
0 评论
2020年09月22日
73 阅读
0 评论
2020-09-22

Ceph创建池计算方法

Ceph创建池计算方法
一、简介及官方介绍实验PG全称是placement groups,它是ceph的逻辑存储单元。在数据存储到cesh时,先打散成一系列对象,再结合基于对象名的哈希操作、复制级别、PG数量,产生目标PG号。根据复制级别的不同,每个PG在不同的OSD上进行复制和分发。可以把PG想象成存储了多个对象的逻辑容器,这个容器映射到多个具体的OSD。PG存在的意义是提高ceph存储系统的性能和扩展性。如果没有PG,就难以管理和跟踪数以亿计的对象,它们分布在数百个OSD上。对ceph来说,管理PG比直接管理每个对象要简单得多。每个PG需要消耗一定的系统资源包括CPU、内存等。集群的PG数量应该被精确计算得出。通常来说,增加PG的数量可以减少OSD的负载,但是这个增加应该有计划进行。一个推荐配置是每OSD对应50-100个PG。如果数据规模增大,在集群扩容的同时PG数量也需要调整。CRUSH会管理PG的重新分配。每个pool应该分配多少个PG,与OSD的数量、复制份数、pool数量有关,有个计算公式在:http://ceph.com/pgcalc/
admin
2020-09-22

Ceph,存储

56 阅读
0 评论
2020年09月22日
56 阅读
0 评论