博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Ceph OSD Down
阅读量:4229 次
发布时间:2019-05-26

本文共 651 字,大约阅读时间需要 2 分钟。

CEPH集群跑了一段时间后有几个OSD变成down的状态了,但是我用这个命令去activate也不行

ceph-deploy osd activate osd1:/dev/sdb2:/dev/sdb1

只能把osd从集群中移除,然后再重建了,这个过程必须在ceph重新把数据同步完成才可以做,保证down掉的数据在其他osd中恢复。

在集群中删除一个osd硬盘

#ceph osd rm 14
removed osd.14
#ceph osd crush rm osd.14
removed item id 24 name 'osd.24' from crush map
#ceph auth del osd.14
此时在x3节点上查看已经自动umount了osd.14
#umount /var/lib/ceph/osd/ceph-24

然后再重新创建即可,文档http://jqjiang.com/ceph/ceph/

然后等待ceph恢复数据同步 

附:

摘掉osd的脚本如下
osd_id=`ceph osd tree | grep down | grep osd | awk '{print $3}' | awk -F . '{print $2}'`
ceph osd rm ${osd_id}
ceph osd crush rm osd.${osd_id}
ceph auth del osd.${osd_id}
umount /var/lib/ceph/osd/ceph-${osd_id}

你可能感兴趣的文章
UVM:7.6.1 检查后门访问中hdl 路径的sequence
查看>>
UVM:7.6.2 检查默认值的sequence
查看>>
UVM:7.7.1 使用reg_predictor
查看>>
UVM:7.7.2 使用UVM_PREDICT_DIRECT功能与mirror 操作
查看>>
UVM:7.7.3 寄存器模型的随机化与update
查看>>
UVM:7.7.4 扩展位宽
查看>>
UVM:7.8.1 get_root_blocks
查看>>
UVM:7.8.2 get_reg_by_offset 函数
查看>>
UVM:8.2.2 重载的方式及种类
查看>>
UVM:8.2.3 复杂的重载
查看>>
UVM:8.2.4 factory 机制的调试
查看>>
UVM:8.3.1 重载transaction
查看>>
UVM:8.3.2 重载sequence
查看>>
leetcode171.[math] Excel Sheet Column Number
查看>>
Log4j配置
查看>>
java发送https请求证书问题
查看>>
js新消息提醒
查看>>
js窗体消息提醒
查看>>
深入Hibernate映射文件(二)——<hibernate-mapping>的属性
查看>>
详解在Spring中进行集成测试
查看>>