glusterfs的数据恢复
场景:
两台GlusterFS 其中一台因为系统奔溃,导致需要重做系统,然后加回到原来的集群中。
GlusterFS-master1
GlusterFS-slove(重做系统的)
在Slove上重新安装GlusterFS
1、安装GlusterFS的安装源(所有节点)
centos-release-gluster
2、安装GlusterFS依赖包和服务端
install -y glusterfs glusterfs-server glusterfs-fuse glusterfs-rdma glusterfs-geo-replication
glusterfs-devel
3、启动GlusterFS(所有节点)
systemctl
enable glusterd
4、修改slove上GlusterFS的UUID
在正常的master上查看slove的UUID
[root@glusterd-master test]# glusterpeer status
Number of Peers: 1
Hostname: glusterd-slave
Uuid: 419cc6---------------
State: Peer in Cluster (Connected)
[root@glusterd-master test]#
修改slove上的/var/lib/glusterd/glusterd.info
将master上查到的UUID替换掉原先的。
[root@glusterd-slave~]# cat /var/lib/glusterd/glusterd.info
UUID=419cc6---------------------------------
operating-version=31200
[root@glusterd-slave
~]#
5、加入集群
首先删除master上的集群:
gluster peer detach NODE-NAME //移除节点
在添加集群
重启机器
这样就将slove重新添加到集群中了。
6、删除重建brick
查看volume的状态时,发现slove的brick是N
[root@glusterd-slave nginx]#gluster volume status
Status of volume: default_kafka
Gluster process TCP Port RDMA Port Online Pid
------------------------------------------------------------------------------
Brickglusterd-master:/home/glusterfs/volum
es/default/kafka 49152 0 Y 1581
Brickglusterd-slave:/home/glusterfs/volume
s/default/kafka N/A N/A N N/A
Self-heal Daemon on localhost N/A N/A Y 4998
Self-heal Daemon onglusterd-master N/A N/A Y 4511
Task Status of Volume default_kafka
我们需要手动的删掉slove的brick,在重新建立。
先移除slove的brick
格式:
glustervolume remove-brick volume-name replica1 force
glustervolume remove-brick test-zookeeperreplica 1 glusterd-slave:/home/glusterfs/volumes/test/test-zookeeper/ force
重新添加slove的brick
格式:
gluster
volume add-brick volume-name replica 2 force
glustervolume add-brick test-zookeeper replica2 glusterd-slave:/home/glusterfs/volumes/test/test-zookeeper/ force
这样slove上就会有master上的数据了。
手动添加的。
是时间看看自动添加的。
上一篇
下一篇