在本文中,我们有一个运行在 glusterfs3.4 上的 3 节点集群。
以下是用于 glusterfs 故障排除的步骤。
步骤 1:检查 Gluster 卷状态和信息。
[root@gluster1 ~]# gluster volume info
第 2 步:在 Bricks 中验证复制的所有详细信息。
下面提到的命令将通过检查总可用磁盘空间的大小来显示已复制的数据以及要复制的数据的完整统计信息。
注意:然而,在统计数据中显示为空闲的大小有几 MB 的差异,这是因为应用程序可能已打开文件连接,因此 df 和 du 值存在差异。
[root@gluster1 ~]# gluster volume status all detail
步骤3:现在我们需要有一定的配置来提高glusterfs的性能和愈合特性。
# gluster volume set gluster cluster.min-free-disk 5% # gluster volume set cluster.rebalance-stats on # gluster volume set cluster.readdir-optimize on # gluster volume set cluster.background-self-heal-count 20 # gluster volume set cluster.metadata-self-heal on # gluster volume set cluster.data-self-heal on # gluster volume set cluster.entry-self-heal: on # gluster volume set cluster.self-heal-daemon on # gluster volume set cluster.heal-timeout 500 # gluster volume set cluster.self-heal-window-size 2 # gluster volume set cluster.data-self-heal-algorithm diff # gluster volume set cluster.eager-lock on # gluster volume set cluster.quorum-type auto # gluster volume set cluster.self-heal-readdir-size 2KB # gluster volume set network.ping-timeout 5
然后运行:
# service glusterd restart
设置集群属性后,我们可以检查卷信息,如下所示:
[root@gluster1 ~]# gluster volume info
[root@gluster1 ~]# gluster volume status
请注意,自我修复守护进程应该在集群中的每个系统上运行,因为它负责在集群中某个节点关闭一段时间后进行修复。
第 4 步:现在从集群中删除一台机器 gluster0。
卸载安装在 gluster0 机器上的 Volume:
[root@gluster0 ~]# umount /mnt [root@gluster1 ~]# gluster volume remove-brick gluster replica 2 gluster0:/gluster0 commit
gluster 卷信息(验证):
[root@gluster1 ~]# gluster volume info
在 gluster1 上运行以下命令:
# gluster peer detach gluster0
gluster0 服务器的砖块从集群中移除。
日期:2020-09-17 00:14:17 来源:oir作者:oir