简介

本方案 NFS 的高可用方案,客户端为 k8s集群 ,三台文件服务器分别Master和 Slave,使用 keepalived 生成一个虚拟 IP,使用 Sersync 进行 Master 与 Slave 之间文件相互同步,确保高可用。

角色 系统 IP
虚拟IP 172.12.17.200
Client k8s集群 172.12.17.163,172.12.17.164,172.12.17.165
Master centos 7.5 172.12.17.166
Slave centos 7.5 172.12.17.167

查看内核版本

uname -smr
建议升级到最新的长期支持版本 升级内核

安装nfs

在master和slave上面创建共享目录

mkdir -p /fs/nsf-data

在master和slave上安装nfs服务

// 下载nfs
yum -y install nfs-utils rpcbind
//写入配置(配置要改动需要reload nfs 服务)
echo '/fs/nsf-data 172.12.17.163 172.12.17.164 172.12.17.165(rw,sync,all_squash)' >> /etc/exports
//开启服务
systemctl start rpcbind && systemctl start nfs
//设置开机自启动
systemctl enable rpcbind && systemctl enable nfs

在k8s集群里面找个node 测试是否能链接上nfs服务

// 下载nfs
yum -y install nfs-utils rpcbind

// 挂载目录
mkdir /test-nsf-data

// 挂载nfs
mount -t nfs 172.12.17.166:/fs/nsf-data /test-nsf-data

//查看
df -TH
输出里面含有  172.12.17.166:/fs/nsf-data nfs4       53G  4.9G   46G  10% /test-nsf-data

//卸载挂载
umount /test-nsf-data

//检查 nfs 服务器端是否有设置共享目录 showmount -e $(nfs服务器的IP)
showmount -e 172.12.17.166
输出 Export list for 172.12.17.166:
/fs/nsf-data 10.255.22.92,10.255.22.91,10.255.22.90

Sersync 在 Slave 进行同步 Master 数据

Sersync

  • 提到数据同步就必然会谈到rsync,一般简单的服务器数据传输会使用ftp/sftp等方式,但是这样的方式效率不高,不支持差异化增量同步也不支持实时传输。针对数据实时同步需求大多数人会选择rsync+inotify-tools的解决方案,但是这样的方案也存在一些缺陷,sersync是国人基于前两者开发的工具,不仅保留了优点同时还强化了实时监控,文件过滤,简化配置等功能,帮助用户提高运行效率,节省时间和网络资源。

在Slave上编辑配置文件

vim /etc/rsyncd.conf

# 设置rsync运行权限为root
uid = root
# 设置rsync运行权限为root
gid = root
# 默认端口
port = 873
# pid文件的存放位置
pid file = /var/rsyncd.pid
# 日志文件位置,启动rsync后自动产生这个文件,无需提前创建
log file = /var/log/rsyncd.log
# 默认为true,修改为no,增加对目录文件软连接的备份
use chroot = no
# 最大连接数
max connections = 200
# 设置rsync服务端文件为读写权限
read only = no
# 不显示rsync服务端资源列表 
list = false
fake super = yes
ignore errors
[data]
# rsync服务端数据目录路径
path = /fs/nsf-data
# 执行数据同步的用户名,可以设置多个,用英文状态下逗号隔开
auth users = root
# 用户认证配置文件,里面保存用户名称和密码,后面会创建这个文件
secrets file = /etc/rsync_slave.pass
# 允许进行数据同步的客户端IP地址,可以设置多个,用英文状态下逗号隔开
hosts allow = 172.12.17.166
# 禁止数据同步的客户端IP地址,可以设置多个,用英文状态下逗号隔开
#hosts deny = 192.168.0.1

在Slave上安装启动

yum install rsync
echo 'root:123456' > /etc/rsync_slave.pass
chmod 600 /etc/rsync_slave.pass
chown -R root:root /fs/nsf-data
rsync --daemon --config=/etc/rsyncd.conf

在 Master 上测试下

yum -y install rsync
chown -R root:root /fs/nsf-data
echo "123456" > /etc/rsync_slave.pass
chmod 600 /etc/rsync_slave.pass
// 创建测试文件,测试推送
cd /fs/nsf-data
echo "test" > slave.txt
rsync -arv /fs/nsf-data/ root@172.12.17.167::data --password-file=/etc/rsync_slave.pass
#在 slave 上测试
ls /fs/nsf-data
# 出现 slave.txt 即可

在 Master 上配置自动同步安装

// 下载
wget https://raw.githubusercontent.com/orangle/sersync/master/release/sersync2.5.4_64bit_binary_stable_final.tar.gz
// 解压
tar zxvf sersync2.5.4_64bit_binary_stable_final.tar.gz  
// 移动目录到 /usr/local/sersync
mv GNU-Linux-x86  /usr/local/sersync   

在 Master 上配置自动同步配置

cd /usr/local/sersync/ && vim /usr/local/sersync/confxml.xml
修改配置文件里面节点数据

<delete start="flase"/>

#源服务器同步目录
<localpath watch="/fs/nsf-data/">  

#remote ip="172.12.17.167"  #目标服务器ip,每行一个 
#name="data"   目标服务器rsync同步目录模块名称
<remote ip="172.12.17.167" name="data"/> 

#rsync同步认证
#start="true"   
#users="root" 目标服务器rsync同步用户名
#passwordfile="/etc/rsync_slave.pass" 目标服务器rsync同步用户的密码在源服务器的存放路径
<auth start="true" users="root" passwordfile="/etc/rsync_slave.pass"/>

# 设置rsync远程服务端口,远程非默认端口则需打开自定义
<userDefinedPort start="false" port="873"/><!-- port=874 -->

#脚本运行失败日志记录
failLog path="/tmp/rsync_fail_log.sh"

启动

./sersync2 -r -d -o confxml.xml
// 测试
cd /fs/nsf-data
touch Slave1.txt
// 在 Slave 里面 /fs/nsf-data 里面去看看数据是否存在

在Master上的数据可以同步到Slave,如何Master挂掉后恢复不能同步数据到Slave,这里也同样配置Master到Slave的自动同步

在Slave上编辑配置文件

vim /etc/rsyncd.conf

# 设置rsync运行权限为root
uid = root
# 设置rsync运行权限为root
gid = root
# 默认端口
port = 873
# pid文件的存放位置
pid file = /var/rsyncd.pid
# 日志文件位置,启动rsync后自动产生这个文件,无需提前创建
log file = /var/log/rsyncd.log
# 默认为true,修改为no,增加对目录文件软连接的备份
use chroot = no
# 最大连接数
max connections = 200
# 设置rsync服务端文件为读写权限
read only = no
# 不显示rsync服务端资源列表 
list = false
fake super = yes
ignore errors
[data]
# rsync服务端数据目录路径
path = /fs/nsf-data
# 执行数据同步的用户名,可以设置多个,用英文状态下逗号隔开
auth users = root
# 用户认证配置文件,里面保存用户名称和密码,后面会创建这个文件
secrets file = /etc/rsync_slave.pass
# 允许进行数据同步的客户端IP地址,可以设置多个,用英文状态下逗号隔开
hosts allow = 172.12.17.167
# 禁止数据同步的客户端IP地址,可以设置多个,用英文状态下逗号隔开
#hosts deny = 192.168.0.1

在Master上安装启动

yum install rsync
echo 'root:123456' > /etc/rsync_master.pass
chmod 600 /etc/rsync_master.pass
chown -R root:root /fs/nsf-data
rsync --daemon --config=/etc/rsyncd.conf

在 Slave 上测试下

yum -y install rsync
chown -R root:root /fs/nsf-data
echo "123456" > /etc/rsync_master.pass
chmod 600 /etc/rsync_master.pass
// 创建测试文件,测试推送
cd /fs/nsf-data
echo "test" > master.txt
rsync -arv /fs/nsf-data/ root@172.12.17.166::data --password-file=/etc/rsync_master.pass
#在 Master 上测试
ls /fs/nsf-data
# 出现 master.txt 即可

在 Slave 上配置自动同步安装

// 下载
wget https://raw.githubusercontent.com/orangle/sersync/master/release/sersync2.5.4_64bit_binary_stable_final.tar.gz
// 解压
tar zxvf sersync2.5.4_64bit_binary_stable_final.tar.gz  
// 移动目录到 /usr/local/sersync
mv GNU-Linux-x86  /usr/local/sersync   

在 Slave 上配置自动同步配置

cd /usr/local/sersync/ && vim /usr/local/sersync/confxml.xml
修改配置文件里面节点数据

<delete start="flase"/>

#源服务器同步目录
<localpath watch="/fs/nsf-data/">  

#remote ip="172.12.17.166"  #目标服务器ip,每行一个 
#name="data"   目标服务器rsync同步目录模块名称
<remote ip="172.12.17.166" name="data"/> 

#rsync同步认证
#start="true"   
#users="root" 目标服务器rsync同步用户名
#passwordfile="/etc/rsync_master.pass" 目标服务器rsync同步用户的密码在源服务器的存放路径
<auth start="true" users="root" passwordfile="/etc/rsync_master.pass"/>

# 设置rsync远程服务端口,远程非默认端口则需打开自定义
<userDefinedPort start="false" port="873"/><!-- port=874 -->

#脚本运行失败日志记录
failLog path="/tmp/rsync_fail_log.sh"

启动

./sersync2 -r -d -o confxml.xml
// 测试
cd /fs/nsf-data
touch Master1.txt
// 在 Slave 里面 /fs/nsf-data 里面去看看数据是否存在

安装 Keepalived在Master上执行

yum -y install keepalived
vim /etc/keepalived/keepalived.conf
# 其中 eth0 为绑定网卡名称,可以使用 ip addr 命令查看
# 其中 172.12.17.200  为虚拟 ip ,注意不要和其它 ip 冲突
! Configuration File for keepalived
vrrp_instance VI_1 {
    state MASTER
    interface eth0
    # 虚拟路由标识,这个标识是一个数字,同一个vrrp实例使用唯一的标识。
    # 即同一vrrp_instance下,MASTER和BACKUP必须是一致的
    virtual_router_id 51
    # 定义优先级,数字越大,优先级越高(0-255)。
    # 在同一个vrrp_instance下,MASTER 的优先级必须大于 BACKUP 的优先级
    priority 150
    # 设定 MASTER 与 BACKUP 负载均衡器之间同步检查的时间间隔,单位是秒
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 123456
    }
    virtual_ipaddress {
        172.12.17.200/24 brd 172.12.17.255
    }
}

安装 Keepalived在Slave上执行

yum -y install keepalived
vim /etc/keepalived/keepalived.conf
# 其中 eth0 为绑定网卡名称,可以使用 ip addr 命令查看
# 其中 172.12.17.200  为虚拟 ip ,注意不要和其它 ip 冲突
vrrp_instance VI_1 {
    state MASTER
    interface eth0
    # 虚拟路由标识,这个标识是一个数字,同一个vrrp实例使用唯一的标识。
    # 即同一vrrp_instance下,MASTER和BACKUP必须是一致的
    virtual_router_id 51
    # 定义优先级,数字越大,优先级越高(0-255)。
    # 在同一个vrrp_instance下,MASTER 的优先级必须大于 BACKUP 的优先级
    priority 100
    # 设定 MASTER 与 BACKUP 负载均衡器之间同步检查的时间间隔,单位是秒
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 123456
    }
    virtual_ipaddress {
        172.12.17.200/24 brd 172.12.17.255
    }
}

启动服务

systemctl start keepalived.service && systemctl enable keepalived.service

测试

在 Master上
ip a | grep  172.12.17.200
有输出:    inet 172.12.17.200/32 scope global eth0
在 Slave上
ip a | grep  172.12.17.200
无输出:

关闭Master上keepalived测试IP是否更换

在 Master上
systemctl stop keeplived

在 Slave上
ip a | grep  172.12.17.200
有输出:    inet 172.12.17.200/32 scope global eth0
自动切换成功

在k8s集群里面找个node 测试是否能链接上nfs服务

// 挂载目录
mkdir /test-nsf-data-200
// 挂载nfs
mount -t nfs 172.12.17.200:/fs/nsf-data /test-nsf-data-200
//查看
df -TH
输出里面含有  172.12.17.200:/fs/nsf-data nfs4       53G  4.9G   46G  10% /test-nsf-data-200
//卸载挂载
umount /test-nsf-data-200

在安装Keepalived的机器上设置 Keepalived 脚本

ip 的漂移是根据 Keepalived 的存活来判断的,所以在 nfs 挂之后需要停止 keepalived 服务

echo 'systemctl status nfs &>/dev/null
if [ $? -ne 0 ]; then
  systemctl start nfs
  systemctl status nfs &>/dev/null
  if [ $? -ne 0 ]; then
    systemctl stop keepalived.service
  fi
fi' >> /usr/local/sbin/task_nfs.sh

加入定时任务

chmod 777 /usr/local/sbin/task_nfs.sh
crontab -e
# 添加定时任务 5秒执行一次
* * * * * sleep 5;/usr/local/sbin/task_nfs.sh &> /dev/null