1.基本思想
前面学习了lvs的基础知识,现在我们来讨论调度器的备份,也就是集群(不再是单纯的调度器)
在上一个实验的基础上,当调度器server1也挂了,客户就彻底不能访问了,这时我们可以设置调度器的高可用
时刻保证调度器的正常工作:设置调度器的master(主)和调度器backup(备)
我们在两台调度器上使用keepalived服务就可以将两个调度器关联在一起,keepalived检测两个调度器的工作情况
如果lvs挂掉了,客户就彻底访问不到任何东西了
现在做一个高可用的lvs
我们使用keeplived代理lvs,它具有lvs的功能,但同时可以有多个,有主有备
当主挂了备用就去做轮询,当主好了备用就把任务还给主
当主调度器好着的时候,keepalived就回去通知备份调度器自己可以正常工作,不需要接管自己的任务
当主调度器坏了,不告诉备份调度器任何消息的时候,备份调度器就会自动去接管主调度器的工作
这个时候客户端依然可以正常访问
2.搭建实验环境
一共需要4台rhel7.5版本的虚拟机
主机信息对应的主机的功能(服务)
server1(172.25.8.1) :master(主调度器)
server4(172.25.8.4) :backup(备调度器)
server2(172.25.8.2) :真正的web服务器1
server3(172.25.8.3) :真正的web服务器2
真机172.25.8.250 :客户端,用来测试
在之前的lvs实验基础上继续做
(1)在真机中再创建一个快照node4,用来做备份调度器
cd /var/lib/libvirt/images
qemu-img create -f qcow2 -b 母盘 node4
然后给快照导入镜像
登录node4,改主机名、ip
修改主机名与IP地址
(2)用真机连接server4,在真机上面把keepalived安装包给server1和server4都传一个
3.接下来实现 LVS(DR模式)+KeepAlived(HA高可用)稳定性集群
(1)在server1上面进行配置(keepalived的主节点):
tar zxf keepalived...解压
cd 进入解压后的目录
ls查看
yum install -y gcc openssl-devel这个要进行源码编译
./configure --prefix=/usr/local/keepalived --with-init=systemd编译
make && make install安装
cd /usr/local/keepalived进入安装目录
ls查看
cd ect/
cd keepalived/
ls
ln -s /usr/local/keepalived/etc/keepalived /etc将配置文件做软链接
/etc/init.d/ldirectord stop关闭之前的健康检测
chkconfig ldirectord off设置开机不启动
systemctl status keepalived.service查看keepalived服务的状态
vim /etc/keepalived/keepalived.conf编辑配置文件
(2)在server4上面进行配置(keepalived的备节点):
编写主节点keepalived的配置文件信息
编写备节点keepalived的配置文件信息
(3)测试:发现入口地址自动添加到了主调度器上面
发现server1上面自动添加了入口ip地址
vim /var/log/messages看日志发现信息
真机上面:
curl 172.25.12.100发现两个web都可以访问
stop一个web再去尝试
server1上面:
yum install -y mailx
mail
关闭server1上面的keepalived
发现入口地址漂移到了server4的上面
删除上一个实验手动添加的ip地址
因为此时主调度器可以正常工作,因此备份调度器没有使用
在真机里面测试,发现可以正常访问两个web
关闭一个web服务器
开启web1(server2)服务器
破坏server1这个主调度器,发现入口地址会自动漂移到server4上面
此时客户端仍然可以正常访问
来源:CSDN
作者:皮皮彭
链接:https://blog.csdn.net/qq_36417677/article/details/104581415