keepalived

Keepalived 双机热备

给你一囗甜甜゛ 提交于 2020-11-25 06:43:48
Keepalived 双机热备 大纲 1 KeepaLived概述 1.1 Keepalived的热备方式 1.2 Keepalived的安装与服务控制 1.3 使用Keepalived实现双机热备 2 LVS+Keepalived高可用群集 2.1 配置主调度器 2.2 配置从调度器 2.3 配置Web节点服务器 2.4 测试LVS+keepalived高可用群集 1 KeepaLived概述 Keepalived是专门针对LVS设计的一款强大的辅助工具,主要用来提供故障切换(Failover)和健康检查(HeathChecking)功能 ——判断LVS负载调度器、节点服务器的可用性,及时隔离并替换为新的服务器,当故障主机恢复后将其重新加入群集。 Keepalived概述及安装 Keepalived的官方网站位于http://www.keepaltved.org/ 1.1 Keepalived的热备方式 Keepalived采用VRRP(Virtual Router Redundancy Protocol,虚拟路由冗余协议)热备份协议,以软件的方式实现Linux服务器的 多机热备功能。VRRP是针对路由器的一种备份解决方案——由多台路由器组成一个热备组,通过共用的虚拟ip地址对外提供服务; 每个热备组内同一时刻只有一台主路由器提供服务,其他路由器处于冗余状态

keepalived+nginx配置

孤者浪人 提交于 2020-11-24 18:46:08
1.yum -y install keepalived 2.vi /etc/keepalived/keepalived.conf vrrp_instance VI_1 { state MASTER #从为BACKUP interface eth0 virtual_router_id 51 priority 100 #MASTER 优先级高 advert_int 1 authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { 192.168.2.199 #VIP } } 3.service keepalived start 4.ip addr show 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 16436 qdisc noqueue state UNKNOWN link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo

Dubbo入门到精通学习笔记(十八):使用Redis3.0集群实现Tomcat集群的Session共享

不羁的心 提交于 2020-11-23 08:53:02
文章目录 1、单节点访问http://192.168.1.61:8082/pay-web-boss/: 2、增加多一个消费者节点:192.168.1.62,以同样的方式部署pay-web-boss工程。 3、在Keepalived+Nginx组成的反向代理集群中的两个节点同步增加如下两处配置: 4、重启Nginx 5、通过反向代理集群的VIP访问pay-web-boss时,有时可以登录成功,但有时又会提示验证码错误,原因就是Session没有同步。 6、下载 7、下载 8、添加Tomcat的环境变量 (可选) 9、配置 redis.properties , 集群中的IP:端口用都好隔开,打开Redis集群模式 10、在Tomcat7中的 conf/context.xml 中增加如下两行配置: 11、在Tomcat的conf/web.xml中核对确认Tomcat的Session超时时间,默认为30分钟。 12、重新启动tomcat集群,用vip访问,发现集群使用正常,不会再出现原来会话不同步的现象。 本文内容参考龙果学院《基于Dubbo的分布式系统架构实战》课程内容,以课程中所提供的简易版支付系统中的运营管理系统 pay-web-boss 项目为例 Tomcat版本:Tomca7 1、单节点访问http://192.168.1.61:8082/pay-web-boss/: 2

Keepalived配置Nginx自动重启

£可爱£侵袭症+ 提交于 2020-11-14 10:38:48
1. 增加nginx 检查脚本 vi /etc/keepalived/check_nginx_alive_or_not.sh 脚本内容如下: #!/bin/bash A=`ps -C nginx --no-header | wc -l` # 判断nginx是否宕机,如果宕机尝试重新启动 if [ $A -eq 0 ];then /usr/local/nginx/sbin/nginx # 等待3秒检查nginx 如果没有启动成功 则停止keepalived 启动备用机 sleep 3s if [ `ps -C nginx --no-header | wc -l` -eq 0 ];then killall keepalived fi fi 增加执行权限: # 增加运行权限 chmod +x /etc/keepalived/check_nginx_alive_or_not.sh 2. 配置keepalived监听nginx脚本 vrrp_script check_nginx_alive { script "/etc/keepalived/check_nginx_alive_or_not.sh" interval 2 #每隔2秒运行一次 weight 10 # 运行成功 权重加10 } 3. 在vrrp_ instance 中新增监控脚本 track_script { check

Lvs(DR模式)+keepalived高可用群集

左心房为你撑大大i 提交于 2020-11-12 08:53:41
目录 一.DR简介 二.DR特点 三.LVS-DR中的ARP问题 四.案例:LVS-DR部署 1.架构图 2.配置调度服务器 3.配置NFS服务器 4.配置web服务器 5.测试 五.keepalived工作原理 环境(基于LVS-DR进行搭建) 配置主调度器(192.168.100.14) 配置从调度器(192.168.100.15) nfs配置 配置web服务器 测试 一.DR简介 直接路由 ●Direct Routing,简称DR模式 ●采用半开放式的网络结构,与TUN模式的结构类似,但各节点并不是分散在各地,而是与调度器位于同一个物理网络 ●负载调度器与各节点服务器通过本地网络连接,不需要建立专用的IP隧道 二.DR特点 RS和DS必须在同一个物理网络中 RS可以使用私有地址,也可以使用公网地址,如果使用公网地址,可以通过互联网对RIP进行直接访问 所有的请求报文经由Director Server,但响应报文必须不能经过Director Server RS的数据包绝不允许指向DIP RS上的lo接口配置VIP的IP地址 三.LVS-DR中的ARP问题 在LVS-DR负载均衡集群中,负载均衡与节点服务器都要配置相同的VIP地址 在局域网中具有相同的IP地址,势必会造成各服务器ARP通信的紊乱 当ARP广播发送到LVS-DR集群时,因为负载均衡和节点服务器都是连接到相同的网络上

如何使用Kubeadm设置高可用性Kubernetes集群

大憨熊 提交于 2020-11-05 10:08:35
当我们为生产环境在本地设置Kubernetes(k8s)集群时,建议以高可用性部署它。高可用性意味着在HA中安装Kubernetes主节点或工作节点。在本文中,我将演示如何使用kubeadm实用程序设置高可用性的Kubernetes集群。 为了进行演示,我使用了五个具有以下详细信息的CentOS 7系统: k8s-master-1 –最低CentOS 7 – 192.168.1.40 – 2GB RAM,2vCPU,40 GB磁盘 k8s-master-2 –最低CentOS 7 – 192.168.1.41 – 2GB RAM,2vCPU,40 GB磁盘 k8s-master-3 –最低CentOS 7 – 192.168.1.42 – 2GB RAM,2vCPU,40 GB磁盘 k8s-worker-1 –最低CentOS 7 – 192.168.1.43 – 2GB RAM,2vCPU,40 GB磁盘 k8s-worker-2 –最低CentOS 7 – 192.168.1.44 – 2GB RAM,2vCPU,40 GB磁盘 注意:etcd集群也可以在主节点之外形成,但是为此我们需要额外的硬件,因此我将etcd安装在主节点内。 设置K8s集群高可用的最低要求: 在所有主节点和工作节点上安装Kubeadm,kubelet和kubectl 主节点和工作节点之间的网络连接

三分钟读懂TT猫分布式、微服务和集群之路

拈花ヽ惹草 提交于 2020-10-31 18:53:31
针对新手入门的普及,有过大型网站技术架构牛人路过,别耽误浪费了时间,阅读之前,请确保有一定的网络基础,熟练使用Linux,浏览大概需要3-5分钟的时间,结尾有彩蛋。 目录 分布式 微服务 负载均衡集群 高可用集群 弹性云 故障转移 分布式 小马正在经营一个在线购物网站,名叫TT猫,有商品管理、订单管理、用户管理、支付管理、购物车等等模块,每个模块部署到独立的云服务主机。 现在,程序员小明同学浏览TT猫,想买一款牛逼的cherry机械键盘来提升自己的工作效率。小明打开TT猫首页、搜索商品、浏览详情以及评论、添加购物车、下单、支付等等一系列操作。小明同学一气呵成,流畅的完成了购物,当然也花费了不少银子。 但是系统又是如何对这一系列操作,如下图错综复杂的调用关系(自行忽略部分细节)。用户看不见,模不着,整个下单过程却行走在网络之间。 TT猫把所有功能模块分布部署在不同的地方,最终完成了用户一系列的请求,这大概就是一个分布式系统吧。 微服务 博主认为微服务是一种架构,也是在分布式范畴之内的。多微才叫微?在分布式系统中,微服务更加强调单一职责、轻量级通信(HTTP)、独立性并且进程隔离。 好了,没什么好说的了,实践出真知,建议大家多多了解 spring-cloud相关微服务组件。 TT猫,每年都会搞一些活动,比如女生最爱的光棍节(双11),夜深人静的时候会瞬间涌入大量用户

Linux企业实战-----LVS+keepalived负载均衡集群

南笙酒味 提交于 2020-10-30 17:02:28
用LVS实现负载均衡 实现步骤: #若在虚拟环境中需执行此步骤创建两个新的虚拟机,VMWARE可忽略此步骤 真实主机: cd /var/lib/libvirt/images/ ls qemu-img create -f qcow2 -b rhel7.6.qcow2 server3 qemu-img create -f qcow2 -b rhel7.6.qcow2 server4 server1: pcs cluster disable --all pcs cluster stop --all systemctl status pcsd systemctl disable --now pcsd ssh server2 disable --now pcsd ssh server2 systemctl disable --now pcsd server3: hostnamectl set-hostname server3 cd /etc/yum.repos.d/ vim dvd.repo yum install httpd systemctl enable --now httpd systemctl start httpd cd /var/www/html/ echo vm3> index.html ip addr add 172.25.19.100/24 dev eth0 yum

注册中心Nacos集群搭建

老子叫甜甜 提交于 2020-10-30 12:07:41
一提到注册中心,大家往往想到Zookeeper、或者Eureka。今天我们看看阿里的一款配置中心+注册中心的中间件——Nacos。有了它以后,我们的项目中的配置就可以统一从Nacos中获取了,而且Spring Cloud的提供者和消费者还可以使用它做注册发现中心。 在搭建Nacos的时候,为了保证高可用,我们要采用的集群的方式搭建。 首先,我们要在数据库中创建一些Nacos的表,Sql文件可以点击下面的链接下载, Sql文件 然后,我们再下载Nacos的压缩包,连接如下: tar.gz包 将下载好的压缩包分别上传到3个服务器上,在我们这里3台机器分别是192.168.73.141,192.168.73.142,192.168.73.143,然后进行解压, tar -zxvf nacos-server-1.3.2.tar.gz 然后,我们进入到conf目录,修改配置,如下: vim application.properties #*************** Config Module Related Configurations ***************# ### 数据源指定MySQL spring.datasource.platform=mysql ### 数据库的数量: db.num=1 ### 数据库连接 IP 端口 数据库名称需要改成自己的 db.url.0

kubernetes实战(二十五):kubeadm 安装 高可用 k8s v1.13.x

谁说我不能喝 提交于 2020-10-28 15:01:24
1、系统环境   使用kubeadm安装高可用k8s v.13.x较为简单,相比以往的版本省去了很多步骤。   kubeadm安装高可用k8s v.11 和 v1.12 点我   主机信息 主机名 IP地址 说明 组件 k8s-master01 ~ 03 192.168.20.20 ~ 22 master节点 * 3 keepalived、nginx、etcd、kubelet、kube-apiserver k8s-master-lb 192.168.20.10 keepalived虚拟IP 无 k8s-node01 ~ 08 192.168.20.30 ~ 37 worker节点 * 8 kubelet   主机配置 [root@k8s -master01 ~]# hostname k8s - master01 [root@k8s -master01 ~]# free - g total used free shared buff/ cache available Mem: 3 1 0 0 2 2 Swap: 0 0 0 [root@k8s -master01 ~]# cat /proc/cpuinfo | grep process processor : 0 processor : 1 processor : 2 processor : 3 [root@k8s -master01