一、Nginx的理解
Nginx是一个高性能的HTTP和反向代理服务,也是一个IMAP/POP3/SMTP服务。Nginx是一款轻量级的web服务器/反向代理服务器及电子邮件(IMAP/POP3)代理服务器,并在一个BSD-like协议下发行。特点:占有内存少,并发能力强,事实上nginx的并发能力确实在同类型的网页服务器中表现最好。
轮询(默认算法) —— 每个请求会依次分配给后端不同的应用程序服务器,不理会后端服务器的实际压力
加权轮询 —— 权重越大的服务器,被分配到的次数就会越多,通常用于后端服务器性能不一致的情况
IP HASH —— 当同IP进行重复访问时会被指定到上次访问到的服务器,可以解决动态网站SESSION共享问题
二、nginx的配置
实验步骤:由于之前在源码包的编译过程使用了nginx,在此就不再叙述了,我们对nginx的配置进行如下修改。
1) 检测是否安装成功
---> /usr/local/nginx/sbin/nginx # 开启ngnix服务
注意:当服务启动出现错误:error while loading shared libraries:libpcre.so.1:cannot open shared object file:No such file or directory
解决方法:1、使用命令where libpcre.so.1找到它所在的位置
2、ln -s /usr/local/lib/libpcre.so.1 /lib64 命令做个软链接
3、再重新启动即可(ps -axu| grep nginx来查看nginx服务进程)
---> ln -s /usr/local/nginx/sbin/nginx /sbin/ # 进行nginx的链接操作
2)去掉nginx服务的版本号
---> vim /root/nginx-1.15.3/src/core/nginx.h # 只修改一行
# 此时,在真机中使用 curl -I 172.25.2.1 查看,则不会显示nginx的版本号。
3)注释/root/nginx-1.15.3/auto/cc/gcc中debug的下一行
4)在浏览器中输入server1的ip,可以访问nginx的默认文件
5)添加发布文件
---> vim /usr/local/nginx/html/index1.html
<h1>server1 --- nginx</h1>
# 在浏览器中的结果:
6)nginx的基本操作
---> /usr/local/nginx/sbin/nginx # 启动服务
---> /usr/local/nginx/sbin/nginx -s stop(reload、quit) #停停止、重启服务
---> /usr/local/nginx/sbin/nginx -h|-t # h命令帮助;t验证配置文件
三、Nginx实现负载均衡
1)修改主配置文件
---> vim /usr/local/nginx/conf/nginx.conf
worker_processes 1;
events {
worker_connections 65535;
}
http {
upstream xniu{
# ip_hash # 负载均衡算法,不写默认为rr(轮询)
server 172.25.2.2:80; # 后端服务器
server 172.25.2.3:80;
server 127.0.0.1:8080 backup; # 当后端服务器均有问题时,使用本地的服务
}
include mime.types;
default_type application/octet-stream;
server {
listen 80; # nginx监听80端口
server_name www.xniu.com; # 访问域名
location / {
proxy_pass http://xniu; # 访问上边的虚拟主机
}
}
}
2)查看系统支持的最大文件数,并编辑限制文件
---> sysctl -a | grep file
---> vim /etc/security/limits.conf
Nginx - nofile 65535 # 使nginx工作再nginx用户的工作空间
3)创建nginx用户
---> useradd -M -d /usr/local/ngnix ngnix #指定用户加目录
4)重新加载nginx:(加载之后需要打开server2和server3的httpd服务)
---> nginx -s reload
5)启动server2和server3的httpd服务;server1的httpd访问端口为8080并添加默认发布文件
6)在真机中测试负载均衡,方式是轮询
# 当server2和server3都坏掉的时候,会调用server1的httpd服务
# 也可以给后端服务器设置权重;编辑nginx.conf文件;在虚拟主机172.25.2.2后添加weight=2.则在真机中会出现两次server2,一此server3。结果如下:
# 若负载均衡算法为ip_hash,结果如下(同一个ip访问时,后端服务器不会改变):算法为hash时,不能有后备服务主机。
四、在nginx中静态模块sticky
sticky时nginx的一个模块,它是基于cookie的一种nginx的负载均衡解决方案,通过分发和时别cookie,来使同一客户端的请求罗在同一台服务器上。默认标识为route。功能相当于算法ip_bash。
具体数据的处理过程为:客户算首次发送访问请求,nginx接收后,发现请求头没有cookie,则以轮询方式将请求分发给后端服务器;后端服务器请求完成后,将响应数据返回给客户端;(此时,nginx生成带有route的cookie,返回给客户端,route的值与后端服务器想对应,可能是明文、md5、sha1等hash值;客户端保存带route的cookie )下一次客户端再发送请求时,会带上route,nginx接收到cookie中route值,随即就转发给对应的后端服务器。
五、使用corosync和pacemaker实现nginx的高可用
由于之前配置过corosync和pacemaker的实验环境,再这里就直接使用。若时有问题的话,可以查看之前的博客。
1)首先我们把server1和server4上都安装上nginx服务。这是只需要把server1中安装好的目录拷贝过去即可使用。
---> scp -r /usr/local/nginx server4:/usr/local
2)我们在server4中做一个软链接,并启动
---> ln - s /usr/local/nginx/sbin/nginx /sbin/
---> nginx # 启动服务(没报错说明正常)
---> nginx -s stop # 关闭服务
3)编写nginx的执行脚本(在网上搜即可),放在/etc/init.d/目录下,并给一个可执行权限
4)此时我们启动server1和server4的corosync服务
---> /etc/init.d/corosync start
5) 在corosync中添加ip和nginx服务(ip为之前添加进去的)
# 建立一个资源组,使ip和nginx运行在同一个节点上
6)完成之后,我们对节点进行测试。(添加进去的服务可以自启动)
# 在关闭节点4的corosync服务时,资源的调度会自动转换在server1上。(若两个节点都有问题,则不可以访问后端)
# 当server1主机崩了之后(echo c> /proc/sysrq-trigger),由于有fence机制,会自动启动,完成后又添加在在线节点中。
注意:当我挂掉一个节点后,再启动的时候,该节点会自动进行资源的抢夺。为了防止出现这样的现象,我们可以设置corosync的当前节点的粘滞性即可 。
来源:https://www.cnblogs.com/uthnb/p/9694257.html