高性能站点架构之负载均衡 Nginx+tomcat+redis实现tomcat集群

早过忘川 提交于 2020-02-22 15:05:45

         上一篇文章给大家讲了Nginx的安装,那么这篇文章为大家讲一下Nginx+Tomcat实现负载均衡。

         先说说为什么要用ngnix 做负载均衡。事实上做负载均衡的最出名的莫过于F5了。F5是在硬件设施,动辄几万,几十万,几百万不等,对于一般的小公司来说,这也是一笔非常大的开销。所以能尽量的使用软件。还是使用软件,效果上尽管会差一些,可是还是可以起到一定的作用的。

环境准备

        三台装有centos6.5 系统的机器。当中两台机器上装有tomcat7,一台机器上装有nginx3.0.2,至于详细怎样安装tomcat和ngnix,这里就不再介绍了。请大家自己去网上查找资料。

        这样我们还须要准备一台装有redis服务的server。redis最好配置为集群的,这里为了演示tomcat集群,就使用单台server了。

仅仅与redis的安装,大家能够參照小编的Linux安装Redis并设置服务 。

測试程序

         环境准备好以后,我们写一个简单的測试程序,看看我们的两个tomcat服务是不是使用同一个redis服务,作为session的存储介质。应用程序例如以下。两台tomcatserver本来应该部署相同的应用程序。可是这里为了区分,我们部署一个程序,可是页面不一致 加上ip的最后三位,用来区分不同的服务。

<span style="font-size:18px;"><body>
   这事第一个页面128
   <%= session.getId() %>
</body>
 
<body>
   这事第一个页面129
   <%= session.getId() %>
</body></span>

        能够看到,假设两个sessionid是一样的,那么我们就能够证明两个tomcatserver已经使用redis共享session了。

配置tomcat

        我们要将tomcat使用redis共享session须要的jar包,都准备好,共须要三个,例如以下所看到的。这个jar不是非常好找。这里提供一个下载地址,tomcat+redis共享session

     

         Jar包下载好以后,我们将这些jar包放入到tomcat中lib下,然后改动tomcat/conf/context.xml文件,在最后一个</Context>上边加入 例如以下代码:

<ValveclassName="com.orangefunction.tomcat.redissessions.RedisSessionHandlerValve"/>
   <ManagerclassName="com.orangefunction.tomcat.redissessions.RedisSessionManager"
       host="192.168.20.128" <!—redis的ip地址-->
       port="6379"
       database="0"
       maxInactiveInterval="60"/>

       到此我们的tomcat就配置完了!

Nginx配置

         Nginx安装好以后。改动/usr/local/conf/nginx.conf配置文件,下边为最简配置。主要配置我们的tomcatserver的地址+port号。

和他们的权重。

<span style="font-size:18px;">#user nobody;
worker_processes  1;
 
#error_log logs/error.log;
#error_log logs/error.log  notice;
#error_log logs/error.log  info;
 
#pid       logs/nginx.pid;
 
 
events {
   #use   epoll;             #epoll是多路复用IO(I/OMultiplexing)中的一种方式,可是仅用于linux2.6以上内核,能够大大提高nginx的性能
   worker_connections  1024;  #单个后台work processes 进程最大的并发连接数
}
 
 
http {
   include       mime.types;
   default_type application/octet-stream;
 
   #log_format  main  '$remote_addr - $remote_user [$time_local]"$request" '
   #                  '$status$body_bytes_sent "$http_referer" '
   #                 '"$http_user_agent" "$http_x_forwarded_for"';
 
   #access_log  logs/access.log  main;
 
   sendfile        on;
   #tcp_nopush     on;
    #设置超时时间
   #keepalive_timeout  0;
   keepalive_timeout  65;
   #要代理的服务器的地址和port号    weight 为权重。权重越大 被訪问的次数越多, 压力越大!
  upstream myServer {
 
   server 192.168.20.128:8080;
   server 192.168.20.129:8080 weight=2;
   }
 
   #gzip  on;
    #监听80 port
   server {
       listen       80;
       #定义要使用的域名
       server_name  localhost;
 
       #charset koi8-r;
      #设定本虚拟主机的訪问日志
       #access_log logs/host.access.log  main;
       #配置前缀  即要转发到的ip+port
       location / {
           proxy_pass  http://myServer;
          # root   html;
          # index  index.html index.htm;
       }
 
       #error_page  404              /404.html;
 
       # redirect server error pages to the static page /50x.html
       #
       error_page   500 502 503 504  /50x.html;
       location = /50x.html {
           root   html;
       }
    }
}</span>

       这样我们全部的准备工作就都做完了。接下来我们进行測试。

验证结果

         我们先对ip为128的进行訪问,然后再对129的进行訪问,我们会发现sessionid是不一样的。

             

           

         然后我们通过nginx 进行訪问,我们刷新几次,会发现他会随机的选择server,载入页面,可是我们能够发现无论是訪问的ip为128 还是129 的。他的sessionid都是一个。所以我们断定两台tomcatserver已经共享session了!

          

         这样我们的tomcat使用redis 实现session共享 就实现了,而且用ngnix 实现了负载均衡,可是我们想一下,假设我们使用一个nginx。假设该nginx所在的server。宕机了,那么我们的程序就挂掉了。

那么我们该例如以下实现一个高可用的方案呢。下篇文章将为我们介绍nginx+keepalived 实现高可用的负载均衡!

易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!