nginx反向代理tomcat实现负载均衡
2020-08-20 本文已影响0人
阿当运维
这里2个tomcat均在本机启用,一个8080一个8081,页面内容(java代码)分别是page1和page2
1.nginx 在http段的位置写入
upstream tom{
server 127.0.0.1:8080 weight=100 max_fails=2 fail_timeout=15;
server 127.0.0.1:8081 weight=100 max_fails=2 fail_timeout=15;
}
nginx 虚拟主机配置文件配置:
server {
listen 80;
server_name 192.168.1.252;
location / {
index index.html index.htm;
proxy_pass http://tom;
proxy_next_upstream http_502 http_504 error timeout invalid_header;
#如果后端的服务器返回 502、 504、执行超时等错误,自动将请求转发到upstream 负载均衡池中的另一台服务器,实现故障转移。
proxy_redirect off;
#后端的 Web 服务器可以通过 X-Forwarded-For 获取用户真实 IP
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
}
}
主要是proxy_pass和set_header那里 别的配置可以看情况配置
浏览器访问:
image.png
image.png
Nginx负载均衡的几种模式
负载均衡原理:upstream按照轮询(默认)方式进行负载,每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。虽然这种方式简便、成本低廉。但缺点是:可靠性低和负载分配不均衡。适用于图片服务器集群和纯静态页面服务器集群。
几种方式:
1.weight(权重)轮询
upstream tom{
server 服务器IP weight=1;
server 服务器IP weight=10;
}
2.ip_hash(访问ip)
每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题。
upstream favresin{
ip_hash;
server 服务器IP:8080;
server 服务器IP:8080;
}
3. fair(第三方)
按后端服务器的响应时间来分配请求,响应时间短的优先分配。与weight分配策略类似。
upstream favresin{
server 服务器IP:8080;
server 服务器IP:8080;
fair;
}
4.url_hash(第三方)
按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,后端服务器为缓存时比较有效。
注意:在upstream中加入hash语句,server语句中不能写入weight等其他的参数,hash_method是使用的hash算法。
upstream resinserver{
server 服务器IP:7777;
server 服务器IP:8888;
hash $request_uri;
hash_method crc32;
}
一些参数解释:
upstream还可以为每个设备设置状态值,这些状态值的含义分别如下:
down 表示单前的server暂时不参与负载.
weight 默认为1.weight越大,负载的权重就越大。
max_fails :允许请求失败的次数默认为1.当超过最大次数时,返回proxy_next_upstream 模块定义的错误.
fail_timeout : max_fails次失败后,暂停的时间。
backup: 其它所有的非backup机器down或者忙的时候,请求backup机器。所以这台机器压力会最轻。