Nginx的反向代理与负载均衡
Nginx的反向代理与负载均衡
什么是反向代理?
自己计算机 A 想访问国外某个网站 B,很遗憾访问不了;此时,有台中间服务器 C 可以访问国外的网站B,那么,我们可以用自己的计算机 A 访问 服务器C, 通过C来访问B网站。那么这个时候, 服务器C称为代理服务器,这种访问方式叫做正向代理。正向代理有一个特点,就是我们明确知道要访问哪个网站。
再如,当我们有一个服务器集中,并且服务器集群中的每台服务器的内容一样的时候,同样我们要直接从个人电脑访问到服务器集中的服务器的时候无法访问,且此时第三方服务器能访问集群,这个时候,我们通过第三方服务器访问服务器集群的内容,但是此时我们并不知道是哪一台服务器提供的内容,此时的代理方式称为反向代理。
什么是负载均衡
Nginx 是一款可以通过反向代理实现负载均衡的服务器,使用Nginx服务器实现负载均衡的时候,用户的访问首先会访问到Nginx服务器,然后Nginx服务器再从服务器集群表中选择压力较小的服务器,然后将该访问请求引向该服务器。
若服务器集群中的某个服务器崩溃,那么从待选服务器列表中将该服务器删除,也就是说一个服务器假如崩溃了,那么Nginx就肯定不会将访问请求引入该服务器了。
负载均衡实现
1.jpg ip_hash.jpg weight.jpgHTTP Upstram 模块
Upstream模块是Nginx服务器的一个重要模块。 Upstream模块实现在轮询和客户端ip之间实现后端的负载均衡。常用的指令有 ip_hash
指令、server
指令 和 upstream
指令等。
-
ip_hash
没有默认值。 基于客户端的IP地址分发请求。- 哈希的关键字是客户端的C类网络地址,这个功能将保证这个客户端请求总是被转发到一台服务器上,但是如果这台服务器不可用,那么请求将转发到另外的服务器上,这将保证某个客户端有很大概率总是连接到一台服务器。
- 语法:"ip_hash;"
- 无法将权重(weight)与ip_hash联合使用来分发连接。如果有某台服务器不可用,你必须标记其为“down”,如下例:
upstream backend { ip_hash; server backend1.example.com; server backend2.example.com; server backend3.example.com down; server backend4.example.com; }
-
server
指定后端服务器的名称和一些参数,可以使用域名,IP,端口,或者unix socket。如果指定为域名,则首先将其解析为IP。-
语法:
server name [parameters]
-
weight
=NUMBER
- 设置服务器权重,默认为1。 -
max_fails
=NUMBER
- 在一定时间内(这个时间在fail_timeout
参数中设置)检查这个服务器是否可用时产生的最多失败请求数,默认为1,将其设置为0可以关闭检查,这些错误在proxy_next_upstream
或fastcgi_next_upstream
(404错误不会使max_fails
增加)中定义。 -
fail_timeout
=TIME
- 在这个时间内产生了max_fails
所设置大小的失败尝试连接请求后这个服务器可能不可用,同样它指定了服务器不可用的时间(在下一次尝试连接请求发起之前),默认为10秒,fail_timeout
与前端响应时间没有直接关系,不过可以使用proxy_connect_timeout
和proxy_read_timeout
来控制。 -
down
- 标记服务器处于离线状态,通常和ip_hash
一起使用。 -
backup
- (0.6.7或更高)如果所有的非备份服务器都宕机或繁忙,则使用本服务器(无法和ip_hash
指令搭配使用)。
upstream backend { server backend1.example.com weight=5; server 127.0.0.1:8080 max_fails=3 fail_timeout=30s; server unix:/tmp/backend3; }
注意:如果你只使用一台上游服务器,nginx将设置一个内置变量为1,即max_fails和fail_timeout参数不会被处理。
结果:如果nginx不能连接到上游,请求将丢失。
解决:使用多台上游服务器。
-
语法:
-
upstream
这个字段设置一群服务器,可以将这个字段放在proxy_pass
和fastcgi_pass
指令中作为一个单独的实体,它们可以可以是监听不同端口的服务器,并且也可以是同时监听TCP
和Unix socket
的服务器。服务器可以指定不同的权重,默认为1。-
语法:
upstream name { ... }
- 使用如上 代码片段
- 请求将按照轮询的方式分发到后端服务器,但同时也会考虑权重。
- 在上面的例子中如果每次发生7个请求,5个请求将被发送到backend1.example.com,其他两台将分别得到一个请求,如果有一台服务器不可用,那么请求将被转发到下一台服务器,直到所有的服务器检查都通过。如果所有的服务器都无法通过检查,那么将返回给客户端最后一台工作的服务器产生的结果。
-
语法:
一些 Nginx 的命令
- nginx -s reload 重新加载Nginx
- nginx -s stop 关闭nginx
- nginx -s start 开启nginx
- service nginx start/stop/restart (这个一般我用的比较多)
- nginx -t -c 文件地址 验证配置文件
总结
- 使用硬件的方式实现负载均衡,那么中间的转发机构就是硬件,这个时候运行的效率非常高,对应的成本也非常高。
- 如果采用软件的方式来实现负载均衡,那么中间的转发机构就是软件,这个时候,运行效率不如硬件,但是成本相对来说低得多。
- Nginx服务器实现负载均衡,那么就是通过软件的方式来实现负载均衡,并且Nginx本身支持高并发等。顾而使用Nginx服务器实现负载均衡,能大大解决节约企业的成本,并且由于Nginx是服务器软件,且执行效率也非常高