Nginx七层负载均衡

一、概述

web服务器,直接面向用户,往往要承载大量并发请求,单台服务器难以负荷,我使用多台web服务器组成集群,前端使用Nginx负载均衡,将请求分散
的转发到我们后端服务器集群中,实现负载的分发,那么会大大提升系统的吞吐率、请求性能、高容灾

Nginx七层负载均衡

往往我们接触的最多的是SLB(Server Load Balance)​​负载均衡,实现最多的也是​SLB​​,那么​​SLB​​它的调度节点和服务节点通常是在一个地域里面。它在这个小的逻辑地域里面决定了他对部分服务的实时性、响应性是非常好的。

1、Nginx常用的云平台介绍

阿里云负载均衡——SLB
青云负载均衡——QLB
腾讯云负载均衡——CLB
ucloud负载均衡——ULB

2、Nginx四层与七层的区别

四层负载均衡 传输层
优点:性能高,数据包在底层就进行了转发
缺点:仅支持ip:port转发,无法完成复杂的业务逻辑应用

七层负载均衡 应用层
优点:贴近业务,支持URI路径匹配、Header改写、rewrite等
缺点:性能低,数据包需要拆解到顶层才进行调度,消耗随机端口

二、负载均衡配置

1、Nginx负载均衡配置参数

Syntax: upstream name { ... }
Default: -
Context: http

# upstream例
upstream backend {
server backend1.example.com weight=5;
server backend2.example.com:8080;
server unix:/tmp/backend3;
server backup1.example.com:8080 backup;
}
server {
location / {
proxy_pass http://backend;
}
}

2、Nginx负载均衡调度算法

调度算法    概述
轮询 按时间顺序逐一分配到不同的后端服务器(默认)
weight 加权轮询,weight值越大,分配到的访问几率越高
ip_hash 每个请求按访问IP的hash结果分配,这样来自同一IP的固定访问一个后端服务器
url_hash 按照访问URL的hash结果来分配请求,是每个URL定向到同一个后端服务器
least_conn最少链接数,那个机器链接数少就分发

ip_hash不能与weight一起使用
ip_hash有两个点,一个是session一个是cookies,session是基于服务器端,表示会话保持,cookies是基于客户端比如浏览器缓存,当用户访问
网站时,负载均衡将请求转发给web01,用户名密码会保存到web01上生成一个session,当转发给web02时有需要重新登录,显然不是我们想要的效
果,这时就可以设置ip_hash,让用户始终访问同一台服务器
session最好的办法是开发人员在网站加上一个功能,允许将会话保存在浏览器上,也可以把session通过redis写入数据库里

浏览器端存的是cookie每次浏览器发请求到服务端时,报文头是会自动添加cookie信息的。
服务端会查询用户的cookie作为key去存储里找对应的value(session)同一域名下的网站的cookie都是一样的,所以无论几台服务器,无论请求分配
到哪一台服务器上同一用户的cookie是不变的。也就是说cookie对应的session也是唯一的。所以这里只要保证多台业务服务器访问同一个共享存储
服务器(NFS,MySQL,memcache,redis,file)就行了

3、Nginx负载均衡后端状态

状态               概述
down 当前的server暂时不参与负载均衡
backup 预留的备份服务器
max_fails 允许请求失败的次数
fail_timeout 经过max_fails失败后,服务暂停时间
max_conns 限制最大的接收连接数

当调度转态配置为down表示这台服务器不在进行负载均衡,退出虚拟服务器池,也就是不参与任何调度,一般用于停机维护
当负载调度状态配置为backup表示这台服务器为备份状态,当其他服务器异常宕机后,这台服务器会转换成活跃服务器接替坏的服务器提供服务,当活
跃服务器恢复后,备份服务器就不在提供服务
max_fails状态表示请求失败的次数,也就是在规定次数内没有请求成功就将此服务器的状态设置为down
fail_timeout状态通常和max_fails一起使用,表示当请求失败后,多少秒后再去重试,类似健康检查
max_conns表示设置最大tcp连接数

4、负载均衡获取后端真实IP

#nginx.conf
log_format main '$remote_addr - $http_host - $remote_user [$time_local] $http_host $msec "$request" $request_time '
'$status $body_bytes_sent "$http_referer" '
'"$http_user_agent" "$http_x_forwarded_for" $upstream_addr';
负载均衡配置文件配置
server {
access_log /nginx_log/lb_web_com_access.log main;
}
发现最后一列就是后端真实服务器ip地址

5、配置负载均衡

[root@lb01 code]# cd /etc/nginx/conf.d/
#配置nginx负载均衡
[root@lb01 conf.d]# vim node_proxy.conf
upstream node {
server 172.16.1.7:80;
server 172.16.1.8:80;
}
server {
listen 80;
server_name node.drz.com;

location / {
proxy_pass http://node;
include proxy_params;
}
}

#准备Nginx负载均衡调度使用的proxy_params
[root@lb01 conf.d]# vim /etc/nginx/proxy_params
proxy_set_header Host $http_host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;

proxy_connect_timeout 30;
proxy_send_timeout 60;
proxy_read_timeout 60;

proxy_buffering on;
proxy_buffer_size 32k;
proxy_buffers 4 128k;

5、负载均衡常见典型故障

如果后台服务连接超时,Nginx是本身是有机制的,如果出现一个节点down掉的时候,Nginx会更据你具体负载均衡的设置,将请求转移到其他的节点
上,但是,如果后台服务连接没有down掉,但是返回错误异常码了,如:504、502、500,此时你需要加一个负载均衡的设置,如下:
proxy_next_upstream http_500 | http_502 | http_503 | http_504 |http_404;意思是,当其中一台返回错误码404,500...等错误时,
可以分配到下一台服务器程序继续处理,提高平台访问成功率。

[root@lb01 conf.d]# vim node_proxy.conf
upstream node {
server 172.16.1.7:80;
server 172.16.1.8:80;
}
server {
listen 80;
server_name node.drz.com;
location / {
proxy_pass http://node;
proxy_next_upstream error timeout http_500 http_502 http_503 http_504;
include proxy_params;
}
}

三、收录Nginx负载均衡健康检查

在Nginx官方模块提供的模块中,没有对负载均衡后端节点的健康检查模块,但可以使用第三方模块。 nginx_upstream_check_module来检测后端
服务的健康状态。
1)安装依赖包
[root@lb02 ~]# yum install -y gcc glibc gcc-c++ pcre-devel openssl-devel patch

2)下载nginx源码包以及nginx_upstream_check模块第三方模块
[root@lb02 ~]# wget http://nginx.org/download/nginx-1.14.2.tar.gz
[root@lb02 ~]# wget https://github.com/yaoweibin/nginx_upstream_check_module/archive/master.zip

3)解压nginx源码包以及第三方模块
[root@lb02 ~]# tar xf nginx-1.14.2.tar.gz
[root@lb02 ~]# unzip master.zip

4)进入nginx目录,打补丁(nginx的版本是1.14补丁就选择1.14的,p1代表在nginx目录,p0是不在nginx目录)

[root@lb02 ~]# cd nginx-1.14.2/
[root@lb02 nginx-1.14.2]# patch -p1 <../nginx_upstream_check_module-master/check_1.14.0+.patch
./configure --prefix=/etc/nginx --sbin-path=/usr/sbin/nginx --modules-path=/usr/lib64/nginx/modules --conf-path
=/etc/nginx/nginx.conf --error-log-path=/var/log/nginx/error.log --http-log-path=/var/log/nginx/access.log
--pid-path=/var/run/nginx.pid --lock-path=/var/run/nginx.lock
--http-client-body-temp-path=/var/cache/nginx/client_temp --http-proxy-temp-path=/var/cache/nginx/proxy_temp
--http-fastcgi-temp-path=/var/cache/nginx/fastcgi_temp --http-uwsgi-temp-path=/var/cache/nginx/uwsgi_temp
--http-scgi-temp-path=/var/cache/nginx/scgi_temp --user=nginx --group=nginx --with-compat --with-file-aio
--with-threads --with-http_addition_module --with-http_auth_request_module --with-http_dav_module
--with-http_flv_module --with-http_gunzip_module --with-http_gzip_static_module --with-http_mp4_module
--with-http_random_index_module --with-http_realip_module --with-http_secure_link_module --with-http_slice_module
--with-http_ssl_module --with-http_stub_status_module --with-http_sub_module --with-http_v2_module --with-mail
--with-mail_ssl_module --with-stream --with-stream_realip_module --with-stream_ssl_module
--with-stream_ssl_preread_module --add-module=/root/nginx_upstream_check_module-master
--with-cc-opt='-O2 -g -pipe -Wall -Wp,-D_FORTIFY_SOURCE=2 -fexceptions -fstack-protector-strong --param=
ssp-buffer-size=4 -grecord-gcc-switches -m64 -mtune=generic -fPIC' --with-ld-opt='-Wl,-z,relro -Wl,-z,now -pie'
[root@lb02 nginx-1.14.2]# make && make install


5)在已有的负载均衡上增加健康检查的功能
[root@lb01 conf.d]# cat proxy_web.conf
upstream web {
server 172.16.1.7:80 max_fails=2 fail_timeout=10s;
server 172.16.1.8:80 max_fails=2 fail_timeout=10s;
check interval=3000 rise=2 fall=3 timeout=1000 type=tcp;
#interval 检测间隔时间,单位为毫秒
#rise 表示请求2次正常,标记此后端的状态为up
#fall 表示请求3次失败,标记此后端的状态为down
#type 类型为tcp
#timeout 超时时间,单位为毫秒
}
server {
listen 80;
server_name web.drz.com;
location / {
proxy_pass http://web;
include proxy_params;
}
location /upstream_check {
check_status;
}
}
发表评论

相关文章