ug6vdv9uv77yjv 发表于 2022-7-7 05:44:29

喜极而泣,我终于学会了Nginx!

【51CTO.com原创稿件】本文首先介绍 Nginx 的反向代理、负载均衡、动静分离和高可用的原理,随后详解 Nginx 的配置文件,带大家从原理到实战,彻底搞懂 Nginx!

https://p3-sign.toutiaoimg.com/pgc-image/30381f8cfa7541f1bc787b5368184659~tplv-tt-large.image?x-expires=1972505930&x-signature=tLbIPE7lItcfbIMFF5xOKt1ajaQ%3D

图片来自 Pexels

Nginx 是开源的轻量级 Web 服务器、反向代理服务器,以及负载均衡器和 HTTP 缓存器。其特点是高并发,高性能和低内存。

Nginx 专为性能优化而开发,性能是其最重要的考量,实现上非常注重效率,能经受高负载的考验,最大能支持 50000 个并发连接数。

Nginx 还支持热部署,它的使用特别容易,几乎可以做到 7x24 小时不间断运行。Nginx 的网站用户有:百度、淘宝、京东、腾讯、新浪、网易等。

反向代理

①正向代理

Nginx 不仅可以做反向代理,实现负载均衡,还能用做正向代理来进行上网等功能。

https://p3-sign.toutiaoimg.com/pgc-image/8f6fc996ab264a639e1ff570b6904f06~tplv-tt-large.image?x-expires=1972505930&x-signature=ftKt3JmXTbi3%2FkB2IbgUj2AzAtI%3D

②反向代理

客户端对代理服务器是无感知的,客户端不需要做任何配置,用户只请求反向代理服务器,反向代理服务器选择目标服务器,获取数据后再返回给客户端。

反向代理服务器和目标服务器对外而言就是一个服务器,只是暴露的是代理服务器地址,而隐藏了真实服务器的 IP 地址。

https://p3-sign.toutiaoimg.com/pgc-image/5e30a4329e664654a8ac8921f77d4daa~tplv-tt-large.image?x-expires=1972505930&x-signature=3RtbXPe5EFXJ0GNIrLcb%2BUpGSCs%3D

负载均衡

将原先请求集中到单个服务器上的情况改为增加服务器的数量,然后将请求分发到各个服务器上,将负载分发到不同的服务器,即负载均衡。

https://p3-sign.toutiaoimg.com/pgc-image/734f63e921a344d495ff04b02da28716~tplv-tt-large.image?x-expires=1972505930&x-signature=LxTH4VyF0P75YTwNDBnk6eTQGr8%3D

动静分离

为了加快网站的解析速度,可以把静态页面和动态页面由不同的服务器来解析,加快解析速度,降低原来单个服务器的压力。

https://p3-sign.toutiaoimg.com/pgc-image/faf5d13d5be3450cb4b60e6a430b1405~tplv-tt-large.image?x-expires=1972505930&x-signature=E00Z0sjgFHcGV%2FWwXruDnCkzE10%3D

高可用

为了提高系统的可用性和容错能力,可以增加 Nginx 服务器的数量,当主服务器发生故障或宕机,备份服务器可以立即充当主服务器进行不间断工作。

https://p3-sign.toutiaoimg.com/pgc-image/f546b2e468444fabbb1c17fe53ef5291~tplv-tt-large.image?x-expires=1972505930&x-signature=UsW1qAH8ihgan7qertn06kingug%3D

Nginx 配置文件

①文件结构
...            #全局块events {         #events块    ... }http      #http块 {   ...   #http全局块   server      #server块   {          ...       #server全局块         location    #location块         {             ...         }         location           {             ...         }   }   server   {       ...   }   ...   #http全局块 }
Nginx 配置文件由三部分组成:
全局块,主要设置一些影响 Nginx 服务器整体运行的配置指令。比如:worker_processes 1;worker_processes 值越大,可以支持的并发处理量就越多。Events 块,涉及的指令主要影响 Nginx 服务器与用户的网络连接。比如:worker_connections 1024;支持的最大连接数。HTTP 块,又包括 HTTP 全局块和 Server 块,是服务器配置中最频繁的部分,包括配置代理、缓存、日志定义等绝大多数功能。Server 块:配置虚拟主机的相关参数。Location 块:配置请求路由,以及各种页面的处理情况。

②配置文件
########### 每个指令必须有分号结束。################# #user administrator administrators;#配置用户或者组,默认为nobody nobody。 #worker_processes 2;#允许生成的进程数,默认为1 #pid /nginx/pid/nginx.pid;   #指定nginx进程运行文件存放地址 error_log log/error.log debug;#制定日志路径,级别。这个设置可以放入全局块,http块,server块,级别以此为:debug|info|notice|warn|error|crit|alert|emerg events {   accept_mutex on;   #设置网路连接序列化,防止惊群现象发生,默认为on   multi_accept on;#设置一个进程是否同时接受多个网络连接,默认为off   #use epoll;      #事件驱动模型,select|poll|kqueue|epoll|resig|/dev/poll|eventport   worker_connections1024;    #最大连接数,默认为512 } http {   include       mime.types;   #文件扩展名与文件类型映射表   default_typeapplication/octet-stream; #默认文件类型,默认为text/plain   #access_log off; #取消服务日志         log_format myFormat '$remote_addr–$remote_user [$time_local] $request $status $body_bytes_sent $http_referer $http_user_agent $http_x_forwarded_for'; #自定义格式   access_log log/access.log myFormat;#combined为日志格式的默认值   sendfile on;   #允许sendfile方式传输文件,默认为off,可以在http块,server块,location块。   sendfile_max_chunk 100k;#每个进程每次调用传输数量不能大于设定的值,默认为0,即不设上限。   keepalive_timeout 65;#连接超时时间,默认为75s,可以在http,server,location块。      upstream mysvr {          server 127.0.0.1:7878;       server 192.168.10.121:3333 backup;#热备   }   error_page 404 https://www.baidu.com; #错误页   server {         keepalive_requests 120; #单连接请求上限次数。         listen       4545;   #监听端口         server_name127.0.0.1;   #监听地址                location~*^.+$ {       #请求的url过滤,正则匹配,~为区分大小写,~*为不区分大小写。            #root path;#根目录            #index vv.txt;#设置默认页            proxy_passhttp://mysvr;#请求转向mysvr 定义的服务器列表            deny 127.0.0.1;#拒绝的ip            allow 172.18.5.54; #允许的ip                  }      } }   
配置实例

下面通过配置 Nginx 配置文件,实现正向代理、反向代理、负载均衡、Nginx 缓存、动静分离和高可用 Nginx 6 种功能,并对 Nginx 的原理作进一步的解析。当需要使用 Nginx 配置文件时,参考本文实例即可,建议收藏。

①正向代理

正向代理的代理对象是客户端。正向代理就是代理服务器替客户端去访问目标服务器。

实现效果:在浏览器输入 www.google.com , 浏览器跳转到 www.google.com 。

具体配置:
server{   resolver 8.8.8.8;   listen 80;      location / {         proxy_pass http://$http_host$request_uri;   } }
在需要访问外网的客户端上执行以下一种操作即可:
1. 方法1(推荐) export http_proxy=http://你的正向代理服务器地址:代理端口   2. 方法2 vim ~/.bashrc export http_proxy=http://你的正向代理服务器地址:代理端口   
②反向代理

反向代理指代理后端服务器响应客户端请求的一个中介服务器,代理的对象是服务端。

实现效果:在浏览器输入 www.abc.com , 从 Nginx 服务器跳转到 Linux 系统 Tomcat 主页面。

具体配置:
server {   listen       80;      server_name192.168.4.32;   #监听地址      location/ {               root html;#/html目录      proxy_pass http://127.0.0.1:8080;#请求转向      indexindex.html index.htm;      #设置默认页            }}
实现效果:根据在浏览器输入的路径不同,跳转到不同端口的服务中。

具体配置:
server {   listen       9000;      server_name192.168.4.32;   #监听地址             location~ /example1/ {          proxy_pass http://127.0.0.1:5000;            }       location~ /example2/ {          proxy_pass http://127.0.0.1:8080;            }}
Location 指令说明:
~:表示 uri 包含正则表达式,且区分大小写。~*:表示 uri 包含正则表达式,且不区分大小写。=:表示 uri 不含正则表达式,要求严格匹配。

③负载均衡

实现效果:在浏览器地址栏输入 http://192.168.4.32/example/a.html ,平均到 5000 和 8080 端口中,实现负载均衡效果。

具体配置:
upstream myserver {      server 192.167.4.32:5000;   server 192.168.4.32:8080; }   server {   listen       80;   #监听端口   server_name192.168.4.32;   #监听地址      location/ {               root html;#html目录      index index.html index.htm;#设置默认页      proxy_passhttp://myserver;#请求转向 myserver 定义的服务器列表         }}
Nginx 分配服务器策略:

轮询(默认):按请求的时间顺序依次逐一分配,如果服务器 down 掉,能自动剔除。

权重:weight 越高,被分配的客户端越多,默认为 1。

比如:
upstream myserver {      server 192.167.4.32:5000 weight=10;   server 192.168.4.32:8080 weight=5; }
IP:按请求 IP 的 Hash 值分配,每个访客固定访问一个后端服务器。

比如:
upstream myserver {    ip_hash;   server 192.167.4.32:5000;   server 192.168.4.32:8080; }
Fair:按后端服务器的响应时间来分配,响应时间短的优先分配到请求。

比如:
upstream myserver {    fair;   server 192.168.4.32:5000;   server 192.168.4.32:8080; }
④Nginx 缓存

实现效果:在 3 天内,通过浏览器地址栏访问 http://192.168.4.32/a.jpg,不会从服务器抓取资源,3 天后(过期)则从服务器重新下载。

具体配置:
# http 区域下添加缓存区配置 proxy_cache_path /tmp/nginx_proxy_cache levels=1 keys_zone=cache_one:512m inactive=60s max_size=1000m;# server 区域下添加缓存配置 location ~ \.(gif|jpg|png|htm|html|css|js)(.*) {      proxy_pass http://192.168.4.32:5000;#如果没有缓存则转向请求      proxy_redirect off;      proxy_cache cache_one;      proxy_cache_valid 200 1h;            #对不同的 HTTP 状态码设置不同的缓存时间      proxy_cache_valid 500 1d;      proxy_cache_valid any 1m;      expires 3d; }
Expires 是给一个资源设定一个过期时间,通过 Expires 参数设置,可以使浏览器缓存过期时间之前的内容,减少与服务器之间的请求和流量。

也就是说无需去服务端验证,直接通过浏览器自身确认是否过期即可,所以不会产生额外的流量。此种方法非常适合不经常变动的资源。

⑤动静分离

实现效果:通过浏览器地址栏访问 www.abc.com/a.html ,访问静态资源服务器的静态资源内容。

通过浏览器地址栏访问 www.abc.com/a.jsp ,访问动态资源服务器的动态资源内容。

具体配置:
upstream static {      server 192.167.4.31:80; }upstream dynamic {      server 192.167.4.32:8080; }server {   listen       80;   #监听端口   server_namewww.abc.com; 监听地址      # 拦截动态资源   location ~ .*\.(php|jsp)$ {      proxy_pass http://dynamic;   }      # 拦截静态资源   location ~ .*\.(jpg|png|htm|html|css|js)$ {               root /data/;#html目录      proxy_pass http://static;      autoindex on;;#自动打开文件列表   }   }
⑥高可用

一般情况下,通过 Nginx 主服务器访问后台目标服务集群,当主服务器挂掉后,自动切换至备份服务器,此时由备份服务器充当主服务器的角色,访问后端目标服务器。

实现效果:准备两台 Nginx 服务器,通过浏览器地址栏访问虚拟 IP 地址,把主服务器的 Nginx 停止,再次访问虚拟 IP 地址仍旧有效。

具体配置:
# 安装 keepalived yum install keepalived -y# 检查版本 rpm -q -a keepalived keepalived-1.3.5-16.el7.x86_64
1.在两台 Nginx 服务器上安 Keepalived:Keepalived 相当于一个路由,它通过一个脚本来检测当前服务器是否还活着,如果还活着则继续访问,否则就切换到另一台备份服务器。

2.修改主备服务器 /etc/keepalived/keepalivec.conf 配置文件(可直接替换),完成高可用主从配置。

Keepalived 将 Nginx 服务器绑定到一个虚拟 IP,Nginx 高可用集群对外统一暴露这个虚拟 IP,客户端都是通过访问这个虚拟 IP 来访问 Nginx 服务器 。
global_defs {   notification_email {         acassen@firewall.loc         failover@firewall.loc         sysadmin@firewall.loc   }   notification_email_from_Alexandre.Cassen@firewall.loc   smtp_server 192.168.4.32   smtp_connect_timeout 30   router_id LVS_DEVEL# 在 /etc/hosts 文件中配置,通过它能访问到我们的主机 }vrrp_script_chk_http_port {      script "/usr/local/src/nginx_check.sh"      interval 2      # 检测脚本执行的时间间隔      weight 2      # 权重每次加2 }vrrp_instance VI_1 {   interface ens7f0 # 网卡,需根据情况修改   state MASTER    # 备份服务器上将 MASTER 改为 BACKUP   virtual_router_id 51 # 主备机的 virtual_router_id 必须相同   priority 100   # 主备机取不同的优先级,主机值较大,备份机值较小   advert_int 1# 每隔多长时间(默认1s)发送一次心跳,检测服务器是否还活着   authentication {       auth_type PASS       auth_pass 1111   }   virtual_ipaddress {         192.168.1.100 # VRRP H 虚拟地址,可以绑定多个   } }
字段说明如下:

router_id:在 /etc/hosts 文件中配置,通过它能访问到我们的主机。
127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4 ::1         localhost localhost.localdomain localhost6 localhost6.localdomain6 127.0.0.1   LVS_DEVEL   
interval:设置脚本执行的间隔时间。

weight:当脚本执行失败即 Keepalived 或 Nginx 挂掉时,权重增加的值(可为负数)。

interface:输入 ifconfig 命令查看当前的网卡名是什么。
ens7f0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>mtu 1500         inet 192.168.4.32netmask 255.255.252.0broadcast 192.168.7.255         inet6 fe80::e273:9c3c:e675:7c60prefixlen 64scopeid 0x20<link>         ... ...
3.在 /usr/local/src 目录下添加检测脚本 nginx_check.sh:
#!/bin/bash A=`ps -C nginx -no-header |wc -l` if [ $A -eq 0 ];then   /usr/local/nginx/sbin/nginx   sleep 2   if [ ps -C nginx -no-header |wc -l` -eq 0 ];then         killall keepalived   fi fi
4.启动两台服务器的 Nginx 和 Keepalived:
# 启动 nginx ./nginx# 启动 keepalived systemctl start keepalived.service
5.查看虚拟 IP 地址 IP a。把主服务器 192.168.4.32 Nginx 和 Keepalived 停止,再访问虚拟 IP 查看高可用效果。

原理解析

https://p3-sign.toutiaoimg.com/pgc-image/483f4edcfd164ebcba4fd601f8ee7907~tplv-tt-large.image?x-expires=1972505930&x-signature=YCJy1dbWboUQEYd4xKH0RX6CGDU%3D

Nginx 启动之后,在 Linux 系统中有两个进程,一个为 Master,一个为 Worker。

Master 作为管理员不参与任何工作,只负责给多个 Worker 分配不同的任务(Worker 一般有多个)。
ps -ef |grep nginx root   20473   102019 ?      00:00:00 nginx: master process /usr/sbin/nginx nginx   4628 204730 Jan06 ?      00:00:00 nginx: worker process nginx   4629 204730 Jan06 ?      00:00:00 nginx: worker process
Worker 是如何工作的?客户端发送一个请求首先要经过 Master,管理员收到请求后会将请求通知给 Worker。

多个 Worker 以争抢的机制来抢夺任务,得到任务的 Worker 会将请求经由 Tomcat 等做请求转发、反向代理、访问数据库等(Nginx 本身是不直接支持 Java 的)。

https://p3-sign.toutiaoimg.com/pgc-image/6835fbb2311543babdbd7bd228580753~tplv-tt-large.image?x-expires=1972505930&x-signature=aEc3ETeQLJH4y%2BJ4MKMK59M5Cv8%3D

一个 Master 和多个 Worker 的好处?
可以使用 nginx -s reload 进行热部署。每个 Worker 是独立的进程,如果其中一个 Worker 出现问题,其他 Worker 是独立运行的,会继续争抢任务,实现客户端的请求过程,而不会造成服务中断。

设置多少个 Worker 合适?Nginx 和 Redis 类似,都采用了 IO 多路复用机制,每个 Worker 都是一个独立的进程,每个进程里只有一个主线程。

通过异步非阻塞的方式来处理请求,每个 Worker 的线程可以把一个 CPU 的性能发挥到极致,因此,Worker 数和服务器的 CPU 数相等是最为适宜的。

思考:
发送一个请求,会占用 Worker 几个连接数?有一个 Master 和 4 个 Worker,每个 Worker 支持的最大连接数为 1024,该系统支持的最大并发数是多少?

恭喜!目前为止你已经掌握了 Nginx 6 种功能的配置方式,并和我一起进一步探讨了 Nginx 的原理。最后两个面试中可能会问到的思考题,欢迎大家评论区积极讨论。

作者:臧远慧

简介:就职于中科星图股份有限公司(北京),研发部后端技术组。个人擅长 Python/Java 开发,了解前端基础;熟练掌握 MySQL,MongoDB,了解 Redis;熟悉 Linux 开发环境,掌握 Shell 编程,有良好的 Git 源码管理习惯;精通 Nginx ,Flask、Swagger 开发框架;有 Docker+Kubernetes 云服务开发经验。对人工智能、云原生技术有较大的兴趣。

【51CTO原创稿件,合作站点转载请注明原文作者和出处为51CTO.com】

yueyao668899 发表于 2022-7-7 05:44:43

一个很重要的session共享没有,没有session共享,负载均衡压根就用不起来,测试看起来是第一次发给了这个Tomcat,第二次发给了那个Tomcat,但实际系统中,完全不行,页面都会打不开

ulqeajpu8qe55u 发表于 2022-7-7 05:44:54

看资讯nginx 被f5收购了

ufrrumy65u1zb1 发表于 2022-7-7 05:45:15

多个服务器的session共享维护非常不方便,经常无法打通,特别讨厌所以框架做的东西,明明非常简单的一个页面,非要调用几十个文件才可以完成,构建一大堆类,最后只使用其中极小一个功能,对模板文件不管支持有多灵活,到了CPU那里还是得老老实实一个字母一个字母的去分析!再快的服务器,业务量大了也会累的半死,再好的客户机,几十个js文件下载下来,浏览速度也是慢吞吞的。

uwg7g0d0zd3r3l 发表于 2022-7-7 05:45:55

告诉你一个悲剧的事情,五年之后可能你现在辛苦学会的东西就不流行了,一堆后生已经学流行的技术有两三年而你是0年。不值钱了。

1999 发表于 2022-7-7 05:46:12

这玩意儿用学吗?

ugsebbbbe7me72 发表于 2022-7-7 05:46:22

学会这个能干嘛

uvbz4bymky49yv 发表于 2022-7-7 05:46:27

这个能代替tomcat吗?

uynfpwz09fqqaz 发表于 2022-7-7 05:46:44

一直以为百度是apache

umf5finuzbdisi 发表于 2022-7-7 05:47:28

客户端发送一个请求首先要经过 Master,管理员收到请求后会将请求通知给 Worker。
————
客户端请求是不用经过master的
页: [1] 2
查看完整版本: 喜极而泣,我终于学会了Nginx!