Nginx使用手册

本文最后更新于:2021年6月21日 上午

一、安装Nginx

Docker安装流程

docker pull nginx:1.10

docker run -p 80:80 --name nginx -v /mydata/nginx/html:/usr/share/nginx/html -v /mydata/nginx/logs:/var/log/nginx  -d nginx:1.10

# 拷贝出容器中的配置文件
docker container cp nginx:/etc/nginx /mydata/nginx/

cd /mydata/nginx/
ls
mv nginx conf

docker stop nginx
docker rm nginx

# 再次运行容器,并关联配置文件
docker run -p 80:80 --name nginx -v /mydata/nginx/html:/usr/share/nginx/html -v /mydata/nginx/logs:/var/log/nginx  -v /mydata/nginx/conf:/etc/nginx -d nginx:1.10

二、Nginx概述

Nginx是一个web服务器和反向代理服务器,常用于正向代理、反向代理、负载均衡及动静分离等等。

  • 占用内存小,可以实现高并发连接,处理响应快
  • 配置简单,可以比较容易地实现反向代理和负载均衡
  • 动态处理较差
作用 示例图 解释
正向代理 对客户端进行代理,比如日常使用的VPN就是正向代理类型。
反向代理 对服务器进行代理,客户端将请求发送给反向代理服务器,由反向代理服务器选择目标服务器处理请求。隐藏了真实服务器的IP地址。
负载均衡 对IP进行Hash,根据HashCode选择服务器 将原先集中到单个服务器上的请求,分发到多个服务器上。常见的分发算法有轮询、加权、IPHash等
动静分离 image-20210610205231844 分离不需要后台处理的静态资源和需要后台服务器处理的动态资源,以提高资源响应速度。

三、负载均衡的策略

  • 轮训
  • 加权:权重越来,被访问的概率就越高
  • IP哈希:对用户的IP地址计算哈希值,根据哈希值分配服务器。使得来自同一个IP地址的访客固定访问同一个后端服务器,以解决session 共享等问题
  • fair,按后端服务器的响应时间来分配请求,响应时间短的服务器优先被分配请求

四、配置文件解析

主要包含全局配置块、events块、http块等。

请求过来时,Nginx先根据listen和server_name匹配server块,再根据location条件匹配具体的location块.

location对用户请求的URL进行匹配,匹配成功后再进行响应的操作

# 优先级1,精确匹配。根路径 
location =/ { 
	return 400;
}

# 优先级2,匹配以某个字符串开头。此处匹配以av开头的路径,区分大小写 
location ^~ /av { 
	root /data/av/;
}

# 优先级3,区分大小写的正则匹配。匹配/media*****路径 
location ~ /media { 
	alias /data/static/;
}

#优先级4 ,不区分大小写的正则匹配。所有的****.jpg|gif|png 都走这里 
location ~* .*\.(jpg|gif|png|js|css)$ { 
	root /data/av/;
}

#优先7,通用匹配 
location / { 
	return 403;
}

详细nginx.conf

# 定义Nginx运行的用户和用户组
user www www;

# nginx进程数,建议设置为等于CPU总核心数.
worker_processes 8;

# 全局错误日志定义类型,[ debug | info | notice | warn | error | crit ]
error_log /var/log/nginx/error.log info;

# 进程文件
pid /var/run/nginx.pid;

# 一个nginx进程打开的最多文件描述符数目,建议与ulimit -n的值保持一致.
worker_rlimit_nofile 65535;

# 工作模式与连接数上限
events
{
    # 参考事件模型,use [ kqueue | rtsig | epoll | /dev/poll | select | poll ]
    use epoll;
    # 单个进程最大连接数,默认为512
    worker_connections 1024;  
}

# 设定http服务器
http
{
    include mime.types; #文件扩展名与文件类型映射表
    default_type application/octet-stream; #默认文件类型
    charset utf-8; #默认编码
    server_names_hash_bucket_size 128; #服务器名字的hash表大小
    client_header_buffer_size 32k; #上传文件大小限制
    large_client_header_buffers 4 64k; #设定请求缓
    client_max_body_size 8m; #设定请求缓
    keepalive_timeout 65;  # 连接超时时间,默认为75s,可以在http,server,location块。
    autoindex on; # 显示目录,默认关闭
    autoindex_exact_size on; # 显示文件确切大小,默认为on,单位是bytes
    autoindex_localtime on; # 显示文件本地时间,默认为off,GMT时间;改为on后,显示的文件时间为文件的服务器时间
    
    sendfile on; # 开启高效文件传输模式,sendfile指令指定nginx是否调用sendfile函数来输出文件,对于普通应用设为 on,如果用来进行下载等应用磁盘IO重负载应用,可设置为off,以平衡磁盘与网络I/O处理速度,降低系统的负载.注意:如果图片显示不正常把这个改成off.
    tcp_nopush on; # 防止网络阻塞
    tcp_nodelay on; # 防止网络阻塞
    
    
    # FastCGI相关参数是为了改善网站的性能:减少资源占用,提高访问速度.下面参数看字面意思都能理解.
    fastcgi_connect_timeout 300; ## 链接
    fastcgi_send_timeout 300;  ##读取 是指nginx进程向fastcgi进程发送request的整个过程的超时时间
    fastcgi_read_timeout 300;  ##发请求 是指fastcgi进程向nginx进程发送response的整个过程的超时时间
    fastcgi_buffer_size 64k;
    fastcgi_buffers 4 64k;
    fastcgi_busy_buffers_size 128k;
    fastcgi_temp_file_write_size 128k;
    
    # gzip模块设置
    gzip on; #开启gzip压缩输出
    gzip_min_length 1k; #允许压缩的页面的最小字节数,页面字节数从header偷得content-length中获取.默认是0,不管页面多大都进行压缩.建议设置成大于1k的字节数,小于1k可能会越压越大
    gzip_buffers 4 16k; #表示申请4个单位为16k的内存作为压缩结果流缓存,默认值是申请与原始数据大小相同的内存空间来存储gzip压缩结果
    gzip_http_version 1.1; #压缩版本(默认1.1,目前大部分浏览器已经支持gzip解压.前端如果是squid2.5请使用1.0)
    gzip_comp_level 2; #压缩等级.1压缩比最小,处理速度快.9压缩比最大,比较消耗cpu资源,处理速度最慢,但是因为压缩比最大,所以包最小,传输速度快
    gzip_types text/plain application/x-javascript text/css application/xml;
    #压缩类型,默认就已经包含text/html,所以下面就不用再写了,写上去也不会有问题,但是会有一个warn.
    gzip_vary on;#选项可以让前端的缓存服务器缓存经过gzip压缩的页面.例如:用squid缓存经过nginx压缩的数据
    
    #开启限制IP连接数的时候需要使用
    #limit_zone crawler $binary_remote_addr 10m;
    
    
    # 虚拟主机1的配置
    server
    {
        # 监听端口
        listen 80;
        # 域名可以有多个,用空格隔开
        server_name 127.0.0.1;
        # HTTP 自动跳转 HTTPS
        rewrite ^(.*) https://www.baidu.com;
        deny 127.0.0.1;  #拒绝的ip
        allow 172.18.5.54; #允许的ip 
    }
    upstream myserver {   
      server 127.0.0.1:8080;
      server 192.168.24.189:8080 backup;  #热备
    }
    
    # 虚拟主机2的配置
    server
    {
        # 监听端口 HTTPS
        listen 443 ssl;
        server_name https://www.baidu.com;  # 提高服务的域名主机名
        root /data/www/;   # 站点根目录
        # 配置域名证书
        ssl_certificate      C:\WebServer\Certs\certificate.crt;
        ssl_certificate_key  C:\WebServer\Certs\private.key;
        ssl_session_cache    shared:SSL:1m;
        ssl_session_timeout  5m;
        ssl_protocols SSLv2 SSLv3 TLSv1;
        ssl_ciphers ALL:!ADH:!EXPORT56:RC4+RSA:+HIGH:+MEDIUM:+LOW:+SSLv2:+EXP;
        ssl_prefer_server_ciphers  on;
    
        index index.html index.htm index.php;  # 默认首页文件
        
        location ~ .*\.(php|php5)?$
        {
            fastcgi_pass 127.0.0.1:9000;
            fastcgi_index index.php;
            include fastcgi.conf;
        }
        
        # 配置地址拦截转发,解决跨域验证问题
        location /oauth/{
            proxy_pass https://localhost:13580/oauth/;
            proxy_set_header HOST $host;
            proxy_set_header X-Real-IP $remote_addr;
            proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
        }
        
        # 图片缓存时间设置
        location ~ .*\.(gif|jpg|jpeg|png|bmp|swf)$ {
            expires 10d;
        }
        
        # JS和CSS缓存时间设置
        location ~ .*\.(js|css)?$ {
            expires 1h;
        }

        # 日志格式设定
        log_format access '$server_name $remote_addr -$remote_user [$time_local] "$request"'
                  '$status $uptream_status $body_bytes_sent "$http_referer"'
                  '"$http_user_agent" "$http_x_forwarded_for" '
                  '$ssl_protocol $ssl_cipher $upstream_addr $request_time $upstream_response_time';
       # 定义本虚拟主机的访问日志
        access_log /var/log/nginx/access.log access;
        
        # 设定查看Nginx状态的地址.StubStatus模块能够获取Nginx自上次启动以来的工作状态,此模块非核心模块,需要在Nginx编译安装时手工指定才能使用
        location /NginxStatus {
            stub_status on;
            access_log on;
            auth_basic "NginxStatus";
            auth_basic_user_file conf/htpasswd;
            #htpasswd文件的内容可以用apache提供的htpasswd工具来产生.
        }
    }
}

五、解决前端跨域问题

  • 添加请求头Access-Control-Allow-Origin 、Access-Control-Allow-Methods、Access-Control-Allow-Headers
  • 对那些可能对服务器数据产生副作用的HTTP 请求方法,浏览器必须首先使用 OPTIONS 方法发起一个预检请求(preflight request),从而获知服务端是否允许该跨域请求。服务器确认允许之后,才发起实际的 HTTP 请求
# 跨域请求的接口是: http://www.test.com/exchangeApi/xxxx

server {
    listen 80;
    server_name test.com www.test.com;
    root /data/web/homepage;
    index index.html;
 
 
    location ~ /exchangeApi/ {
        add_header Access-Control-Allow-Origin *;
        add_header Access-Control-Allow-Methods 'GET, POST, OPTIONS';
        add_header Access-Control-Allow-Headers 'DNT,X-Mx-ReqToken,Keep-Alive,User-Agent,X-Requested-With,If-Modified-Since,Cache-Control,Content-Type,Authorization';
 
        if ($request_method = 'OPTIONS') {   # 发送预检请求
            return 204;
        }
 
        ....
    }
}

六、Nginx高可用

通过安装keepalived和部署多台Nginx服务器来避免一台Nginx服务器挂了,整个Nginx服务崩溃。

[root@192 usr]# yum install keepalived -y
[root@192 usr]# rpm -q -a keepalived
keepalived-1.3.5-16.el7.x86_64

[root@192 keepalived]# cd /etc/keepalived
[root@192 keepalived]# vi keepalived.conf 

global_defs {
   notification_email {
     acassen@firewall.loc
     failover@firewall.loc
     sysadmin@firewall.loc
   }
   notification_email_from Alexandre.Cassen@firewall.loc
   smtp_server 192.168.25.147
   smtp_connect_timeout 30
   router_id LVS_DEVEL # 访问的主机地址
}

vrrp_script chk_nginx {
  script "/usr/local/src/nginx_check.sh"  # 检测文件的地址
  interval 2   # 检测脚本执行的间隔
  weight 2   # 权重
}

vrrp_instance VI_1 {
    state BACKUP    # 主机MASTER、备机BACKUP    
    interface ens33   # 网卡
    virtual_router_id 51 # 同一组需一致
    priority 90  # 访问优先级,主机值较大,备机较小
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {
        192.168.25.50  # 虚拟ip
    }
}


[root@192 sbin]# systemctl start keepalived.service

一个Master进程管理者多个work进程,

为什么单线程的Nginx性能这么高?

  • 主要是由于它采用AIO机制来响应请求
  • Nginx有一个master进程及多个work进程:master进程进行收集、分发请求,每次一个请求过来,master就会拉起一个worker进程负责处理这个请求;但是worker进程并不是一直在处理,当处理到可能发生阻塞的地方,比如向上游(后端)服务器转发请求并等待返回,它就去处理别的事情了,等后台服务器返回响应,这个worker收到通知再回来继续做剩下的事情。相当于充分利用了等待时间
  • 基于AIO机制处理请求,不会为每个请求分配CPU和内存资源,同时也节省了线程上下文切换的时间

Nginx优化

(1)调整worker_processes,尽量和CPU数量一致

(2)最大化worker_connections,即1024

(3)启用GZIP,压缩文件大小,提高响应速度

(4)为静态资源开启缓存

location ~* .(jpg|jpeg|png|gif|ico|css|js)$ {
	expires 365d;
}

(5)调整Timeout,避免频繁开启和关闭连接

参考

【1】Nginx的这些妙用,你肯定有不知道的! - Document (macrozheng.com)

【2】搞懂Nginx一篇文章就够了_阿杰-CSDN博客


本博客所有文章除特别声明外,均采用 CC BY-SA 4.0 协议 ,转载请注明出处!