Bootstrap

nginx的那些实战骚操作(持续更新中)

nginx的那些实战骚操作(持续更新中)

一、第一步当然是安装,只提供linux,windows自行百度

#安装 pcre 依赖
wget http://downloads.sourceforge.net/project/pcre/pcre/8.37/pcre-8.37.tar.gz
#解压压缩文件
tar –xvf pcre-8.37.tar.gz
#进入安装目录后./configure 完成后,回到 pcre 目录下执行 make,最后执行 make install
./configure
make
make install
#安装 openssl 、zlib 、 gcc 依赖
yum -y install make zlib zlib-devel gcc-c++ libtool openssl openssl-devel

#安装nginx,解压
./configure
make && make install
#上面如果失败
yum install -y gcc gcc-c++
#进入目录 /usr/local/nginx/sbin/nginx 启动服务
./nginx

二、nginx常用的命令,复习一下

#启动命令,在/usr/local/nginx/sbin 目录下执行
./nginx

#关闭命令,在/usr/local/nginx/sbin 目录下执行
./nginx -s stop

#重新加载命令,在/usr/local/nginx/sbin 目录下执行
./nginx -s reload

三、介绍一下,nginx.conf配置文件

#配置文件存在的目录
/usr/local/nginx/conf 下

#1、全局块 
#从配置文件开始到 events 块之间的内容,主要会设置一些影响 nginx 服务器整体运行的配置指令,主要包括配
#置运行 Nginx 服务器的用户(组)、允许生成的 worker process 数,进程 PID 存放路径、日志存放路径和类型以
#及配置文件的引入等。
#这是 Nginx 服务器并发处理服务的关键配置,worker_processes 值越大,可以支持的并发处理量也越多,但是
#会受到硬件、软件等设备的制约

worker_processes  1;


#2、events 块
#events 块涉及的指令主要影响 Nginx 服务器与用户的网络连接,常用的设置包括是否开启对多 work process 
#下的网络连接进行序列化,是否允许同时接收多个网络连接,选取哪种事件驱动模型来处理连接请求,每个 word 
#process 可以同时支持的最大连接数等。
#上述例子就表示每个 work process 支持的最大连接数为 1024.
#这部分的配置对 Nginx 的性能影响较大,在实际中应该灵活配置。
events {
    worker_connections  1024;
}


#3、http 块
这算是 Nginx 服务器配置中最频繁的部分,代理、缓存和日志定义等绝大多数功能和第三方模块的配置都在这里。
需要注意的是:http 块也可以包括 http 全局块、server 块。
 #3-1 http 全局块
 	http 全局块配置的指令包括文件引入、MIME-TYPE 定义、日志自定义、连接超时时间、单链接请求数上限等。
 #3-2 server 块
     这块和虚拟主机有密切关系,虚拟主机从用户角度看,和一台独立的硬件主机是完全一样的,该技术的产生是为了
    节省互联网服务器硬件成本。
     每个 http 块可以包括多个 server 块,而每个 server 块就相当于一个虚拟主机。
     而每个 server 块也分为全局 server 块,以及可以同时包含多个 locaton 块。
     1、全局 server 块
     最常见的配置是本虚拟机主机的监听配置和本虚拟主机的名称或 IP 配置。
     2、location 块
     一个 server 块可以配置多个 location 块。
     这块的主要作用是基于 Nginx 服务器接收到的请求字符串(例如 server_name/uri-string),对虚拟主机名称
    (也可以是 IP 别名)之外的字符串(例如 前面的 /uri-string)进行匹配,对特定的请求进行处理。地址定向、数据缓
    存和应答控制等功能,还有许多第三方模块的配置也在这里进行。

四、实战部分,很重要

1、反向代理

#1、反向代理实例一
#通过访问nginx=====》tomcat进行代理
#,修改nginx.conf下面为全部的配置文件,
#192.168.253.130 为你的nginx服务器ip
#http://127.0.0.1:8001 为你的tomcat的访问路径
worker_processes  1;
events {
    worker_connections  1024;
}
http {
    include       mime.types;
    default_type  application/octet-stream;
    sendfile        on;
    keepalive_timeout  65;
    server {
        listen       80;
        server_name  192.168.253.130;

        location / {
	    proxy_pass http://127.0.0.1:8001;
            index  index.html index.htm;
        }
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }
    }
}

#修改tomcat端口为8001,启动tomcat
#重新加载nginx

然后访问 192.168.253.130===》》就会代理到 tomcat服务器



#2、反向代理实例二
#实现效果:使用 nginx 反向代理,根据访问的路径跳转到不同端口的服务中
nginx 监听端口为 9001,准备两台tomcat
访问 http://192.168.253.130:9001/edu/ 直接跳转到tomcat1 127.0.0.1:8081
访问 http://192.168.253.130:9001/vod/ 直接跳转到tomcat2 127.0.0.1:8082

#在 http 块中添加 server{}

所有的配置如下
worker_processes  1;
events {
    worker_connections  1024;
}
http {
    include       mime.types;
    default_type  application/octet-stream;
    sendfile        on;
    keepalive_timeout  65;
    server {
        listen       80;
        server_name  192.168.253.130;

        location / {
	    proxy_pass http://127.0.0.1:8001;
            index  index.html index.htm;
        }
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }
    }
    server {
        listen       9001;
        server_name  192.168.253.130;

        location ~ /edu/ {
	    proxy_pass http://127.0.0.1:8081;
        }

	location ~ /vod/ {
	    proxy_pass http://127.0.0.1:8082;
        }
    }
}

然后访问 192.168.253.130:9001/edu/a.html
===》》就会代理到 tomcat服务器127.0.0.1:8081//edu/a.html
然后访问 192.168.253.130:9001/vod/a.html
===》》就会代理到 tomcat服务器127.0.0.1:8081/vod/a.html


#####补充说明
1、= :用于不含正则表达式的 uri 前,要求请求字符串与 uri 严格匹配,如果匹配
成功,就停止继续向下搜索并立即处理该请求。
2、~:用于表示 uri 包含正则表达式,并且区分大小写。
3、~*:用于表示 uri 包含正则表达式,并且不区分大小写。
4、^~:用于不含正则表达式的 uri 前,要求 Nginx 服务器找到标识 uri 和请求字
符串匹配度最高的 location 后,立即使用此 location 处理请求,而不再使用 location 
块中的正则 uri 和请求字符串做匹配。
 注意:如果 uri 包含正则表达式,则必须要有 ~ 或者 ~* 标识。

2、负载均衡

#首先准备两个同时启动的Tomcat
配置文件全部如下
worker_processes  1;
events {
    worker_connections  1024;
}
http {
    include       mime.types;
    default_type  application/octet-stream;
    sendfile        on;
    keepalive_timeout  65;
    server {
        listen       80;
        server_name  192.168.253.130;

        location / {
	    proxy_pass http://127.0.0.1:8001;
            index  index.html index.htm;
        }
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }
    }
    server {
        listen       9001;
        server_name  192.168.253.130;

        location ~ /edu/ {
	    proxy_pass http://127.0.0.1:8081;
        }

	location ~ /vod/ {
	    proxy_pass http://127.0.0.1:8082;
        }
    }
	
    upstream myservers{
	server 192.168.253.130:8081;
	server 192.168.253.130:8082;
    }

    server {
        listen       9010;
        server_name  192.168.253.130;

        location / {
	    proxy_pass http://myservers;
	    proxy_connect_timeout 10;
        }
    }


}

#myservers名称自定义
#访问192.168.253.130:9010
=====>>>一个一次
192.168.253.130:8081;
192.168.253.130:8082;


#其他的负载均衡方式
1、轮询(默认)
每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器 down 掉,能自动剔除。
 
 upstream myservers{
	server 192.168.253.130:8081;
	server 192.168.253.130:8082;
    }
    
    
2、weight
weight 代表权,重默认为 1,权重越高被分配的客户端越多
    upstream myservers{
	server 192.168.253.130:8081 weight=1;
	server 192.168.253.130:8082 weight=2;
    }

3、ip_hash
每个请求按访问 ip 的 hash 结果分配,这样每个访客固定访问一个后端服务器,可以解决 session 的问题。
upstream myservers{
	ip_hash;
	server 192.168.253.130:8081;
	server 192.168.253.130:8082;
    }
 
4、fair(第三方)
按后端服务器的响应时间来分配请求,响应时间短的优先分配。
upstream myservers{
	server 192.168.253.130:8081;
	server 192.168.253.130:8082;
	fair;
}
;