(1)安裝gcc環(huán)境
yum install gcc-c++
(2)安裝PCRE庫,用于解析正則表達式
yum install -y pcre pcre-devel
(3)zlib壓縮和解壓縮依賴
yum install -y zlib zlib-devel
(4)SSL 安全的加密的套接字協(xié)議層,用于HTTP安全傳輸,也就是https
yum install -y openssl openssl-devel
tar -zxvf nginx-1.16.1.tar.gz
mkdir /var/temp/nginx -p
./configure \
--prefix=/usr/local/nginx \
--pid-path=/var/run/nginx/nginx.pid \
--lock-path=/var/lock/nginx.lock \
--error-log-path=/var/log/nginx/error.log \
--http-log-path=/var/log/nginx/access.log \
--with-http_gzip_static_module \
--http-client-body-temp-path=/var/temp/nginx/client \
--http-proxy-temp-path=/var/temp/nginx/proxy \
--http-fastcgi-temp-path=/var/temp/nginx/fastcgi \
--http-uwsgi-temp-path=/var/temp/nginx/uwsgi \
--http-scgi-temp-path=/var/temp/nginx/scgi
注:代表在命令行中換行,用于提高可讀性配置命令:
make
make install
啟動:nginx
停止:./nginx -s stop
重新加載:./nginx -s reload
1、配置upstream
upstream [proxyName] {
server 192.168.1.173:8080;
server 192.168.1.174:8080;
server 192.168.1.175:8080;
}
2、配置server
server {
listem 80;
server_name www.tomcats.com;
location / {
proxy_pass http://tomcats;
}
}
nginx默認采用輪訓的方式進行負載均衡
1、使用加權輪詢
upstream [proxyName] {
server 192.168.1.173:8080 weight=1;
server 192.168.1.174:8080 weight=5;
server 192.168.1.175:8080 weight=2;
}
2、hash負載均衡
upstream [proxyName] {
ip_hash
server 192.168.1.173:8080;
server 192.168.1.174:8080;
server 192.168.1.175:8080;
}
hash算法實際上只會計算 192.168.1這段做哈希
使用ip_hash的注意點:
3、url hash負載均衡
upstream [proxyName] {
hash $request_url;
server 192.168.1.173:8080;
server 192.168.1.174:8080;
server 192.168.1.175:8080;
}
4、最小連接負載均衡
upstream [proxyName] {
least_conn;
server 192.168.1.173:8080;
server 192.168.1.174:8080;
server 192.168.1.175:8080;
}
max_conns
:限制最大同時連接數(shù) 1.11.5之前只能用于商業(yè)版
slow_start
:單位秒,權重在指定時間內從1上升到指定值,不適用與hash負載均衡、隨機負載均衡
如果在 upstream 中只有一臺 server,則該參數(shù)失效(商業(yè)版才有)
down
:禁止訪問
backup
:備用機 只有在其他服務器無法訪問的時候才能訪問到 不適用與hash負載均衡、隨機負載均衡
max_fails
:表示失敗幾次,則標記server已宕機,剔出上游服務 默認值1
fail_timeout
:表示失敗的重試時間 默認值10
1、keepalived
upstream [proxyName] {
server 192.168.1.173:8080 weight=1;
server 192.168.1.174:8080 weight=5;
server 192.168.1.175:8080 weight=2;
keepalive 32; #保持的連接數(shù)
}
server {
listem 80;
server_name www.tomcats.com;
location / {
proxy_pass http://tomcats;
proxy_http_version 1.1; #連接的協(xié)議版本
proxy_set_header Connection ""; 清空連接請求頭
}
}
2、控制瀏覽器緩存
server {
listem 80;
server_name www.tomcats.com;
location / {
proxy_pass http://tomcats;
expires 10s; #瀏覽器緩存10秒鐘
#expires @22h30m #在晚上10點30的時候過期
#expires -1h #緩存在一小時前時效
#expires epoch #不設置緩存
#expires off #緩存關閉,瀏覽器自己控制緩存
#expires max #最大過期時間
}
}
3、反向代理緩存
upstream [proxyName] {
server 192.168.1.173:8080 weight=1;
server 192.168.1.174:8080 weight=5;
server 192.168.1.175:8080 weight=2;
}
#proxy_cache_path 設置緩存保存的目錄的位置
#keys_zone設置共享內以及占用的空間大小
#mas_size 設置緩存最大空間
#inactive 緩存過期時間,錯過此時間自動清理
#use_temp_path 關閉零時目錄
proxy_cache_path /usr/local/nginx/upsteam_cache keys_zone=mycache:5m max_size=1g inactive=8h use_temp_path=off;
server {
listem 80;
server_name www.tomcats.com;
#開啟并使用緩存
proxy_cache mycache;
#針對200和304響應碼的緩存過期時間
proxy_cache_valid 200 304 8h;
location / {
proxy_pass http://tomcats;
}
}
要在nginx中配置https,就必須安裝ssl模塊,也就是: http_ssl_module
。
進入到nginx的解壓目錄:/home/software/nginx-1.16.1
新增ssl模塊(原來的那些模塊需要保留)
./configure \
--prefix=/usr/local/nginx \
--pid-path=/var/run/nginx/nginx.pid \
--lock-path=/var/lock/nginx.lock \
--error-log-path=/var/log/nginx/error.log \
--http-log-path=/var/log/nginx/access.log \
--with-http_gzip_static_module \
--http-client-body-temp-path=/var/temp/nginx/client \
--http-proxy-temp-path=/var/temp/nginx/proxy \
--http-fastcgi-temp-path=/var/temp/nginx/fastcgi \
--http-uwsgi-temp-path=/var/temp/nginx/uwsgi \
--http-scgi-temp-path=/var/temp/nginx/scgi \
--with-http_ssl_module
編譯和安裝
make
make install
把ssl證書 *.crt
和 私鑰 *.key
拷貝到/usr/local/nginx/conf
目錄中。
新增 server 監(jiān)聽 443 端口:
server {
listen 443;
server_name www.imoocdsp.com;
# 開啟ssl
ssl on;
# 配置ssl證書
ssl_certificate 1_www.imoocdsp.com_bundle.crt;
# 配置證書秘鑰
ssl_certificate_key 2_www.imoocdsp.com.key;
# ssl會話cache
ssl_session_cache shared:SSL:1m;
# ssl會話超時時間
ssl_session_timeout 5m;
# 配置加密套件,寫法遵循 openssl 標準
ssl_protocols TLSv1 TLSv1.1 TLSv1.2;
ssl_ciphers ECDHE-RSA-AES128-GCM-SHA256:HIGH:!aNULL:!MD5:!RC4:!DHE;
ssl_prefer_server_ciphers on;
location / {
proxy_pass http://tomcats/;
index index.html index.htm;
}
}
(1)下載
https://www.keepalived.org/download.html
(2)解壓
tar -zxvf keepalived-2.0.18.tar.gz
(3)使用configure命令配置安裝目錄與核心配置文件所在位置:
./configure --prefix=/usr/local/keepalived --sysconf=/etc
prefix:keepalived安裝的位置sysconf:keepalived核心配置文件所在位置,固定位置,改成其他位置則keepalived啟動不了,/var/log/messages
中會報錯
sysconf:keepalived核心配置文件所在位置,固定位置,改成其他位置則keepalived啟動不了,/var/log/messages
中會報錯
配置過程中可能會出現(xiàn)警告信息,如下所示:
*** WARNING - this build will not support IPVS with IPv6. Please install libnl/libnl-3 dev libraries to support IPv6 with IPVS.
# 安裝libnl/libnl-3依賴
yum -y install libnl libnl-devel
(4)安裝keepalived
make && make install
(5)配置文件 在/etc/keepalived/keepalived.conf
(6)忘記安裝配置的目錄,則通過如下命令找到:
whereis keepalived
(7)啟動keepalived
進入sbin目錄
./keepalived
(1)通過命令 vim keepalived.conf
打開配置文件
global_defs {
# 路由id:當前安裝keepalived的節(jié)點主機標識符,保證全局唯一
router_id keep_171
}
vrrp_instance VI_1 {
# 表示狀態(tài)是MASTER主機還是備用機BACKUP
state MASTER
# 該實例綁定的網(wǎng)卡
interface ens33
# 保證主備節(jié)點一致即可
virtual_router_id 51
# 權重,master權重一般高于backup,如果有多個,那就是選舉,誰的權重高,誰就當選
priority 100
# 主備之間同步檢查時間間隔,單位秒
advert_int 2
# 認證權限密碼,防止非法節(jié)點進入
authentication {
auth_type PASS
auth_pass 1111
}
# 虛擬出來的ip,可以有多個(vip)
virtual_ipaddress {
192.168.1.161
}
}
附:查看網(wǎng)卡信息命令
ip addr
(2)啟動keepalived
(3)查看進程
ps -ef|grep keepalived
(4)查看vip(虛擬ip)
在網(wǎng)卡ens33下,多了一個192.168.1.161
,這個就是虛擬ip
(1)拷貝配置文件
etc/init.d/keepalived
拷貝到/etc/init.d/
下etc/sysconfig/keepalived
拷貝到/etc/sysconfig/
下(2)刷新systemctl
systemctl daemon-reload
(3)啟動、停止、重啟keepalived
#啟動
systemctl start keepalived.service
#停止
systemctl stop keepalived.service
#重啟
systemctl restart keepalived.service
(1)修改備機配置
global_defs {
router_id keep_172
}
vrrp_instance VI_1 {
# 備用機設置為BACKUP
state BACKUP
interface ens33
virtual_router_id 51
# 權重低于MASTER
priority 80
advert_int 2
authentication {
auth_type PASS auth_pass 1111
}
virtual_ipaddress {
# 注意:主備兩臺的vip都是一樣的,綁定到同一個vip
192.168.1.161
}
}
(2) 啟動 Keepalived
(3) 訪問vip即可訪問主機,當主機失效時訪問vip就會訪問到備機
(1)編寫腳本
在/etc/keepalived/
下創(chuàng)建腳本check_nginx_alive_or_not
#!/bin/bash
A=`ps -C nginx --no-header |wc -l`
# 判斷nginx是否宕機,如果宕機了,嘗試重啟
if [ $A -eq 0 ];then
/usr/local/nginx/sbin/nginx
# 等待一小會再次檢查nginx,如果沒有啟動成功,則停止keepalived,使其啟動備用機
sleep 3
if [ `ps -C nginx --no-header |wc -l` -eq 0 ];then
killall keepalived
fi
fi
(2)添加運行權限
chmod +x /etc/keepalived/check_nginx_alive_or_not.sh
(3)配置keepalived監(jiān)聽nginx腳本
vrrp_script check_nginx_alive {
script "/etc/keepalived/check_nginx_alive_or_not.sh"
interval 2 # 每隔兩秒運行上一行腳本
weight 10 # 如果腳本運行失敗,則升級權重+10
}
(4)在vrrp_instance中新增監(jiān)控的腳本
track_script {
check_nginx_alive # 追蹤 nginx 腳本
}
(5)重啟Keepalived使得配置文件生效
systemctl restart keepalived
(1)配置DNS輪詢
在同一個域名下配置兩個ip,自行百度
(2)配置第一臺主機
global_defs {
router_id keep_171
}
vrrp_instance VI_1 {
state MASTER i
nterface ens33
virtual_router_id 51
priority 100
advert_int 1
authentication {
auth_type PASS
auth_pass 1111
}
virtual_ipaddress {
192.168.1.161
}
}
vrrp_instance VI_2 {
state BACKUP
interface ens33
virtual_router_id 52
priority 80
advert_int 1
authentication {
auth_type PASS
auth_pass 1111
}
virtual_ipaddress {
192.168.1.162
}
}
(3)配置第二臺主機
global_defs {
router_id keep_172
}
vrrp_instance VI_1 {
state BACKUP
interface ens33
virtual_router_id 51
priority 80
advert_int 1
authentication {
auth_type PASS
auth_pass 1111
}
virtual_ipaddress {
192.168.1.161
}
}
vrrp_instance VI_2 {
state MASTER
interface ens33
virtual_router_id 52
priority 100
advert_int 1
authentication {
auth_type PASS
auth_pass 1111
}
virtual_ipaddress {
192.168.1.162
}
}
(4)重啟兩臺Keepalived
systemctl restart keepalived
(1)NAT模式
(2)TUN模式
(3)DR模式
先關閉掉服務器上網(wǎng)絡配置管理器,避免網(wǎng)絡接口沖突
systemctl stop NetworkManager
systemctl disable NetworkManager
(1)創(chuàng)建子接口(創(chuàng)建LVS的虛擬ip)
進入網(wǎng)卡配置目錄/etc/sysconfig/network-scripts/
,找到網(wǎng)卡配置文件,這里以ifcfg-ens33
為例,拷貝并創(chuàng)建子接口
cp ifcfg-ens33 ifcfg-ens33:1
修改子接口配置如下
DEVICE="ens33:1"
ONBOOT="yes"
IPADDR=192.168.1.150
NETMASK=255.255.255.0
BOOTPROTO=static
service network restart
重啟成功后,ip addr 查看一下,你會發(fā)現(xiàn)多了一個ip,也就是虛擬ip(vip)
注意:阿里云不支持配置網(wǎng)卡,需要購買相應的負載均衡服務,騰訊云支持配置網(wǎng)卡,但需要購買網(wǎng)卡支持,一個網(wǎng)卡支持10個虛擬ip配置
(2)安裝ipvsadm
如今的centos都集成了LVS,所以ipvs是自帶的,我們只需要安裝ipvsadm即可(ipvsadm是管理集群的工具,通過ipvs可以管理集群,查看集群等操作)
yum install ipvsadm
(3)配置服務器(RS)的虛擬ip
進入網(wǎng)卡配置目錄/etc/sysconfig/network-scripts/
,找到ifcfg-lo
,拷貝并創(chuàng)建子接口
cp ifcfg-lo ifcfg-lo:1
修改子接口配置如下
DEVICE="lo:1"
IPADDR=192.168.1.150
NETMASK=255.255.255.255
NETWORK=127.0.0.0
BROADCAST=127.255.255.255
ONBOOT="yes"
NAME=loopback
重啟網(wǎng)絡服務成功后,ip addr
查看一下,你會發(fā)現(xiàn)多了一個ip,也就是虛擬ip(vip)
(4)為服務器(RS)配置arp
ARP響應級別與通告行為參數(shù)說明
arp-ignore:ARP響應級別(處理請求)
0:只要本機配置了ip,就能響應請求
1:請求的目標地址到達對應的網(wǎng)絡接口,才會響應請求
arp-announce:ARP通告行為(返回響應)
0:本機上任何網(wǎng)絡接口都向外通告,所有的網(wǎng)卡都能接受到通告
1:盡可能避免本網(wǎng)卡與不匹配的目標進行通告2:只在本網(wǎng)卡通告
打開sysctl.conf:
vim /etc/sysctl.conf
配置所有網(wǎng)卡、默認網(wǎng)卡以及虛擬網(wǎng)卡的arp響應級別和通告行為,分別對應:all,default,lo
# configration for lvs
net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.default.arp_ignore = 1
net.ipv4.conf.lo.arp_ignore = 1
net.ipv4.conf.all.arp_announce = 2
net.ipv4.conf.default.arp_announce = 2
net.ipv4.conf.lo.arp_announce = 2
刷新配置文件
sysctl -p
增加一個網(wǎng)關,用于接收數(shù)據(jù)報文,當有請求到本機后,會交給lo去處理
route add -host 192.168.1.150 dev lo:1
將網(wǎng)關添加至開機啟動
echo "route add -host 192.168.1.150 dev lo:1" >> /etc/rc.local
(4)使用ipvsadm配置集群規(guī)則
創(chuàng)建LVS節(jié)點,用戶訪問的集群調度者
ipvsadm -A -t 192.168.1.150:80 -s rr -p 5
創(chuàng)建多臺RS真實服務器
ipvsadm -a -t 192.168.1.150:80 -r 192.168.1.171:80 -g
ipvsadm -a -t 192.168.1.150:80 -r 192.168.1.172:80 -g
保存到規(guī)則庫,否則重啟失效
ipvsadm -S
檢查集群
#查看集群列表
ipvsadm -Ln
#查看集群狀態(tài)
ipvsadm -Ln --stats
一些其他命令
# 重啟ipvsadm,重啟后需要重新配置
service ipvsadm restart
# 查看持久化連接
ipvsadm -Ln --persistent-conn
# 查看連接請求過期時間以及請求源ip和目標ip
ipvsadm -Lnc
# 設置tcp tcpfin udp 的過期時間(一般保持默認)
ipvsadm --set 1 1 1
# 查看過期時間
ipvsadm -Ln --timeout
(5)訪問虛擬ip,完成LVS搭建
靜態(tài):根據(jù)LVS本身自由的固定的算法分發(fā)用戶請求。
動態(tài):會根據(jù)流量的不同,或者服務器的壓力不同來分配用戶請求,這是動態(tài)計算的。
最終結果,會把這個請求交給得出運算結果最小的服務器。最少隊列調度(Never Queue 簡寫’nq’):永不使用隊列。如果有Real Server的連接數(shù)等于0,則直接把這個請求分配過去,不需要在排隊等待運算了(sed運算)。
如果原先服務器上配置了LVS+nginx需要清空ipvsadm中的配置
ipvsadm -C
如果配置了Keepalived+Nginx
雙主集群也需要去除掉Keepalived中原先的配置,按照的后文進行配置
在LVS的機器上安裝keepalived,安裝過程參考上文
(1)修改keepalived的配置
global_defs {
router_id keep_151
}
vrrp_instance VI_1 {
state MASTER
interface ens33
virtual_router_id 41
priority 100
advert_int 1
authentication {
auth_type PASS
auth_pass 1111
}
virtual_ipaddress {
192.168.1.150
}
}
#配置集群訪問的ip+端口,端口和nginx保持一致
virtual_server 192.168.1.150 80{
#健康檢查的時間,單位:秒
delay_loop 6
#配置負載均衡的算法,默認的輪詢
lb_algo rr
#設置LVS的模式 NAT|TUN|DR
lb-kind DR
#設置會話持久化的時間
persistence_timeout 5
#協(xié)議
protocol TCP
#配置負載均衡的真實服務器,也就是nginx節(jié)點的具體的ip地址
real_server 192.168.1.171 80{
#輪詢權重配比
weight 1
#設置健康檢查
TCP_CHECK {
#檢查80端口
connect_port 80
#超時時間
connect_timeout 2
#重試次數(shù)
nb_get_retry 2
#重試間隔時間
delay_before_retry 3
}
}
real_server 192.168.1.171 80{
weight 1
TCP_CHECK {
connect_port 80
connect_timeout 2
nb_get_retry 2
delay_before_retry 3
}
}
}
(2)啟動/重啟keepalived
systemctl restart keepalived
配置在備用機上
global_defs {
router_id keep_152
}
vrrp_instance VI_1 {
state BACKUP
interface ens33
virtual_router_id 41
priority 50
advert_int 1
authentication {
auth_type PASS
auth_pass 1111
}
virtual_ipaddress {
192.168.1.150
}
}
#配置集群訪問的ip+端口,端口和nginx保持一致
virtual_server 192.168.1.150 80{
#健康檢查的時間,單位:秒
delay_loop 6
#配置負載均衡的算法,默認的輪詢
lb_algo rr
#設置LVS的模式 NAT|TUN|DR
lb-kind DR
#設置會話持久化的時間
persistence_timeout 5
#協(xié)議
protocol TCP
#配置負載均衡的真實服務器,也就是nginx節(jié)點的具體的ip地址
real_server 192.168.1.171 80{
#輪詢權重配比
weight 1
#設置健康檢查
TCP_CHECK {
#檢查80端口
connect_port 80
#超時時間
connect_timeout 2
#重試次數(shù)
nb_get_retry 2
#重試間隔時間
delay_before_retry 3
}
}
real_server 192.168.1.171 80{
weight 1
TCP_CHECK {
connect_port 80
connect_timeout 2
nb_get_retry 2
delay_before_retry 3
}
}
}
來源:blog.csdn.net/qq_34886352/article/
details/103581973
PS:防止找不到本篇文章,可以收藏點贊/在看,方便翻閱查找哦。