“搭建lvs+keepalivedy双主高可用负载均衡系统”的版本间的差异
跳到导航
跳到搜索
小 (导入1个版本) |
|||
第657行: | 第657行: | ||
evan@freebsd-512mb-sfo2-01:~ % curl -H 'Host:a.com' http://148.66.11.240 | evan@freebsd-512mb-sfo2-01:~ % curl -H 'Host:a.com' http://148.66.11.240 | ||
nginx 2 | nginx 2 | ||
− | |||
</pre> | </pre> | ||
− | |||
=nginx安装= | =nginx安装= |
2019年10月15日 (二) 07:34的最新版本
目录
Preface 前言and info
Mon Aug 19 17:13:45 CST 2019 Note 1. 注意脑裂问题 2. 要添加脚本 ? vrrp_script jiancha { #脚本名称 script "/server/scripts/jiancha.sh" #定义检查的脚本 interval 2 #每隔2秒执行 weight 1 #权重分配数量 track_script { #执行脚本 jiancha #脚本名称 }
常用 负载均衡器
F5 LVS nginx haproxy lvs 目前有三种IP负载均衡技术(VS/NAT、VS/TUN和VS/DR),十种调度算法(rrr|wrr|lc|wlc|lblc|lblcr|dh|sh|sed|nq)
常用HA软件
keepalived heartbeat
info
vip 11.240 10.3.10.146(intraip) master lvs01 148.66.11.27 10.3.10.144 172.23.11.144 lvs+keepalive backup lvs02 148.66.11.57 10.3.10.145 172.23.11.145 lvs+keepalive web1 java-01 172.23.11.141 10.3.10.141 jdk web2 java-02 172.23.11.142 10.3.10.142 jdk web3 pjava-03 172.23.11.143 10.3.10.143 jdk
类似的
搭建keepalived+haproxy双主高可用负载均衡系统
firewall
#lvs master and slave firewall-cmd --permanent --add-port=80/tcp firewall-cmd --permanent --add-port=443/tcp firewall-cmd --reload
开启路由转发功能
分别在lvs master和lvs slave执行如下操作: vim /etc/sysctl.conf net.ipv4.ip_forward = 1 net.ipv4.conf.all.send_redirects = 0 net.ipv4.conf.default.send_redirects = 0 net.ipv4.conf.eth0.send_redirects = 0 net.ipv4.ip_nonlocal_bind = 1 # sysctl -p #使用LVS的DR模式最好需设置两个arp相关的参数 #开启IP转发功能 sysctl -w net.ipv4.ip_forward=1 #开启允许绑定非本机的IP sysctl -w net.ipv4.ip_nonlocal_bind = 1 net.ipv4.ip_nonlocal_bind:此参数表示是否允许服务绑定一个本机不存在的IP地址; 使用场景:有些服务需要依赖一个vip才能启动,但是此vip不在本机上,当vip飘移到本机上时才存在;但是服务又需要提前启动,例如haproxy,nginx等代理需要绑定vip时; 0:默认值,表示不允许服务绑定一个本机不存的地址 1:表示允许服务绑定一个本机不存在的地址
开始
lvs
ipvs安装 分别在lvs master和lvs slave执行如下操作: yum -y install ipvsadm ipvsadm lsmod | grep ip_vs ip_vs_rr 12600 2 ip_vs 141432 4 ip_vs_rr nf_conntrack 133053 1 ip_vs libcrc32c 12644 3 xfs,ip_vs,nf_conntrack
keepalive
keepalived安装
分别在lvs master和lvs slave执行如下操作: yum -y install keepalived
keepalived配置
lvs master的keepalived配置如下
cat keepalived.conf #master #解说 # lb_algo rr rr 调试算法为rr 轮询算法 # lb_kind DR DR模式 ! Configuration File for keepalived global_defs { # notification_email { # [email protected] # [email protected] # [email protected] # } # notification_email_from [email protected] # smtp_server 192.168.200.1 # smtp_connect_timeout 30 router_id LVS_01 #vrrp_skip_check_adv_addr #vrrp_strict #vrrp_garp_interval 0 #vrrp_gna_interval 0 } vrrp_instance VI_1 { state MASTER interface eth0 virtual_router_id 51 priority 100 advert_int 1 authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { #148.66.11.240/24 dev eth0 label eth0:1 10.3.10.146/24 dev eth0 label eth0:1 } } #http virtual_server 10.3.10.146 80 { delay_loop 6 lb_algo rr lb_kind DR persistence_timeout 50 protocol TCP real_server 10.3.10.141 80 { weight 1 TCP_CHECK { connect_timeout 3 nb_get_retry 3 delay_before_retry 3 connect_port 80 } } real_server 10.3.10.142 80 { weight 1 TCP_CHECK { connect_timeout 3 nb_get_retry 3 delay_before_retry 3 connect_port 80 } } real_server 10.3.10.143 80 { weight 1 TCP_CHECK { connect_timeout 3 nb_get_retry 3 delay_before_retry 3 connect_port 80 } } } #https virtual_server 10.3.10.146 443 { delay_loop 6 lb_algo rr lb_kind DR persistence_timeout 50 protocol TCP real_server 10.3.10.141 443 { weight 1 TCP_CHECK { connect_timeout 3 nb_get_retry 3 delay_before_retry 3 connect_port 443 } } real_server 10.3.10.142 443 { weight 1 TCP_CHECK { connect_timeout 3 nb_get_retry 3 delay_before_retry 3 connect_port 443 } } real_server 10.3.10.143 443 { weight 1 TCP_CHECK { connect_timeout 3 nb_get_retry 3 delay_before_retry 3 connect_port 443 } } } #virtual_server 10.3.101.99 46656 { # delay_loop 6 # lb_algo rr # lb_kind DR # persistence_timeout 50 # protocol TCP # real_server 10.3.101.101 46656 { # weight 1 # TCP_CHECK { # connect_timeout 3 # nb_get_retry 3 # delay_before_retry 3 # connect_port 46656 # } # } #} # #virtual_server 10.3.101.99 46657 { # delay_loop 6 # lb_algo rr # lb_kind DR # persistence_timeout 50 # protocol TCP # # real_server 10.3.101.151 46657 { # weight 1 # TCP_CHECK { # connect_timeout 3 # nb_get_retry 3 # delay_before_retry 3 # connect_port 46657 # } # } #} #
lvs salve keepalive配置如下:
cat keepalived.conf ! Configuration File for keepalived ##salve global_defs { # notification_email { # [email protected] # [email protected] # [email protected] # } # notification_email_from [email protected] # smtp_server 192.168.200.1 # smtp_connect_timeout 30 router_id LVS_02 #vrrp_skip_check_adv_addr #vrrp_strict #vrrp_garp_interval 0 #vrrp_gna_interval 0 } vrrp_instance VI_1 { state BACKUP interface eth0 virtual_router_id 51 priority 80 advert_int 1 authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { #148.66.11.240/24 dev eth0 label eth0:1 10.3.10.146/24 dev eth0 label eth0:1 } } virtual_server 10.3.10.146 80 { delay_loop 6 lb_algo rr lb_kind DR persistence_timeout 50 protocol TCP real_server 10.3.10.141 80 { weight 1 TCP_CHECK { connect_timeout 3 nb_get_retry 3 delay_before_retry 3 connect_port 80 } } real_server 10.3.10.142 80 { weight 1 TCP_CHECK { connect_timeout 3 nb_get_retry 3 delay_before_retry 3 connect_port 80 } } real_server 10.3.10.143 80 { weight 1 TCP_CHECK { connect_timeout 3 nb_get_retry 3 delay_before_retry 3 connect_port 80 } } } #https virtual_server 10.3.10.146 443 { delay_loop 6 lb_algo rr lb_kind DR persistence_timeout 50 protocol TCP real_server 10.3.10.141 443 { weight 1 TCP_CHECK { connect_timeout 3 nb_get_retry 3 delay_before_retry 3 connect_port 443 } } real_server 10.3.10.142 443 { weight 1 TCP_CHECK { connect_timeout 3 nb_get_retry 3 delay_before_retry 3 connect_port 443 } } real_server 10.3.10.143 443 { weight 1 TCP_CHECK { connect_timeout 3 nb_get_retry 3 delay_before_retry 3 connect_port 443 } } } #这些端口 干啥的 #virtual_server 10.3.101.99 46656 { # delay_loop 6 # lb_algo rr # lb_kind DR # persistence_timeout 50 # protocol TCP # # real_server 10.3.101.101 46656 { # weight 1 # TCP_CHECK { # connect_timeout 3 # nb_get_retry 3 # delay_before_retry 3 # connect_port 46656 # } # } #} # #virtual_server 10.3.101.99 46657 { # delay_loop 6 # lb_algo rr # lb_kind DR # persistence_timeout 50 # protocol TCP # # real_server 10.3.101.151 46657 { # weight 1 # TCP_CHECK { # connect_timeout 3 # nb_get_retry 3 # delay_before_retry 3 # connect_port 46657 # } # } #}
keepalived 配置参数 解说
global_defs { notification_email { [email protected] #设置报警邮件地址,可以设置多个,每行一个。 [email protected] #需开启本机的sendmail服务 [email protected] } notification_email_from [email protected] #设置邮件的发送地址 smtp_server 127.0.0.1 #设置smtp server地址 smtp_connect_timeout 30 #设置连接smtp server的超时时间 router_id LVS_DEVEL #表示运行keepalived服务器的一个标识。发邮件时显示在邮件主题的信息 } vrrp_instance VI_1 { state MASTER #指定keepalived的角色,MASTER表示此主机是主服务器,BACKUP表示此主机是备用服务器 interface eno16777736 #指定HA监测网络的接口 virtual_router_id 51 #虚拟路由标识,这个标识是一个数字,同一个vrrp实例使用唯一的标识。即同一vrrp_instance下,MASTER和BACKUP必须是一致的 priority 100 #定义优先级,数字越大,优先级越高,在同一个vrrp_instance下,MASTER的优先级必须大于BACKUP的优先级 advert_int 1 #设定MASTER与BACKUP负载均衡器之间同步检查的时间间隔,单位是秒 authentication { #设置验证类型和密码 auth_type PASS #设置验证类型,主要有PASS和AH两种 auth_pass 1111 #设置验证密码,在同一个vrrp_instance下,MASTER与BACKUP必须使用相同的密码才能正常通信 } virtual_ipaddress { #设置虚拟IP地址,可以设置多个虚拟IP地址,每行一个 172.16.122.100 } } virtual_server 172.16.122.100 80 { #设置虚拟服务器,需要指定虚拟IP地址和服务端口,IP与端口之间用空格隔开 delay_loop 6 #设置运行情况检查时间,单位是秒 lb_algo rr #设置负载调度算法,这里设置为rr,即轮询算法 lb_kind DR #设置LVS实现负载均衡的机制,有NAT、TUN、DR三个模式可选 nat_mask 255.255.255.0 persistence_timeout 0 #会话保持时间,单位是秒。这个选项对动态网页是非常有用的,为集群系统中的session共享提供了一个很好的解决方案。 #有了这个会话保持功能,用户的请求会被一直分发到某个服务节点,直到超过这个会话的保持时间。 #需要注意的是,这个会话保持时间是最大无响应超时时间,也就是说,用户在操作动态页面时,如果50秒内没有执行任何操作 #那么接下来的操作会被分发到另外的节点,但是如果用户一直在操作动态页面,则不受50秒的时间限制 protocol TCP #指定转发协议类型,有TCP和UDP两种 real_server 172.16.122.193 80 { #配置服务节点1,需要指定real server的真实IP地址和端口,IP与端口之间用空格隔开 weight 1 #配置服务节点的权值,权值大小用数字表示,数字越大,权值越高,设置权值大小可以为不同性能的服务器 #分配不同的负载,可以为性能高的服务器设置较高的权值,而为性能较低的服务器设置相对较低的权值,这样才能合理地利用和分配系统资源 TCP_CHECK { #realserver的状态检测设置部分,单位是秒 connect_timeout 3 #表示3秒无响应超时 nb_get_retry 3 #表示重试次数 delay_before_retry 3 #表示重试间隔 connect_port 80
realserver的配置
三台web服务器都要执行下面脚本: #不然就改成 255.255.255.0 #netmask 是多少 直接抄就行 root@IM-secret1-nginx-1 1.9 172.23.101.101 cat /etc/rc.d/init.d/realserver.sh #!/bin/bash SNS_VIP=148.66.11.240 #/etc/rc.d/init.d/functions case "$1" in start) ifconfig lo:0 $SNS_VIP netmask 255.255.255.252 broadcast $SNS_VIP /sbin/route add -host $SNS_VIP dev lo:0 echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce sysctl -p >/dev/null 2>&1 echo "RealServer Start OK" ;; stop) ifconfig lo:0 down route del $SNS_VIP >/dev/null 2>&1 echo "0" >/proc/sys/net/ipv4/conf/lo/arp_ignore echo "0" >/proc/sys/net/ipv4/conf/lo/arp_announce echo "0" >/proc/sys/net/ipv4/conf/all/arp_ignore echo "0" >/proc/sys/net/ipv4/conf/all/arp_announce echo "RealServer Stoped" ;; *) echo "Usage: $0 {start|stop}" exit 1 esac exit 0 chmod u+x /etc/rc.d/init.d/realserver.sh /etc/rc.d/init.d/realserver.sh start ifconfig #得到 lo:0: flags=73<UP,LOOPBACK,RUNNING> mtu 65536 inet 148.66.11.240 netmask 255.255.255.252 loop txqueuelen 1000 (Local Loopback) # vi /etc/rc.local #有时会不生效么 /etc/rc.d/init.d/realserver.sh start
防火墙配置 允许vrrp的组播
Lvs两台服务器防火墙配置: in and out firewall-cmd --direct --permanent --add-rule ipv4 filter INPUT 0 \ --in-interface eth0 --destination 224.0.0.18 --protocol vrrp -j ACCEPT firewall-cmd --direct --permanent --add-rule ipv4 filter OUTPUT 0 \ --out-interface eth0 --destination 224.0.0.18 --protocol vrrp -j ACCEPT firewall-cmd --zone=public --add-port=80/tcp --permanent firewall-cmd --reload
启动keepalived并进行测试
systemctl start firewalld systemctl enable keepalived systemctl start keepalived systemctl stop firewalld ps -ef |grep keepalived 注:重启keepalived服务后,lvs master本地网卡添加了eth0:1的ip,即vip地址 配置心得:如果vip访问不了,先重启服务器,开启keepalived服务,然后才关闭防火墙 查看防火墙配置: iptables -L OUTPUT_direct --line-numbers iptables -L INPUT_direct --line-numbers 删除防火墙配置: firewall-cmd --direct --permanent --remove-rule ipv4 filter INPUT 0 \ --in-interface eth0 --destination 224.0.0.18 --protocol vrrp -j ACCEPT firewall-cmd --direct --permanent --remove-rule ipv4 filter OUTPUT 0 \ --out-interface eth0 --destination 224.0.0.18 --protocol vrrp -j ACCEPT firewall-cmd --zone=public --remove-port=80/tcp --permanent firewall-cmd --reload 总结: 当 MASTER 服务器无法提供服务时,VIP 会在 MASTER 上自动移除,BACKUP 服务器会提升为 MASTER 状态,绑定 VIP 、接管服务。 当 MASTER 修复加入网络后,会自动抢回 VIP ,成为 MASTER 身份。 当后端提供服务nginx服务挂起时,会自动切换至其它nginx服务器。
检查
检查主keepalived 启动后的配置情况 ip add |grep eth0 如果网卡下出现148.66.11(VIP)说明主已经启动成功 检查备keepalived 启动后的配置情况 ip add |grep eth0 备服务器的网卡下没有出现148.66.11((VIP)的ip,说明备服务正常 注:如果这里也出现了VIP,那么说明裂脑了,需要检查防火墙是否配置正确;是否允许了vrrp的多播通讯 #lvs master tail -f /var/log/messages -lvs01 keepalived]# ipvsadm -L -n IP Virtual Server version 1.2.1 (size=4096) Prot LocalAddress:Port Scheduler Flags -> RemoteAddress:Port Forward Weight ActiveConn InActConn TCP 148.66.11:80 rr persistent 50 TCP 148.66.11:443 rr persistent 50
测试负载均衡
curl -H 'Host:a.com' http://外网vip
nginx 3
故障模拟
关闭keepalived
# lvs01 keepalived]# ipvsadm -L -n IP Virtual Server version 1.2.1 (size=4096) Prot LocalAddress:Port Scheduler Flags -> RemoteAddress:Port Forward Weight ActiveConn InActConn TCP 10.3.10.146:80 rr persistent 50 -> 10.3.10.141:80 Route 1 0 0 -> 10.3.10.142:80 Route 1 0 1 -> 10.3.10.143:80 Route 1 0 2 TCP 10.3.10.146:443 rr persistent 50 lvs01 keepalived]# ip a | grep eth0 2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000 inet 10.3.10.144/24 brd 10.3.10.255 scope global noprefixroute eth0 inet 10.3.10.146/24 scope global secondary eth0:1 #vip systemctl stop keepalived ip a | grep eth0 #这个时候vip去了lvs slave 2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000 inet 10.3.10.144/24 brd 10.3.10.255 scope global noprefixroute eth0 lvs02 keepalived]# ip a | grep eth0 2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000 inet 10.3.10.145/24 brd 10.3.10.255 scope global noprefixroute eth0 inet 10.3.10.146/24 scope global secondary eth0:1 master 启动起来 ,就会抢占
关闭nginx
evan@freebsd-512mb-sfo2-01:~ % curl -H 'Host:a.com' http://148.66.11.240 nginx 3 故意关掉 nginx 3 然后再访问 nginx 关闭了 会有一会儿间断 evan@freebsd-512mb-sfo2-01:~ % curl -H 'Host:a.com' http://148.66.11.240 curl: (7) Failed to connect to 148.66.11.240 port 80: Connection refused evan@freebsd-512mb-sfo2-01:~ % curl -H 'Host:a.com' http://148.66.11.240 nginx 2
nginx安装
三台 real https://nginx.org/en/linux_packages.html#RHEL-CentOS 添加官方源太新了 1.16 yum install nginx -y #这样有各部module #nginx.x86_64 1:1.12.2-3.el7 他是源码1.14 防火墙设置: firewall-cmd --permanent --add-port=80/tcp firewall-cmd --permanent --add-port=443/tcp firewall-cmd --reload firewall-cmd --list-all-zones systemctl start nginx systemctl enable nginx systemctl restart nginx cd /etc/nginx/ cp nginx.conf nginx.conf20190819 server_name a.com; #server_name _; root /usr/share/nginx/html; #这里的内容改一下以前区别 然后 a.com a 到vip 或者 绑host curl -H 'Host:a.com' http://10.3.10.141
other
总结:前提vip地址已经映射到外网地址,依次停止某一台服务(master keepalived,backup keepalived,101 nginx,151 nginx),查看访问http://148.6.11.10/是否正常。 5.8、防火墙配置 Lvs两台服务器防火墙配置: firewall-cmd --direct --permanent --add-rule ipv4 filter INPUT 0 \ --in-interface eth0 --destination 224.0.0.18 --protocol vrrp -j ACCEPT firewall-cmd --direct --permanent --add-rule ipv4 filter OUTPUT 0 \ --out-interface eth0 --destination 224.0.0.18 --protocol vrrp -j ACCEPT firewall-cmd --zone=public --add-port=80/tcp --permanent firewall-cmd --reload nginx两台服务器防火墙配置: firewall-cmd --zone=public --add-port=80/tcp --permanent firewall-cmd --reload 查看防火墙配置: iptables -L OUTPUT_direct --line-numbers iptables -L INPUT_direct --line-numbers
troubleshooting
vip 老是访问不了 原来要用 那个内网的vip哦 最后打开文档才看到呢
keepalived配置学习,解决vip无法ping通,虚拟服务器端口无法访问的问题
centos7 keepalived 主备通信 防火墙vrrp 协议
see also
https://www.keepalived.org/LVS-NAT-Keepalived-HOWTO.html
LVS+Keepalived+Nginx+Tomcat高可用负载均衡集群配置
linux搭建LVS+keepalive+nginx实现集群高性能负载均衡配置详解