CentOS bonding技术使用奇怪的拓扑结果

系统 Linux
速度还是挺快的数据走心跳链路,使用了CentOS bonding技术,mode设置为6,即不需要交换机参与的负载均衡。 令人奇怪的是该种模式下会丢一些数据包,也许是这种比较奇怪的拓扑结果造成的。

CentOS bonding技术对于电脑使用的玩家的常用软件,然后我就学习及深入的研究CentOS bonding技术,在这里和大家一起探讨CentOS bonding技术的使用方法,希望对大家有用。先介绍一下情况,服务器A和服务器B都是CentOS 4.6的系统,现在要做HA Cluster,为了避免裂脑的发生,要提高心跳链路的可靠性,下图是现时的连接情况,服务器A的eth2、eth3分别和服务器B的eth2、eth3相连(没有顺序关系),所有网卡都是千兆网卡,拓扑图如下所示:

image

在介绍一起硬件情况,服务器A是一台HP DL380 G5,两年多的服务器了,4核心8G内存,5块72GB的2.5寸硬盘做RAID5。服务期B是DELL 2950,几个月前刚购入的新机器,8核16G内存,3块3.5寸300G SAS硬盘做RAID5。

业务交换机为DELL的千兆交换机,没做任何配置,仅当接入交换机使用。 图中的蓝线用的是几年前的超五类非屏蔽双绞线。 图中的红线用的是新购的六类非屏蔽双绞线。测试方法很简单,将一个3.4G的ISO从服务器A scp到服务器B中,对比传输的时间。

数据走业务链路,没有使用CentOS bonding技术。

  1. ############## No Binding ##############  
  2. [root@rac-node01 tmp]# time scp rhel-5.1-server-x86_64-dvd.iso  10.168.0.202:/tmp   
  3. root@10.168.0.202's password:   
  4. rhel-5.1-server-x86_64-dvd.iso                                                    100% 3353MB  44.1MB/s   01:16      
  5.  
  6. real    1m20.105s  
  7. user    0m34.752s  
  8. sys     0m11.002s  
  9.  

速度还是挺快的数据走心跳链路,使用了CentOS bonding技术,mode设置为6,即不需要交换机参与的负载均衡。 令人奇怪的是该种模式下会丢一些数据包,也许是这种比较奇怪的拓扑结果造成的。

  1. ############## model=6 ##############  
  2. [root@rac-node01 tmp]# time scp rhel-5.1-server-x86_64-dvd.iso  192.168.0.202:/tmp  
  3. root@192.168.0.202's password:   
  4. rhel-5.1-server-x86_64-dvd.iso                                                    100% 3353MB  21.4MB/s   02:37      
  5.  
  6. real    2m47.812s  
  7. user    0m34.965s  
  8. sys     0m19.421s    
  9. [root@rac-node01 tmp]# netstat -i #@ Receive  
  10. Kernel Interface table  
  11. Iface       MTU Met    RX-OK RX-ERR RX-DRP RX-OVR    TX-OK TX-ERR TX-DRP TX-OVR Flg  
  12. bond1      1500   0  5123831   2045      0      0  5138747      0      0      0 BMmRU  
  13. eth0       1500   0     2847      0      0      0      703      0      0      0 BMRU  
  14. eth2       1500   0  2562665     11      0      0  2569378      0      0      0 BMsRU  
  15. eth3       1500   0  2561166   2034      0      0  2569369      0      0      0 BMsRU  
  16. lo        16436   0     2261      0      0      0     2261      0      0      0 LRU 

有数据包丢失数据走心跳链路,使用了CentOS bonding技术,mode设置为0,即需要交换机参与的负载均衡。该模式下不像mode=6那样会丢包,而且eth2和eth3的流量几乎平均。下面测试数据中的 RX-ERR是上面测试数据遗留下来的。

  1. ############## model=0 ##############  
  2. [root@rac-node01 tmp]# time scp rhel-5.1-server-x86_64-dvd.iso  192.168.0.202:/tmp  
  3. root@192.168.0.202's password:   
  4. rhel-5.1-server-x86_64-dvd.iso                                                    100% 3353MB  38.1MB/s   01:28      
  5.  
  6. real    1m33.508s  
  7. user    0m34.539s  
  8. sys     0m19.363s  
  9. [root@mailserver tmp]# netstat -i       
  10. Kernel Interface table  
  11. Iface       MTU Met    RX-OK RX-ERR RX-DRP RX-OVR    TX-OK TX-ERR TX-DRP TX-OVR Flg  
  12. bond1      1500   0 11133871   2045      0      0 11180462      0      0      0 BMmRU  
  13. eth0       1500   0  1334477      0      0      0  2575981      0      0      0 BMRU  
  14. eth2       1500   0  5567685     11      0      0  5590236      0      0      0 BMsRU  
  15. eth3       1500   0  5566186   2034      0      0  5590226      0      0      0 BMsRU  
  16. lo        16436   0     2270      0      0      0     2270      0      0      0 LRU 

没有丢包数据走心跳链路,使用了CentOS bonding技术,mode设置为1,即Active-Backup,FailOver模式。该模式存在一个问题,当服务器A的eth2和服务器B的eth3作为Active设备时,服务器A是不能和服务器B通过心跳链路通信的,此时拔掉其中一根心跳线再插就好了。

  1. ############## model=1 ##############  
  2. [root@rac-node01 ~]# time scp /tmp/rhel-5.1-server-x86_64-dvd.iso  192.168.0.202:/tmp/  
  3. root@192.168.0.202's password:   
  4. rhel-5.1-server-x86_64-dvd.iso                                                    100% 3353MB  41.4MB/s   01:21      
  5.  
  6. real    1m24.162s  
  7. user    0m35.007s  
  8. sys     0m13.455s  
  9.  
  10. [root@mailserver ~]#  netstat -i  
  11. Kernel Interface table  
  12. Iface       MTU Met    RX-OK RX-ERR RX-DRP RX-OVR    TX-OK TX-ERR TX-DRP TX-OVR Flg  
  13. bond1      1500   0  3436804      0      0      0  1774259      0      0      0 BMmRU  
  14. eth0       1500   0     3962      0      0      0      773      0      0      0 BMRU  
  15. eth2       1500   0  3436804      0      0      0  1774254      0      0      0 BMsRU  
  16. eth3       1500   0        0      0      0      0        5      0      0      0 BMsRU  
  17. lo        16436   0     3071      0      0      0     3071      0      0      0 LRU 

没有丢包,只走单网卡结论: 从以上结果显示,单就速度来说的确不做绑定单网卡速度最快,但是没有容错能力。其次是绑定后的FailOver模式,但是该模式会存在一定的问题。而mode=6的负载均衡模式会丢包,比较危险。 mode=0的负载均衡模式貌似并不能加大带宽,但是对于提高最大的可用性来说是最好的选择了。

【编辑推荐】

  1. CentOS CPU使用率查看相应信息分析系统状况
  2. CentOS服务器系统中藏有神秘力量
  3. CentOS yum服务器安装与使用命令
  4. CentOS RH系统中apt软件包管理机制
  5. CentOS镜像文件的硬盘安装介绍
责任编辑:佚名 来源: CSDN
相关推荐

2009-03-02 15:44:20

网络拓扑Visio技术Microsoft V

2009-06-29 14:30:42

网络拓扑KoolPoint摩卡

2009-06-08 20:05:14

Eclipse deb

2021-02-24 15:20:43

Windows 10Python命令

2013-04-17 10:34:55

.NET大对象堆

2015-08-11 08:51:40

游戏死亡

2023-03-14 07:23:48

ReactJSX语法

2009-02-20 15:15:32

2020-09-09 07:55:51

TS开源符号

2010-03-23 16:28:31

CentOS使用

2018-01-24 18:00:21

LinuxDebianvim

2021-02-02 16:34:12

useMemo性能优化函数

2010-02-06 15:06:14

2010-12-15 11:24:35

2009-04-22 08:54:25

2019-12-06 10:14:31

缓冲函数日志

2010-01-07 11:08:32

2019-12-24 14:17:54

缓冲系统调用函数

2020-08-02 22:54:04

Python编程语言开发

2009-10-28 09:21:44

技术人才
点赞
收藏

51CTO技术栈公众号