Linux网卡绑定详解(原创)

lsn0LSN 2011-05-13

Linux双网卡绑定概述

我们在这介绍的Linux双网卡绑定实现就是使用两块网卡虚拟成为一块网卡,这个聚合起来的设备看起来是一个单独的以太网接口设备,通俗点讲就是两块网卡具有相同的IP地址而并行链接聚合成一个逻辑链路工作。其实这项技术在Sun和Cisco中早已存在,被称为Trunking和Etherchannel 技术,在Linux的2.4.x的内核中也采用这这种技术,被称为bonding。

bonding技术的最早应用是在集群——beowulf上,为了提高集群节点间的数据传输而设计的。下面我们讨论一下bonding的原理,什么是bonding需要从网卡的混杂(promisc)模式说起。我们知道,在正常情况下,网卡只接收目的硬件地址(MACAddress)是自身Mac的以太网帧,对于别的数据帧都滤掉,以减轻驱动程序的负担。但是网卡也支持另外一种被称为混杂promisc的模式,可以接收网络上所有的帧,比如说tcpdump,就是运行在这个模式下。bonding也运行在这个模式下,而且修改了驱动程序中的mac地址,将两块网卡的Mac地址改成相同,可以接收特定mac的数据帧。然后把相应的数据帧传送给bond驱动程序处理。

直接给两块网卡设置同一IP地址是不可能的。Kernels2.4.12及以后的版本均供bonding模块,以前的版本可以通过patch实现。可以通过以下命令确定内核是否支持bonding:

#cat/boot/config-kernel-version|grep-ibonding

CONFIG_BONDING=m

网卡绑定的意义

网络负载均衡

对于bonding的网络负载均衡是我们在文件服务器中常用到的,比如把三块网卡,当做一块来用,解决一个IP地址,流量过大,服务器网络压力过大的问题。对于文件服务器来说,比如NFS或SAMBA文件服务器,没有任何一个管理员会把内部网的文件服务器的IP地址弄很多个来解决网络负载的问题。如果在内网中,文件服务器为了管理和应用上的方便,大多是用同一个IP地址。对于一个百M的本地网络来说,文件服务器在多个用户同时使用的情况下,网络压力是极大的,特别是SAMABA和NFS服务器。为了解决同一个IP地址,突破流量的限制,毕竟网线和网卡对数据的吞吐量是有限制的。如果在有限的资源的情况下,实现网络负载均衡,最好的办法就是 bonding ;

网络冗余;

对于服务器来说,网络设备的稳定也是比较重要的,特别是网卡。在生产型的系统中,网卡的可靠性就更为重要了。在生产型的系统中,大多通过硬件设备的冗余来提供服务器的可靠性和安全性,比如电源。bonding 也能为网卡提供冗余的支持。把网个网卡绑定到一个IP地址,当一块网卡发生物理性损坏的情况下,另一块网卡也能提供正常的服务。

双网卡绑定设置

一、编辑虚拟网络接口配置文件,指定网卡IP

假设eth0是对外服务的网卡,已经调试好网络;eth1是希望与eth0同时对外提供服务的网卡

# cd /etc/sysconfig/network-scripts/

#vi ifcfg-bond0

写入如下信息和原来 ifcfg-eth0 的配置其实差不多。所以我建议执行如下语句,将ifcfg-eth0复制一份再改。

# cp ifcfg-eth0 ifcfg-bon0

将ifcfg-bon0的信息修改大致如下:

DEVICE=bond0

BOOTPROTO=static

IPADDR=[IP]

NETMASK=[MASK]

BROADCAST=[BROADCAST]

GATEWAY=[GATEWAY]

ONBOOT=yes

TYPE=Ethernet

二、配置真实网卡修改ifcfg-eth0如下:

DEVICE=eth0

BOOTPROTO=none

ONBOOT=yes

MASTER=bond0     #如果不写,则必须做第四步

SLAVE=yes             #如果不写,则必须做第四步

USERCTL=yes

类似地修ifcfg-eth1如下:

DEVICE=eth1

BOOTPROTO=none

ONBOOT=yes

MASTER=bond0     #如果不写,则必须做第四步

SLAVE=yes             #如果不写,则必须做第四步

USERCTL=yes

三、加载模块,让系统支持bonding默认情况下,内核已支持bonding,只需要简单修改/etc/modprobe.conf 这个配置文档就可以了:添加两行

alias bond0 bonding

options bond0 miimon=100 mode=1

说明:mode指定了bond0的工作模式,在redhat中有0-6共7种工作模式,常用的是0和1。

mode=0 表示 load balancing (round-robin)为负载均衡方式,两块网卡都工作。

mode=1表示fault-tolerance(active-backup)提供冗余功能,工作方式是主从的工作方式,也就是说默认情况下只有一块网卡工作,另一块做备份。

mode=2表示XORpolicy为平衡策略。此模式提供负载平衡和容错能力

mode=3表示broadcast为广播策略。此模式提供了容错能力

mode=4表示IEEE802.3adDynamiclinkaggregation为IEEE802.3ad为动态链接聚合。该策略可以通过xmit_hash_policy选项从缺省的XOR策略改变到其他策略。

mode=5表示Adaptivetransmitloadbalancing为适配器传输负载均衡。该模式的必要条件:ethtool支持获取每个slave的速率

mode=6表示Adaptiveloadbalancing为适配器适应性负载均衡。该模式包含了balance-tlb模式,同时加上针对IPV4流量的接收负载均衡(receiveloadbalance,rlb),而且不需要任何switch(交换机)的支持。

bonding 只能提供链路监测,即从主机到交换机的链路是否接通。如果只是交换机对外的链路 down 掉了,而交换机本身并没有故障,那么 bonding 会认为链路没有问题而继续使用。

关于绑定网卡的详细参数可参见笔者的另一篇文章

四、增加开机启动脚本

在 /etc/rc.d/rc.local里加上

#ifenslave bond0 eth0 eth1

如果eth0和eth1都写了MASTER和SLAVE,则上面的步骤做不做都无所谓。

五、重启

reboot或者service network restart 都可以看到结果。

六、查看绑定在哪张网卡上

# cat /proc/net/bonding/bond0

EthernetChannelBondingDriver:v3.0.3(March23,2006)

BondingMode:fault-tolerance(active-backup)

PrimarySlave:None

CurrentlyActiveSlave:eth0

MIIStatus:up

MIIPollingInterval(ms):500

UpDelay(ms):0

DownDelay(ms):0

SlaveInterface:eth0

MIIStatus:up

LinkFailureCount:0

PermanentHWaddr:00:0c:29:01:4f:77

SlaveInterface:eth1

MIIStatus:up

LinkFailureCount:0

PermanentHWaddr:00:0c:29:01:4f:8b

六、测试

ping着某个地址,当然是能ping通的地址啦。如果发现网络不通,请检查ifcfg-bond0的网络设置。

然后拔掉一根网线,如果ping没断,证明拔了一根backup的线,不是主线,重新插上等两分钟。

此时拔掉另一根网线,估计现在可以看到ping超时或者卡在那里,稍等10~30秒,ping继续连同。

测试成功。

感谢SanMeng的热心指点

参考至:http://www.linuxsir.org/main/?q=node/271

               http://jingh3209.blog.163.com/blog/static/156966720096218317422/

               http://bbs.watchstor.com/thread-39000-1.html

本文原创,转载请注明出处、作者

如有错误,欢迎指正

邮箱:[email protected]

相关推荐