下面我将从物理连接、主流配置模式、具体配置步骤和总结建议四个方面为您详细讲解。
这是最基本的一步,非常简单:
1、准备两根网线。
2、将第一根网线的一端插入服务器的网卡1,另一端插入机柜交换机A的任意一个端口。
3、将第二根网线的一端插入服务器的网卡2,另一端插入机柜交换机B的任意一个端口。
关键点:
高可用性要求为了实现真正的冗余,交换机A和交换机B最好是两台独立的物理交换机,并且它们之间应有互联(堆叠或MLAG),或者连接到核心交换机的不同板卡上,如果两根网线都接到同一台交换机上,那么交换机就成了单点故障。
端口协商确保交换机端口的速率、双工模式与服务器网卡匹配(通常设置为自动协商即可)。
物理连接好后,需要在服务器的操作系统内对两块网卡进行逻辑绑定或配置,主要有以下几种模式:
模式1:主备模式(Active-Backup / 故障转移)
工作原理默认情况下只有一块网卡(Active)工作,另一块网卡(Backup)处于待命状态,当主用网卡或其线路、交换机出现故障时,备用网卡会在几秒钟内自动接管,保证网络不中断。
优点提供高可用性,配置简单。
缺点无法提升带宽,因为同一时间只有一块网卡在工作。
适用场景对网络连续性要求高,但对带宽要求不高的业务,如数据库服务器、关键应用服务器。
模式2:链路聚合模式(IEEE 802.3ad / LACP / Bonding Mode 4)
工作原理将两块(或多块)物理网卡绑定成一个虚拟的逻辑网卡,交换机和服务器的两端都需要进行配置,数据流会按照算法(如基于IP、MAC地址等)在两条链路中负载均衡。
优点
增加带宽理论上是单块网卡带宽的N倍(N为网卡数量)。
提供高可用性任意一条链路失效,流量会自动切换到剩余的链路上,中断时间极短。
缺点需要在服务器端和交换机端同时配置(创建LACP聚合组),配置稍复杂。
适用场景对带宽和可靠性都有要求的业务,如Web服务器、文件服务器、虚拟化主机等,这是最常用的模式。
模式3:负载均衡模式(Balance-RR等)
工作原理在服务器端进行简单的负载均衡,例如轮询(Round-Robin)方式发送数据包。通常不需要交换机端特殊配置。
优点可以提升出站(Outbound)的带宽。
缺点入站(Inbound)流量可能仍然只走一条默认网关的线路,负载不均,兼容性和性能不一定优于LACP模式。
适用场景现在较少使用,通常被LACP模式取代。
工作原理不为两块网卡做绑定,而是将它们配置到两个完全不同的网络中。
网卡1连接业务网络(公网或业务内网),配置业务IP地址。
网卡2连接管理网络(带外管理网络),配置管理IP地址。
优点实现网络隔离,提升安全性,管理流量和业务流量互不干扰。
缺点不提供高可用性或带宽叠加,每块网卡独立工作,一块网卡故障会影响其对应的网络服务。
适用场景几乎所有IDC服务器都应采用这种方式将管理口和业务口分离,这是最佳实践。
三、配置步骤(以最常用的Linux LACP为例)
以下是在Linux系统中使用NetworkManager
或传统ifcfg
文件方式配置LACP的大致流程。
前提:IDC网络管理员已经在上联交换机上为你服务器的两个端口配置好了LACP聚合组(如Cisco的Port-channel或H3C的Link-Aggregation)。
1、安装必要工具(如果未安装):
# 对于RHEL/CentOS/Rocky yum install teamd -y # 或者(较新系统通常已集成) # 对于Ubuntu/Debian apt install ifenslave -y
2、创建聚合接口配置文件(以RHEL系为例):
假设两块物理网卡名为eth0
和eth1
,我们要创建名为bond0
的聚合接口。
创建/etc/sysconfig/network-scripts/ifcfg-bond0
文件:
DEVICE=bond0 TYPE=Bond NAME=bond0 BONDING_MASTER=yes IPADDR=192.168.1.10 # 你的服务器IP NETMASK=255.255.255.0 # 或使用PREFIX=24 GATEWAY=192.168.1.1 DNS1=8.8.8.8 ONBOOT=yes BOOTPROTO=none BONDING_OPTS="mode=4 miimon=100 lacp_rate=fast" # mode=4 即 LACP
3、修改物理网卡配置文件:
修改/etc/sysconfig/network-scripts/ifcfg-eth0
:
DEVICE=eth0 TYPE=Ethernet ONBOOT=yes BOOTPROTO=none MASTER=bond0 SLAVE=yes
修改/etc/sysconfig/network-scripts/ifcfg-eth1
:
DEVICE=eth1 TYPE=Ethernet ONBOOT=yes BOOTPROTO=none MASTER=bond0 SLAVE=yes
4、重启网络服务:
systemctl restart NetworkManager # 或者使用 # systemctl restart network
5、验证配置:
cat /proc/net/bonding/bond0
查看输出,应该能看到eth0
和eth1
都是Slave Interface
,并且Bonding Mode
是IEEE 802.3ad Dynamic link aggregation
,交换机端也应显示端口已成功加入Channel Group。
Windows Server系统可以在“网络适配器”设置中通过“NIC Teaming”功能图形化地完成类似配置。
需求场景 | 推荐配置模式 | 说明 |
最佳安全实践 | 不同网段隔离 | 网卡1接业务网,网卡2接带外管理网,这是基础,应优先考虑。 |
高可用性(最常用) | 链路聚合(LACP) | 同时获得冗余和带宽提升,需要服务器和交换机协同配置。 |
纯高可用,带宽足够 | 主备模式(Active-Backup) | 配置简单,仅提供故障转移功能。 |
虚拟化平台(如VMware) | 链路聚合(LACP) 或端口组 | 在vSphere中,可以在vSwitch层面配置负载均衡和故障转移。 |
最终建议:
1、规划先行:在接网线之前,先和IDC的网络工程师沟通,确定你要采用哪种模式。特别是LACP模式,必须由他们先在交换机上配置好。
2、首选LACP:对于大多数业务服务器,“业务网卡双线LACP聚合 + 管理网卡单独接线” 是最佳组合。
3、测试验证:配置完成后,一定要进行故障模拟测试,比如拔掉一根网线,看网络是否中断、服务是否受影响、是否会自动恢复。
希望这份详细的指南能帮助您正确地连接和配置IDC机房的双网卡服务器!
文章摘自:https://idc.huochengrm.cn/fwq/16372.html
评论