L'agrégation de liens est une notion de réseau informatique, le but étant de regrouper plusieurs ports réseau comme s'il s'agissait d'un seule.
Les avantages étant :
J'ai pu le dire au-dessus, c'est une notion réseau, mais sur un serveur, cela peut être utile surtout pour assurer une redondance quand il y a un enjeu de haute disponibilité.
En fonction du mode sélectionné l'agrégat fonctionnera de façon différente.
Mode 0 : Round Robin, équilibrage de charge.
La transmission des paquets se fait de façon séquentielle sur chacune des cartes actives dans l'agrégat. Ce mode augmente la bande passante et gère la tolérance de panne.
Mode 1 : Active - passive.
Ce mode ne gère que la tolérance de panne. Si une des interfaces est désactivée, une autre du bond prend le relais.
Mode 2 : Balance xor.\\Une interface est affectée à l'envoi vers une même adresse MAC.
Ainsi les transferts sont parallélisés et le choix de l'interface suit la règle : (Adresse MAC de la source XOR Adresse MAC de la destination) modulo nombre d'interfaces.
Mode 3 : Broadcast.
Tout le trafic est envoyé par toutes les interfaces
mode 4 : 802.3ad.
Ce mode s'appuie sur la norme IEEE 802.3ad Dynamic link aggregation.
Toutes les interfaces du groupe sont agrégées de façon dynamique, ce qui augmente la bande passante et gère la tolérance de panne.
Cela implique que le switch gère le 802.ad et les interfaces soient compatibles mii-tool et/ou ethtool.
mode 5 : balance-tlb.
Adaptive transmit load balancing : seule la bande passante en sortie est load balancée selon la charge calculée en fonction de la vitesse, ceci pour chaque interface.
Le flux entrant est affecté à l'interface courante.
Si celle-ci devient inactive, une autre prend alors l'adresse MAC et devient l'interface courante.
mode 6 : balance-alb
Adaptive load balancing : ce mode inclut en plus du tlb un load balancing sur le flux entrant et seulement pour un trafic IPV4.
L'équilibrage est réalisé au niveau ARP. Le module intercepte les réponses pour y réécrire l'adresse MAC de l'une des interfaces du bond tout en tenant compte des spécificités du protocole ARP.
La répartition entre les différentes interfaces, se fait de façon séquentielle ( round robin ).
Éditer un fichier ifcfg-bond0
dans le répertoire /etc/sysconfig/network-script
vim /etc/sysconfig/network-script/ifcfg-bond0
Voici un exemple de ce que vous devez mettre dedans:
DEVICE="bond0" BOOTPROTO="static" IPV6INIT="no" NM_CONTROLLED="no" ONBOOT="yes" TYPE="Ethernet" IPADDR=10.172.16.58 NETMASK=255.255.255.0 GATEWAY=10.172.16.1 USERCTL="no"
Puis, éditer les fichiers des autres interfaces (dans mon exemple se sera eth0 et eth1), la procédure reste la même sur chaque interface.
vim /etc/sysconfig/network-script/ifcfg-eth0 ou eth1
Voici un exemple de ce que vous pouvez mettre :
DEVICE="eth0" #ou DEVICE="eth1" BOOTPROTO="none" NM_CONTROLLED="no" ONBOOT="yes" TYPE="Ethernet" USERCTL="no" MASTER="bond0" SLAVE="yes"
Pour que le bonding soit UP au démarrage :
Éditer un fichier dans /etc/modprobe.d
il s’appellera bonding.conf
vim /etc/modprobe.d/bonding.conf
Saisir les lignes suivantes pour définir le bonding :
mode 0 :
alias bond0 bonding options bond0 downdelay=200 updelay=200 miimon=100 mode=0
mode 4:
alias bond0 bonding options bond0 downdelay=200 updelay=200 miimon=100 mode=4
Pour appliquer les modification, redémarrer le service network
/etc/init.d/network restart
network
ne marche pas, redémarrer la machine
Pour consulter les statistiques faire :
cat /proc/net/bonding/bond0
Vous pourrez apercevoir cela sur votre écran:
Bonding Mode: load balancing (round-robin) MII Status: up MII Polling Interval (ms): 100 Up Delay (ms): 200 Down Delay (ms): 200 Slave Interface: eth0 MII Status: up Speed: 100 Mbps Duplex: full Link Failure Count: 0 Permanent HW addr: a4:5d:36:c4:9c:b8 Slave queue ID: 0 Slave Interface: eth1 MII Status: up Speed: 100 Mbps Duplex: full Link Failure Count: 0 Permanent HW addr: a4:5d:36:c4:9c:b9 Slave queue ID: 0