Proxmox VE 8.1.3 매뉴얼을 DeepL/Google Translate를 이용해서 기계번역하고, 살짝 교정했습니다.
https://pve.proxmox.com/pve-docs/pve-admin-guide.html
3.4. 네트워크 구성
Proxmox VE는 Linux 네트워크 스택을 사용합니다. 이는 Proxmox VE 노드에서 네트워크를 설정하는 방법에 대한 많은 유연성을 제공합니다. 구성은 GUI를 통해 수행하거나 전체 네트워크 구성이 포함된 /etc/network/interfaces 파일을 수동으로 편집하여 수행할 수 있습니다. interfaces(5)
설명서 페이지에 전체 형식 설명이 포함되어 있습니다. 모든 Proxmox VE 도구는 사용자가 직접 수정할 수 없도록 노력하지만 오류로부터 사용자를 보호하기 위해 GUI를 사용하는 것이 여전히 바람직합니다.
게스트를 기본 물리적 네트워크에 연결하려면 vmbr 인터페이스가 필요합니다. 이는 게스트와 물리적 인터페이스가 연결되는 가상 스위치로 생각할 수 있는 Linux 브리지입니다. 이 섹션에서는 본드, VLAN 또는 라우팅 및 NAT 설정을 통한 이중화 등 다양한 사용 사례를 수용하도록 네트워크를 설정하는 방법에 대한 몇 가지 예를 제공합니다.
소프트웨어 정의 네트워크(Software Defined Network)는 Proxmox VE 클러스터에서 보다 복잡한 가상 네트워크를 위한 옵션입니다.
경고: 기존 Debian 도구인 ifup 및 ifdown을 사용하지 않는 것이 좋습니다. 확실하지 않은 경우 ifdown vmbrX에서 모든 게스트 트래픽을 중단하지만 나중에 동일한 브리지에서 ifup을 수행할 때 해당 게스트가 다시 연결되지 않는 등의 몇 가지 함정이 있으므로 사용하지 않는 것이 좋습니다.
3.4.1. 네트워크 변경 사항 적용
Proxmox VE는 /etc/network/interfaces에 직접 변경 사항을 기록하지 않습니다. 대신 /etc/network/interfaces.new라는 임시 파일에 기록하므로 한 번에 많은 관련 변경을 수행할 수 있습니다. 또한 네트워크 구성이 잘못되면 노드에 액세스할 수 없게 될 수 있으므로 변경 사항을 적용하기 전에 올바른지 확인할 수 있습니다.
ifupdown2를 사용한 네트워크 라이브 로드
권장되는 ifupdown2 패키지(Proxmox VE 7.0 이후 신규 설치 시 기본값)를 사용하면 재부팅 없이 네트워크 구성 변경 사항을 적용할 수 있습니다. GUI를 통해 네트워크 구성을 변경하는 경우 구성 적용 버튼을 클릭할 수 있습니다. 그러면 스테이징 인터페이스를 변경한 내용이 /etc/network/interfaces 파일로 이동되어 실시간으로 적용됩니다.
etc/network/interfaces 파일을 직접 수동으로 변경한 경우, ifreload -a를 실행하여 적용할 수 있습니다.
참고: Debian 위에 Proxmox VE를 설치했거나 이전 Proxmox VE 설치에서 Proxmox VE 7.0으로 업그레이드한 경우, ifupdown2가 설치되어 있는지 확인합니다: apt install ifupdown2
적용할 노드 재부팅
새 네트워크 구성을 적용하는 또 다른 방법은 노드를 재부팅하는 것입니다. 이 경우 networking 서비스가 해당 구성을 적용하기 전에 systemd 서비스인 pvenetcommit이 스테이징 interface.new를 활성화합니다.
3.4.2. 명명 규칙
현재 장치 이름에 다음과 같은 명명 규칙을 사용합니다:
- 이더넷 장치: en*, systemd 네트워크 인터페이스 이름. 이 명명 체계는 버전 5.0 이후 새로운 Proxmox VE 설치에 사용됩니다.
- 이더넷 장치: eth[N], 여기서 0 ≤ N(eth0, eth1, …) 이 명명 체계는 5.0 릴리스 이전에 설치된 Proxmox VE 호스트에 사용됩니다. 5.0으로 업그레이드할 때는 이름이 그대로 유지됩니다.
- 브리지 이름: vmbr[N], 여기서 0 ≤ N ≤ 4094(vmbr0 – vmbr4094)
- 본드: bond[N], 여기서 0 ≤ N(bond0, bond1, …)
- VLAN: 장치 이름에 마침표로 구분된 VLAN 번호를 추가하기만 하면 됩니다(eno1.50, bond1.30).
이렇게 하면 장치 이름에 장치 유형이 포함되어 있으므로 네트워크 문제를 더 쉽게 디버그할 수 있습니다.
시스템 네트워크 인터페이스 이름
systemd는 네트워크 장치 이름에 대한 버전별 명명 체계를 정의합니다. 이 체계는 이더넷 네트워크 장치에 두 문자 접두사 en을 사용합니다. 다음 문자는 장치 드라이버, 장치 위치 및 기타 속성에 따라 달라집니다. 몇 가지 가능한 패턴은 다음과 같습니다:
- o[n|d] – 온보드 장치
- s<슬롯>[f<기능>][n|d] – 핫플러그 ID별 장치
- [P<도메인>]p<버스>s<슬롯>[f<기능>][n<물리포트이름>|d<개발_포트>] – 버스 ID별 장치
- x – MAC 주소별 장치
가장 일반적인 패턴에 대한 몇 가지 예는 다음과 같습니다:
- eno1 – 첫 번째 온보드 NIC입니다.
- enp3s0f1 – PCI 버스 3, 슬롯 0에 있는 NIC의 기능 1입니다.
가능한 장치 이름 패턴의 전체 목록은 systemd.net-naming-scheme(7) 매뉴얼 페이지를 참조하세요.
새로운 버전의 systemd는 새로운 버전의 네트워크 장치 명명 체계를 정의할 수 있으며, 이 경우 기본적으로 사용됩니다. 따라서 예를 들어 주요 Proxmox VE 업그레이드 중에 최신 systemd 버전으로 업데이트하면 네트워크 장치의 이름이 변경될 수 있으며 네트워크 구성을 조정해야 할 수 있습니다. 새 버전의 명명 체계로 인한 이름 변경을 방지하려면 특정 명명 체계 버전을 수동으로 고정할 수 있습니다(아래 참조).
그러나 명명 체계 버전을 고정하더라도 커널 또는 드라이버 업데이트로 인해 네트워크 디바이스 이름이 변경될 수 있습니다. 특정 네트워크 장치의 이름 변경을 완전히 방지하려면 링크 파일을 사용하여 해당 이름을 수동으로 재정의할 수 있습니다(아래 참조).
네트워크 인터페이스 이름에 대한 자세한 내용은 예측 가능한 네트워크 인터페이스 이름을 참조하세요.
특정 명명 체계 버전 고정하기
커널 명령줄에 net.naming-scheme= 매개변수를 추가하여 네트워크 장치에 대한 특정 버전의 명명 체계를 고정할 수 있습니다. 명명 체계 버전 목록은 systemd.net-naming-scheme(7) 매뉴얼 페이지를 참조하세요.
예를 들어, 새로 설치한 Proxmox VE 8.0의 최신 명명 체계 버전인 v252 버전을 고정하려면 다음 커널 명령줄 파라미터를 추가합니다:
net.naming-scheme=v252
네트워크 디바이스 이름 재정의하기
사용자 정의 systemd.link 파일을 사용하여 특정 네트워크 디바이스에 수동으로 이름을 지정할 수 있습니다. 이렇게 하면 최신 네트워크 장치 이름 지정 체계에 따라 할당되는 이름을 재정의할 수 있습니다. 이렇게 하면 커널 업데이트, 드라이버 업데이트 또는 최신 버전의 명명 체계로 인한 이름 변경을 방지할 수 있습니다.
사용자 지정 링크 파일은 /etc/systemd/network/에 위치하며 이름은 -.link로 지정해야 하며, 여기서 n은 99보다 작은 우선순위이고 id는 일부 식별자입니다. 링크 파일에는 두 개의 섹션이 있습니다: [Match]는 파일이 적용될 인터페이스를 결정하고, [Link]는 이름 지정을 포함하여 이러한 인터페이스를 구성하는 방법을 결정합니다.
특정 네트워크 장치에 이름을 지정하려면 [Match] 섹션에서 해당 장치를 고유하고 영구적으로 식별할 수 있는 방법이 필요합니다. 한 가지 방법은 MAC주소 옵션을 사용하여 장치의 MAC 주소를 일치시키는 것인데, 이 주소는 변경될 가능성이 거의 없습니다. 그런 다음 [Link] 섹션의 이름 옵션을 사용하여 이름을 지정할 수 있습니다.
예를 들어, MAC 주소가 aa:bb:cc:dd:ee:ff인 장치에 enwan0이라는 이름을 할당하려면 다음 내용으로 /etc/systemd/network/10-enwan0.link 파일을 만듭니다:
[Match] MACAddress=aa:bb:cc:dd:ee:ff [Link] Name=enwan0
새 이름을 사용하려면 /etc/network/interfaces를 조정하는 것을 잊지 마세요. 변경 사항을 적용하려면 노드를 재부팅해야 합니다.
참고: Proxmox VE가 인터페이스를 물리적 네트워크 장치로 인식하여 GUI를 통해 구성할 수 있도록 en 또는 eth로 시작하는 이름을 지정하는 것이 좋습니다. 또한 나중에 다른 인터페이스 이름과 충돌하지 않도록 이름을 지정해야 합니다. 한 가지 가능성은 위 예의 enwan0과 같이 systemd가 네트워크 인터페이스에 사용하는 이름 패턴(위 참조)과 일치하지 않는 이름을 지정하는 것입니다.
링크 파일에 대한 자세한 내용은 systemd.link(5) 매뉴얼을 참조하세요.
3.4.3. 네트워크 구성 선택하기
현재 네트워크 조직 및 리소스에 따라 브리지, 라우팅 또는 마스킹 네트워킹 설정을 선택할 수 있습니다.
외부 게이트웨이를 사용하여 인터넷에 연결되는 개인 LAN의 Proxmox VE 서버
이 경우 브리지 모델이 가장 적합하며, 이는 새 Proxmox VE 설치의 기본 모드이기도 합니다. 각 게스트 시스템에는 Proxmox VE 브리지에 연결된 가상 인터페이스가 있습니다. 이는 게스트 네트워크 카드가 LAN의 새 스위치에 직접 연결되어 있는 것과 유사한 효과로, Proxmox VE 호스트가 스위치 역할을 수행합니다.
게스트용 공용 IP 범위가 있는 호스팅 제공업체의 Proxmox VE 서버
이 설정에서는 제공업체가 허용하는 것에 따라 브리지 또는 라우팅된 모델을 사용할 수 있습니다.
단일 공용 IP 주소를 사용하는 호스팅 제공업체의 Proxmox VE 서버
이 경우 게스트 시스템에 대한 나가는 네트워크 액세스를 얻는 유일한 방법은 마스커레이딩을 사용하는 것입니다. 게스트에 대한 수신 네트워크 액세스의 경우 포트 포워딩을 구성해야 합니다.
유연성을 더 높이기 위해 VLAN(IEEE 802.1q) 및 네트워크 본딩(“링크 애그리게이션”이라고도 함)을 구성할 수 있습니다. 이렇게 하면 복잡하고 유연한 가상 네트워크를 구축할 수 있습니다.
3.4.4. 브리지를 사용한 기본 구성
브리지는 소프트웨어로 구현된 물리적 네트워크 스위치와 같습니다. 모든 가상 게스트가 하나의 브리지를 공유하거나 여러 개의 브리지를 만들어 네트워크 도메인을 분리할 수 있습니다. 각 호스트는 최대 4094개의 브리지를 가질 수 있습니다.
설치 프로그램은 첫 번째 이더넷 카드에 연결되는 vmbr0이라는 단일 브리지를 생성합니다. etc/네트워크/인터페이스의 해당 구성은 다음과 같이 보일 수 있습니다:
auto lo iface lo inet loopback iface eno1 inet manual auto vmbr0 iface vmbr0 inet static address 192.168.10.2/24 gateway 192.168.10.1 bridge-ports eno1 bridge-stp off bridge-fd 0
가상 머신은 마치 물리적 네트워크에 직접 연결된 것처럼 동작합니다. 네트워크는 이러한 모든 가상 머신을 네트워크에 연결하는 네트워크 케이블이 하나만 있어도 각 가상 머신에 자체 MAC이 있는 것으로 간주합니다.
3.4.5. 라우팅 구성
대부분의 호스팅 제공업체는 위의 설정을 지원하지 않습니다. 보안상의 이유로 단일 인터페이스에서 여러 MAC 주소를 감지하는 즉시 네트워킹을 비활성화합니다.
팁: 일부 제공업체는 관리 인터페이스를 통해 추가 MAC을 등록할 수 있도록 허용합니다. 이렇게 하면 문제를 피할 수 있지만 각 VM에 대해 MAC을 등록해야 하므로 구성이 번거로울 수 있습니다.
단일 인터페이스를 통해 모든 트래픽을 ‘라우팅’하면 이 문제를 피할 수 있습니다. 이렇게 하면 모든 네트워크 패킷이 동일한 MAC 주소를 사용하도록 할 수 있습니다.
일반적인 시나리오는 공용 IP(이 예에서는 198.51.100.5로 가정)와 VM을 위한 추가 IP 블록(203.0.113.16/28)이 있는 경우입니다. 이러한 상황에는 다음 설정을 권장합니다:
auto lo iface lo inet loopback auto eno0 iface eno0 inet static address 198.51.100.5/29 gateway 198.51.100.1 post-up echo 1 > /proc/sys/net/ipv4/ip_forward post-up echo 1 > /proc/sys/net/ipv4/conf/eno0/proxy_arp auto vmbr0 iface vmbr0 inet static address 203.0.113.17/28 bridge-ports none bridge-stp off bridge-fd 0
3.4.6. iptables를 사용한 마스커레이딩(NAT)
마스커레이딩을 사용하면 개인 IP 주소만 있는 게스트가 발신 트래픽에 호스트 IP 주소를 사용하여 네트워크에 액세스할 수 있습니다. 각 발신 패킷은 호스트에서 발신한 것처럼 보이도록 iptables에 의해 재작성되고, 그에 따라 응답이 원래 발신자에게 라우팅되도록 재작성됩니다.
auto lo iface lo inet loopback auto eno1 #real IP address iface eno1 inet static address 198.51.100.5/24 gateway 198.51.100.1 auto vmbr0 #private sub network iface vmbr0 inet static address 10.10.10.1/24 bridge-ports none bridge-stp off bridge-fd 0 post-up echo 1 > /proc/sys/net/ipv4/ip_forward post-up iptables -t nat -A POSTROUTING -s '10.10.10.0/24' -o eno1 -j MASQUERADE post-down iptables -t nat -D POSTROUTING -s '10.10.10.0/24' -o eno1 -j MASQUERADE
방화벽이 활성화된 일부 마스커레이드 설정에서는 나가는 연결에 컨트랙트 영역이 필요할 수 있습니다. 그렇지 않으면 방화벽이 MASQUERADE가 아닌 VM 브리지의 포스트라우팅을 선호하기 때문에 나가는 연결을 차단할 수 있습니다.
/etc/network/interfaces에 이 줄을 추가하면 이 문제를 해결할 수 있습니다:
post-up iptables -t raw -I PREROUTING -i fwbr+ -j CT --zone 1 post-down iptables -t raw -D PREROUTING -i fwbr+ -j CT --zone 1
이에 대한 자세한 내용은 다음 링크를 참조하세요:
- Netfilter Packet Flow
- Patch on netdev-list introducing conntrack zones
- Blog post with a good explanation by using TRACE in the raw table
3.4.7. Linux 본드
본딩(NIC 팀 또는 링크 집계라고도 함)은 여러 NIC를 단일 네트워크 장치에 바인딩하는 기술입니다. 네트워크 내결함성 확보, 성능 향상 또는 두 가지 목표를 함께 달성하는 등 다양한 목표를 달성할 수 있습니다.
파이버 채널과 같은 고속 하드웨어와 관련 스위칭 하드웨어는 상당히 비쌀 수 있습니다. 링크 집계를 수행하면 두 개의 NIC를 하나의 논리적 인터페이스로 표시하여 속도를 두 배로 높일 수 있습니다. 이는 대부분의 스위치에서 지원되는 기본 Linux 커널 기능입니다. 노드에 이더넷 포트가 여러 개 있는 경우 네트워크 케이블을 다른 스위치로 연결하여 장애 지점을 분산할 수 있으며, 네트워크 문제 발생 시 본딩된 연결이 한 케이블 또는 다른 케이블로 페일오버됩니다.
집계된 링크는 라이브 마이그레이션 지연을 개선하고 Proxmox VE 클러스터 노드 간의 데이터 복제 속도를 향상시킬 수 있습니다.
본딩에는 7가지 모드가 있습니다:
- Round-robin (balance-rr): 사용 가능한 첫 번째 NIC(네트워크 인터페이스) 슬레이브부터 마지막 슬레이브까지 순차적인 순서로 네트워크 패킷을 전송합니다. 이 모드는 부하 분산 및 내결함성을 제공합니다.
- Active-backup (active-backup): 본드에서 하나의 NIC 슬레이브만 활성화됩니다. 활성 슬레이브에 장애가 발생하는 경우에만 다른 슬레이브가 활성화됩니다. 네트워크 스위치의 왜곡을 방지하기 위해 단일 논리적 본드 인터페이스의 MAC 주소는 하나의 NIC(포트)에서만 외부에 표시됩니다. 이 모드는 내결함성을 제공합니다.
- XOR(balance-xor): (소스 MAC 주소와 대상 MAC 주소를 XOR한) 모듈로 NIC 슬레이브 수]를 기준으로 네트워크 패킷을 전송합니다. 이 모드는 각 대상 MAC 주소에 대해 동일한 NIC 슬레이브를 선택합니다. 이 모드는 부하 분산 및 내결함성을 제공합니다.
- Broadcast(broadcast): 모든 슬레이브 네트워크 인터페이스에서 네트워크 패킷을 전송합니다. 이 모드는 내결함성을 제공합니다.
- IEEE 802.3ad Dynamic link aggregation(802.3ad)(LACP): 동일한 속도 및 이중 설정을 공유하는 집계 그룹을 만듭니다. 802.3ad 사양에 따라 활성 애그리게이터 그룹의 모든 슬레이브 네트워크 인터페이스를 활용합니다.
- Adaptive transmit load balancing(balance-tlb): 특별한 네트워크 스위치 지원이 필요하지 않은 Linux 본딩 드라이버 모드입니다. 나가는 네트워크 패킷 트래픽은 각 네트워크 인터페이스 슬레이브의 현재 부하(속도에 따라 계산됨)에 따라 분산됩니다. 들어오는 트래픽은 현재 지정된 하나의 슬레이브 네트워크 인터페이스에서 수신됩니다. 이 수신 슬레이브에 장애가 발생하면 다른 슬레이브가 장애가 발생한 수신 슬레이브의 MAC 주소를 이어받습니다.
- Adaptive load balancing(balance-alb): IPV4 트래픽에 대한 balance-tlb와 수신 부하 분산(rlb)을 포함하며, 특별한 네트워크 스위치 지원이 필요하지 않습니다. 수신 부하 분산은 ARP 협상을 통해 이루어집니다. 본딩 드라이버는 로컬 시스템에서 보내는 ARP 응답을 가로채서 소스 하드웨어 주소를 단일 논리적 본딩 인터페이스의 NIC 슬레이브 중 하나의 고유 하드웨어 주소로 덮어쓰므로 서로 다른 네트워크 피어가 네트워크 패킷 트래픽에 다른 MAC 주소를 사용하게 됩니다.
스위치가 LACP(IEEE 802.3ad) 프로토콜을 지원하는 경우 해당 본딩 모드(802.3ad)를 사용하는 것이 좋습니다. 그렇지 않은 경우에는 일반적으로 활성 백업 모드를 사용해야 합니다.
클러스터 네트워크(Corosync)의 경우 여러 네트워크로 구성하는 것이 좋습니다. 코로싱크는 네트워크 중 하나를 사용할 수 없게 되는 경우 자체적으로 네트워크를 전환할 수 있으므로 네트워크 이중화를 위한 본드가 필요하지 않습니다.
다음 본드 구성은 분산/공유 스토리지 네트워크로 사용할 수 있습니다. 이 경우 속도가 빨라지고 네트워크가 내결함성을 갖게 된다는 이점이 있습니다.
예시: 고정 IP 주소로 본드 사용
auto lo iface lo inet loopback iface eno1 inet manual iface eno2 inet manual iface eno3 inet manual auto bond0 iface bond0 inet static bond-slaves eno1 eno2 address 192.168.1.2/24 bond-miimon 100 bond-mode 802.3ad bond-xmit-hash-policy layer2+3 auto vmbr0 iface vmbr0 inet static address 10.10.10.2/24 gateway 10.10.10.1 bridge-ports eno3 bridge-stp off bridge-fd 0
또 다른 가능성은 본드를 브리지 포트로 직접 사용하는 것입니다. 게스트 네트워크에 내결함성을 부여하는 데 사용할 수 있습니다.
예시: 본드를 브리지 포트로 사용
auto lo iface lo inet loopback iface eno1 inet manual iface eno2 inet manual auto bond0 iface bond0 inet manual bond-slaves eno1 eno2 bond-miimon 100 bond-mode 802.3ad bond-xmit-hash-policy layer2+3 auto vmbr0 iface vmbr0 inet static address 10.10.10.2/24 gateway 10.10.10.1 bridge-ports bond0 bridge-stp off bridge-fd 0
3.4.8. VLAN 802.1Q
가상 LAN(VLAN)은 레이어 2의 네트워크에서 분할되고 격리된 브로드캐스트 도메인입니다. 따라서 물리적 네트워크에는 각각 다른 네트워크와 독립적인 여러 네트워크(4096)가 있을 수 있습니다.
각 VLAN 네트워크는 흔히 태그라고 불리는 번호로 식별됩니다. 그런 다음 네트워크 패키지에 태그가 지정되어 해당 패키지가 속한 가상 네트워크를 식별합니다.
게스트 네트워크용 VLAN
Proxmox VE는 기본적으로 이 설정을 지원합니다. VM을 만들 때 VLAN 태그를 지정할 수 있습니다. VLAN 태그는 게스트 네트워크 구성의 일부입니다. 네트워킹 계층은 브리지 구성에 따라 VLAN을 구현하기 위한 다양한 모드를 지원합니다.
- Linux 브리지의 VLAN 인식: 이 경우 각 게스트의 가상 네트워크 카드는 Linux 브리지에서 투명하게 지원되는 VLAN 태그에 할당됩니다. 트렁크 모드도 가능하지만 게스트에서 구성이 필요합니다.
- Linux 브리지의 “전통적인” VLAN: VLAN 인식 방법과 달리 이 방법은 투명하지 않으며 각 VLAN에 연결된 브리지가 있는 VLAN 장치를 생성합니다. 즉, 예를 들어 VLAN 5에 게스트를 생성하면 재부팅이 발생할 때까지 유지되는 두 개의 인터페이스 eno1.5 및 vmbr0v5가 생성됩니다.
- Open vSwitch VLAN: 이 모드는 OVS VLAN 기능을 사용합니다.
- 게스트 구성 VLAN: VLAN은 게스트 내부에 할당됩니다. 이 경우 설정은 완전히 게스트 내부에서 이루어지며 외부의 영향을 받을 수 없습니다. 이점은 단일 가상 NIC에서 둘 이상의 VLAN을 사용할 수 있다는 것입니다.
호스트의 VLAN
격리된 네트워크와의 호스트 통신을 허용합니다. 모든 네트워크 장치(NIC, Bond, Bridge)에 VLAN 태그를 적용할 수 있습니다. 일반적으로 인터페이스와 물리적 NIC 사이의 추상화 계층이 가장 적은 인터페이스에서 VLAN을 구성해야 합니다.
예를 들어 호스트 관리 주소를 별도의 VLAN에 배치하려는 기본 구성에서 그렇습니다.
예: 기존 Linux 브리지와 함께 Proxmox VE 관리 IP에 VLAN 5 사용
auto lo iface lo inet loopback iface eno1 inet manual iface eno1.5 inet manual auto vmbr0v5 iface vmbr0v5 inet static address 10.10.10.2/24 gateway 10.10.10.1 bridge-ports eno1.5 bridge-stp off bridge-fd 0 auto vmbr0 iface vmbr0 inet manual bridge-ports eno1 bridge-stp off bridge-fd 0
예: VLAN 인식 Linux 브리지가 있는 Proxmox VE 관리 IP에 VLAN 5 사용
auto lo iface lo inet loopback iface eno1 inet manual auto vmbr0.5 iface vmbr0.5 inet static address 10.10.10.2/24 gateway 10.10.10.1 auto vmbr0 iface vmbr0 inet manual bridge-ports eno1 bridge-stp off bridge-fd 0 bridge-vlan-aware yes bridge-vids 2-4094
다음 예는 동일한 설정이지만 이 네트워크를 안전 장치로 만들기 위해 본드를 사용합니다.
예: 기존 Linux 브리지가 있는 Proxmox VE 관리 IP에 bond0과 함께 VLAN 5를 사용합니다.
auto lo iface lo inet loopback iface eno1 inet manual iface eno2 inet manual auto bond0 iface bond0 inet manual bond-slaves eno1 eno2 bond-miimon 100 bond-mode 802.3ad bond-xmit-hash-policy layer2+3 iface bond0.5 inet manual auto vmbr0v5 iface vmbr0v5 inet static address 10.10.10.2/24 gateway 10.10.10.1 bridge-ports bond0.5 bridge-stp off bridge-fd 0 auto vmbr0 iface vmbr0 inet manual bridge-ports bond0 bridge-stp off bridge-fd 0
3.4.9. 노드에서 IPv6 비활성화
Proxmox VE는 IPv6 배포 여부에 관계없이 모든 환경에서 올바르게 작동합니다. 모든 설정을 제공된 기본값으로 두는 것이 좋습니다.
노드에서 IPv6에 대한 지원을 비활성화해야 하는 경우 적절한 sysctl.conf (5) 조각 파일을 생성하고 적절한 sysctls를 설정하여 수행합니다. 예를 들어 콘텐츠와 함께 /etc/sysctl.d/disable-ipv6.conf를 추가합니다. :
net.ipv6.conf.all.disable_ipv6 = 1 net.ipv6.conf.default.disable_ipv6 = 1
이 방법은 커널 명령줄에서 IPv6 모듈 로드를 비활성화하는 것보다 선호됩니다.
3.4.10. 브리지에서 MAC 학습 비활성화
기본적으로 MAC 학습은 가상 게스트 및 해당 네트워크에 대한 원활한 경험을 보장하기 위해 브리지에서 활성화됩니다.
그러나 일부 환경에서는 이것이 바람직하지 않을 수 있습니다. Proxmox VE 7.3부터 ‘/etc/network/interfaces’에서 브리지의 ‘bridge-disable-mac-learning 1’ 구성을 설정하여 브리지에서 MAC 학습을 비활성화할 수 있습니다. 예를 들면 다음과 같습니다.
# ... auto vmbr0 iface vmbr0 inet static address 10.10.10.2/24 gateway 10.10.10.1 bridge-ports ens18 bridge-stp off bridge-fd 0 bridge-disable-mac-learning 1
활성화되면 Proxmox VE는 VM 및 컨테이너에서 구성된 MAC 주소를 브리지 전달 데이터베이스에 수동으로 추가하여 게스트가 실제 MAC 주소를 사용하는 경우에만 네트워크를 계속 사용할 수 있도록 합니다.