Page tree
Skip to end of metadata
Go to start of metadata

Перед развертыванием виртуального Edge предлагаем ознакомиться с опциями масштабирования производительности и системными требованиями к хосту. В качестве гипервизоров могут выступать VMware ESXi или KVM на Linux. В таблице ниже возможно ознакомиться с требованиями более подробно. Обратите внимание, что производитель заявляет Ubuntu как официально поддерживаемую операционную систему, если речь идет выборе ОС для хоста.

Также поддерживаются публичные облака, например, AWS. Но данная тема выходит за рамки данного раздела.

В данной статье описывается процесс установки виртуального VCE на гипервизоры ESXi и KVM. Говоря о ESXi, то можно выделить 2 способа взаимодействия с гипервизором - vSphere и vCloud Director. Оба способа взаимодействия и инсталляции будут описаны далее.

Рассмотрим  установку Edge на KVM.

На изображении ниже приведен пример производительности Edge с двумя vCPU. Производительность зависит не только от количества ядер, но и от модели процессора. В документации VMware указано, что это Intel Xeon-E5 2683 v4 2.10 GHz (AES-NI). Кроме модели процессора на производительность сетевой подсистемы влияет способ доступа к сетевой карте.

Для использования SR-IOV требуется активировать технологию в BIOS.

При выборе SR-IOV, производительность по сравнению с Linux Bridge возрастает из-за механизма прямого доступа к сетевой карте. Для того, чтобы SR-IOV работал вместе с KVM нужна поддержка со стороны производителя сетевых карт. VMware сертифицировала следующие сетевые чипсеты:

  • Intel 82599/82599ES
  • Intel X710/XL710

Перед использованием SR-IOV с картами на Intel X710/XL710 требуется убедится в актуальности установленных драйверов.

Не забудьте открыть порты TCP 443 и UDP 2426 в вашей виртуальной инфраструктуре, если у вас применяются настройки безопасности для блокировки тех или иных портов.

Для активации SR-IOV на платформе ESXi предлагается воспользоваться удобным инструментом по проверке взаимной поддержки SR-IOV гипервизором и сетевой картой.

Проверить поддержку можно по данному адресу.

Для получения более детальной информации по поддержке SR-IOV в ESXi возможно ознакомиться с материалом в базе знаний VMware по данному адресу.

Далее в настройках физических адаптеров хоста вы можете активировать SR-IOV для соответствующего адаптера, а также выбрать нужно количество виртуальных функций.

Перед установкой KVM необходимо проверить поддерживается ли аппаратная виртуализация вашей платформой. Задача перед установкой – проверить поддержку AMD-V или INTEL-VT командой «egrep -c '(vmx|svm)' /proc/cpuinfo». В случае успеха значение вывода должно быть больше 0.

Далее необходимо проверить поддержку KVM вашей системой. Установите утилиту KVM-OK командой sudo apt install cpu-checker, а затем выполните команду kvm-ok для проверки поддержки KVM. Ниже приведен результат успешного выполнения команды (KVM поддерживается).

Подготовительные операции завершены. Теперь вы можете установить KVM и сопутствующие инструменты. Вам потребуется установить QUEMU, VIRT-MANAGER, BRIDGE-UTILS и некоторые другие зависимости. Выполните следующую команду:

sudo apt install -y qemu qemu-kvm libvirt-daemon libvirt-clients bridge-utils virt-manager

Проверьте, что libvirtd-daemon (процесс виртуализации) работает командой «sudo systemctl status libvirtd», а также включите его автозапуск при загрузке «sudo systemctl enable --now libvirtd». Последний шаг – проверка загрузка модуля ядра KVM. Выполните команду lsmod | grep –i kvm и в случае успеха можно наблюдать следующий результат в зависимости от платформы (AMD или INTEL).

Для установки vVCE на KVM требуется окончательно определиться с выбором способа ввода/вывода. Так как процедура активации SR-IOV для KVM несколько длиннее в отличии от VMware, то на ней стоит остановится подробнее. Информация в данном разделе приведена с учетом того, что KVM/Qemu корректно развернут на хосте и получен VMX флаг (Intel) при прочтении cpuinfo. Возможно, вы уже прошли этот путь, так как эта процедура делается при развертывании нового гипервизора. Если ответ утвердительный, пропустите информацию, относящуюся к активации SR-IOV для KVM.

  • включите IOMMU (Input/output management unit) при загрузке ядра. Отредактируйте файл загрузчика, добавив туда следующую строку: GRUB_CMDLINE_LINUX="intel_iommu=on"
  • запустите обновление файла загрузчика командами update-grub и update-initramfs -u, а затем перезагрузите хост
  • убедитесь, что IOMMU активирован после загрузки операционной системы хоста. Это можно сделать составной командой dmesg | grep -i IOMMU. В полученных логах должна присутствовать строка [ 0.000000] Intel-IOMMU: enabled
  • если у вас карта Intel 82599/82599ES, загрузите с сайта Intel драйвер ixgbe и отредактируйте файл конфигурации драйвера /etc/modprobe.d/ixgbe.conf. Если файл отсутствует, его надо создать и прописать следующую конфигурацию:

  • запустите update-initramfs -u для обновления параметров начальной файловой системы и перезагрузите хост-сервер

Убедитесь, что драйвер установился корректно:

Если у вас карта Intel X710/XL710, загрузите с сайта Intel драйвер i40e и создайте виртуальные функции по следующему пути, где device name - имя интерфейса:

Для того, что виртуальные функции были доступны после перезагрузки добавьте команду из предыдущего шага в /etc/rc.d/rc.local

  • отключите VF драйвер

Выполните update-initramfs -u и перезагрузите хост-сервер. Валидируйте наличие VFS запросом к списку устройств командой lspci | grep -I Ethernet. Вы должны получить следующий результат:

Перенос файла на хост-систему

Создайте новый Edge в Оркестраторе согласно данному руководству, а затем загрузите образ виртуального VCE по ссылке из приветственного письма. Напоминаем, что образ для KVM должен иметь расширение qcow2.

Копируйте скаченный архив в каталог /var/lib/libvirt/images/ и запустите распаковку командой «sudo gunzip /var/lib/libvirt/images/edge-VC_KVM_GUEST-x86_64-4.2.1-36-R421-20210407-GA-bf02995cf1-updatable-ext4.qcow2.gz».

Копировать в нужный каталог можно как с помощью графических программ (WinSCP), так и соответствующими утилитами из Linux, например, командой «sudo cp edge-VC_KVM_GUEST-x86_64-4.2.1-36-R421-20210407-GA-bf02995cf1-updatable-ext4.qcow2.gz /var/lib/libvirt/images/». Название файла приведено для примера и может меняться от версии к версии ПО.

Создание cloud-init файла

Файл cloud-init необходим для инициализации параметров виртуального VCE при первом включении.

  • установить необходимые пакеты sudo apt update && sudo apt install -y cloud-init
  • создать каталог для файлов mkdir cloud-init
  • перейти в каталог cd cloud-init/ и создать файл user-data touch user-data
  • отредактировать файл user-data vi user-data и вставить указанный ниже текст

____________________________________

#cloud-config

password: passw0rd                                    «пароль для доступа через консоль»

chpasswd: { expire: False }

ssh_pwauth: True

velocloud:

      vce:

            vco: vco22-fra1.velocloud.net           «адрес оркестратора»

            activation_code: 9K26-3ZS2-XXXX-XXXX    «код активации из Оркестратора»

            vco_ignore_cert_errors: true

____________________________________

Для сохранения текста и выхода из редактора VI введите команду «:wq». Далее необходимо проверить содержимое файла «cat user-data».

  • создать файл meta-data командой touch meta-data и войти в режим редактирования vi meta-data, а затем вставить текст, приведенный ниже (меняя параметры если это необходимо)

____________________________________

instance-id: vedge1                           «имя Edge»

local-hostname: vedge1                        «имя Edge»

network-interfaces:                           «настройки сети»

      GE1:                                     «интерфейс LAN»

         mac_address: 12:53:00:79:19:3d

      GE2:                                     «интерфейс LAN»

         mac_address: 52:44:00:67:a2:53

      GE3:                                     «интерфейс WAN с DHCP»

         mac_address: 52:54:23:e4:a4:3d

      GE4:                                     «интерфейс WAN со статической адресацией»

         type: static

         ipaddr: 192.168.1.10

         mac_address: 52:54:00:14:e5:bd

         netmask: 255.255.255.0

         gateway: 192.168.1.1

____________________________________

Для сохранения текста и выхода из редактора VI введите команду «:wq». Далее необходимо проверить содержимое файла «cat meta-data».

  • создать файл network-config командой touch network-config и войти в режим редактирования vi network-config, а затем вставить текст, приведенный ниже (меняя параметры если это необходимо)

____________________________________

version: 2

ethernets:

  ens3:

     dhcp4: True

ethernets:

  ens4:

     dhcp4: True

____________________________________

Для сохранения текста и выхода из редактора VI введите команду «:wq». Далее необходимо проверить содержимое файла «cat network-config».

  • создать файл seed.iso для загрузки параметров активации и первичной конфигурации VCE «sudo genisoimage -output /var/lib/libvirt/boot/seed.iso -volid cidata -joliet -rock user-data meta-data network-config»

Добавление и запуск виртуальной машины

Запускаем виртуальную машину с необходимыми параметрами.

____________________________________

sudo virt-install --name vedge1 \

  --virt-type kvm --memory 4096 --vcpus 2 \

  --boot hd,menu=on \

  --disk path=/var/lib/libvirt/boot/seed.iso,device=cdrom \

  --disk path=/var/lib/libvirt/images/edge-VC_KVM_GUEST-x86_64-4.2.1-36-R421-20210407-GA-bf02995cf1-updatable-ext4.qcow2,device=disk \

  --graphics vnc \

  --network network:default,model=virtio \

  --network network:default,model=virtio \

  --network network:default,model=virtio \

  --network network:default,model=virtio \

  --console pty,target_type=serial

____________________________________

После запуска подключаемся через виртуальную консоль и наблюдаем за процессом загрузки. Существует 2 способа подключения:

  • подключение через виртуальный консольный порт; устанавливаем утилиту Screen sudo apt install screen и подключаемся sudo screen /dev/pts/1, где цифра в конце – номер линии
  • подключение средствами самого KVM; для этого определить ID виртуальной машины virsh list и подключаемся с указанием ID, например, virsh console 25

После успешной активации в консоли появится следующее сообщение.

Также проверяем в Оркестраторе факт активации Edge.

На последнем этапе понадобится добавить VCE в автозагрузку командой sudo virsh autostart vedge1 (в данной команде в качестве пример используется имя vedge1, но вам потребуется указать там имя вашего Edge). В качестве успешного ответа на команду вы получите «domain vedge1 marked as autostarted».

Дополнительная информация

Для получения более подробных сведений вы можете обратиться к официальной документации по адресу.

  • No labels