Подготовка шаблона vApp тестовой среды VMware vCenter + ESXi

Вложенная виртуализация позволяет запускать гипервизор внутри виртуальной машины. Это необходимо, чтобы не экспериментировать на боевой системе, рискуя уронить всё и сразу, а потом долго и мучительно поднимать её под добрые слова коллег о прямизне конечностей и чьей-то матери. Если вы хотите потестить вложенную виртуализацию, изучите наш туториал.

Перед вами пошаговое руководство по подготовке шаблона vApp для VMware Cloud Director, включающего в себя vCenter Server Appliance и 3 гипервизора ESXi, с целью снижения временных затрат на развертывании тестовой инфраструктуры VMware.

Оглавление
  1. Что мы будем делать

    1.1. Список VM в шаблон

    1.2. Требования

  2. Схема логической топологии

  3. Подготовка Working Environment

    3.1. Установка ESXi

    3.2. Установка ManagementVM

    3.3. Установка vCenter Server Appliance

  4. Создание шаблона vApp

    4.1. Подготовка vApp

    4.2. Создание ESXi VM в vApp

    4.3. Кастомизация ESXi в vApp

    4.4. Установка vCenter Server Appliance в vApp

    4.5. Установка Windows Server 2019 в vApp

    4.6. Установка Ubuntu 18.04 LTS в vApp

    4.7. Удаление ISO приводов и сетевых адаптеров

  5. Выгрузка vApp шаблона из Working Environment

  6. Загрузка vApp в VMware Cloud Director

1.    Что мы будем делать

Мы подготовим максимально гибкий шаблон без привязки к адресу подсети, доменному имени, количеству выделяемых ресурсов и т.п. Будем делать так, чтобы при развертывании шаблона администратор мог произвести тонкую настройку. Подготовка шаблона выполняется в сети 10.0.0.0/24, а за стандартные значения при развертывании готового шаблона примем домен Domain.local и сеть 192.168.2.0/24.

Имя домена domain.local и сеть 192.168.2.0/24 выберем как значения по умолчанию, которые можно изменять в процессе развёртывания шаблона.

Мы подготовим шаблон, включающий в себя 6 виртуальных машин.

1.1.  Список VM в шаблоне

  1. VMware ESXi — 1 Гипервизор;

  2. VMware ESXi — 2 Гипервизор;

  3. VMware ESXi — 3 Гипервизор;

  4. VMware vCenter Server Appliance with Embedded Platform Services Controller в конфигурации Tiny;

  5. Ubuntu 18.04 LTS в качестве общего NFS хранилища;

  6. Windows Server 2019 в качестве DNS сервера и Management machine. В последствии, с нее будет производится управления vCenter.

1.2.  Требования

  1. VDC в VMware Cloud Director:

    a.       28 vCPU;

    b.       50GB RAM;

    c.       2TB Storage.

  2. Дистрибутивы ПО:

    a.       ISO с дистрибутивом VMware ESXi 6.7U3b;

    b.       ISO (или OVA) с дистрибутивом VMware vCenter Server Appliance 6.7U3b;

    c.       ISO (или OVA) с Windows Server 2019;

    d.       ISO (или OVA) с Ubuntu1804.

  3. Дополнительное ПО (опционально):

    a.       Браузер Google Chrome;

    b.       Текстовый редактор Notepad++;

    c.       SFTP клиент WinSCP.

    d.       7-Zip

  4. Убедитесь, что в нашей локальной сети на уровне vCenter облачного провайдера переключены в состоянии Accept политики Promiscuous mode и Forged transmits. Иначе не будет связи между сетью виртуального дата-центра и сетью внутри подготавливаемого шаблона. Здесь об этом рассказывается подробнее.

Дистрибутивы продуктов VMware можно скачать с официального сайта, зарегистрировавшись в программе обучения и получив VMware Evaluation License на 60 дней.

Возможностей VMware Cloud Director для подготовки данного шаблона будет недостаточно, поэтому сначала развернём нашу рабочую среду «Working Environment» в виртуальном дата-центре VMware Cloud Director.

В рабочую среду мы установим ESXi гипервизор, vCenter Server Appliance и Windows Server 2019 в качестве ManagementVM. Подготовку шаблона будем выполнять, используя интерфейс vSphere Client в рабочей среде.

2.    Схема логической топологии

c43affd75022b1af87b962ffcd9172f9

3.    Подготовка Working Environment

3.1.  Установка ESXi

В VDC создаём каталог (Libraries → Catalogs → New) и загружаем в него ISO с установщиком ESXi.

Создаём VM temp-ESXi1 — ESXi 6.7.

Выбираем загрузку с ISO.

7d4c7e3cb798591750e53f20a05bbf24.png

Назначаем VM 24 vCPU, 24 Cores per socket, 32GB RAM и 5GB Storage. Подключаем сеть к виртуальной машине.

328e3b4041107abb3ff25a1939544f37.png

ESXi требует для развёртывания минимум двухъядерные процессоры. Установка на 24 одноядерных vCPU завершится ошибкой, поэтому необходимо задать отличный от единицы параметр Cores per socket.

Запускаем VM.

79dfc19009ec4250d2d40a7a83a61d15

Выполняем установку, нажимая Enter или F11

3c9228f78ac16461edeb4927dca7bdce

В процессе установки задаём пароль root

6e8f39b1999ee49543bc9c86a93a2145

Нажимаем F11 и дожидаемся завершения установки

c0db9edb8e002cccd289981c3684cc61153cef15713dbc722e696f186f9b7ee2

По завершению установки нажимаем Enter и перезагружаемся

e46d5b01432cd75db4e330a7ea58e22f

Дожидаемся окончания загрузки, нажимаем F2, вводим пароль root

24a6c00513b2514de789d1b2afaed9cf

Переходим в настройки сети Configure Management Network.

Задаём статический IP.

9062c55bcdac72acaf3d5fd305d343b0

Отключаем IPv6.

cff390e548ecbc3c0fe35ec9a05fc555

Перезагружаем VM для применения отключения IPv6. Для применения остальных настроек достаточно перезапуска сетевого адаптера.

В VMware Cloud Director подключаем к temp-ESXi1 ещё один диск на 1ТБ. Это будет наш Datastore. Перезагружаем VM temp-esxi1.

ab1a15cea42e1684dc42c751d6b4c268

3.2.  Установка ManagementVM

Разворачиваем VM с Windows Server 2019. Настраиваем доступ по RDP.

Подключаемся по RDP к VM c Windows Server. Устанавливаем роль DNS сервера.

Создаём Forward Lookup Zone template.local

2d032b463fb5975c5e7cb7df1b1e844023eb9f569027305ad567c3605d503f6e

Создаём Reverse Lookup Zone для 0.0.10.in-addr.arpa

00573987744750feec62cbef916e8d7e2a8ae6b8fc7cc6737dfd3250d9f1ad1626b54d8286dbcdc8399c0aa7963d2a26

Создаём A и PTR записи в созданных зонах для temp-esxi01 и vcentersa1.

45709dcccaccfb4a37c68ff8675958e0

Важно! PTR запись для vCenter должна быть обязательно. Без неё установка vCenter завершится ошибкой.

55fec7bb9859bd48d11efa51287430f7

Настраиваем DNS Forwarders.

Настраиваем DNS сервер 127.0.0.1 на сетевом интерфейсе.

3.3.  Установка vCenter Server Appliance

Монтируем образ VMware-VCSA-all-6.7.0–14367737.iso на ManagementVM и извлекаем из ISO E:\vcsa\VMware-vCenter-Server-Appliance-6.7.0.40000–14367737_OVF10.ova

81b844c53714146b2edd67499e7ecf6e

Переходим в vcd.cloud4y.ru в свой VDC. Загружаем в каталог OVA шаблон с vCenter. Для загрузки понадобится 300 ГБ свободного места в VDC.

77dc993a6b81eec28680ae97d5958ab1.pnge58559066ae07d4e8d33363a4f37fe47

Получаем ошибку

38cc5151f02fc1e5c2c2b3951e8b20f2.png

В логе видим текст ошибки Validation failed for the OVF file you provided: Fatal: Line/char 867/92: cvc-minInclusive-valid: Value '-100' is not facet-valid with respect to minInclusive '0' for type 'unsignedShort'. Fatal: Line/char 867/92: cvc-attribute.3: The value '-100' of attribute 'ovf: id' on element 'OperatingSystemSection' is not valid with respect to its type, 'unsignedShort'…

VMware Cloud Director не принимает значение -100 на строке 867 *.ovf файла.

Возвращаемся на ManagementVM и с помощью архиватора 7-zip извлекаем *.ovf и *.mf файлы. OVA представляет из себя архив tar, и, как правило, содержит файлы виртуальных дисков *.vmdk, файл конфигурации VM/vApp *.ovf, список файлов в архиве и их контрольные суммы *.mf

4c5eae12fab22169d86dba7e1d7dd0f5

Открываем *.ovf через текстовый редактор и ищем -100 на 867 строке изаменяем на 1

Теперь нам нужно пересчитать SHA1 для *.ovf файла и изменить это значение в *.mf файле

Для расчета хеша используем PowerShell

(Get-FileHash C:\Users\Administrator\Desktop\VMware-vCenter-Server-Appliance-6.7.0.40000–14367737_OVF10.ovf -Algorithm SHA1).Hash.ToLower ()

7162ae9e8a325bcb5276cdd4f889a089

Заменяем значение в *.mf файле

42216b9438a23056515b6c025b443479

Запаковываем *.ovf и *.mf обратно в OVA шаблон

fc85a349cb539a410e6a3827b3e040bb

Пробуем загрузить OVA в VDC ещё раз.

По завершению загрузки разворачиваем vApp с vCenter в нашем VDC

b0c4b01046e3cb92facc4d12b81d9d67.pngfa4ddbb1b513263986b6799d9fef4ea5.png

Выделяемые ресурсы vCPU, RAM, Storage не меняем. Больше ресурсов не требуется, а при меньшем значении могут возникнуть проблемы с производительностью.

Конфигурируем сеть.

c98dbef237d17960ac5b94a9f709fd1a.png

На шаге 8 ничего не меняем. Мы изменим эти параметры позже. Нажимайте Next. Если при развёртывании шаблона что-то пойдёт не так, придётся заполнять эти поля ещё раз при повторном развёртывании.

19dceed23baca53180120be9dbd15da5.png

Дожидаемся окончания развёртывания и перемещаем VM в vApp vcsa + esxi для наглядности. С технической точки зрения разницы нет.

2a4c5ab3ee8a096a214438379b02a9f4.png

По окончанию перемещения наш vApp vcsa + esxi выглядит следующим образом.

045d3b3a7da225c68098e5d36655c79d.png

Переходим в Guest Properties temp-vcentersa1 и нажимаем Edit

a37c8db8d4fb935861a623d0f1cd90b1

Заполняем поля, указанные в таблице ниже. Остальные поля заполнять не обязательно

Наименование параметра

Описание параметра

Значение параметра

Domain Name

Имя домена (DNS суффикс)

template.local

Host Network IP Address Family

Семейство IP

ipv4

Host Network Mode

IP Mode

static

Host Network IP Address

IP адрес vCenter

10.0.0.110

Host Network Prefix

Префикс подсети

24

Host Network Default Gateway

IP шлюза по умолчанию

10.0.0.1

Host Network DNS Servers

Адреса DNS серверов

10.0.0.102

Host Network Identity

FQDN vCenter

temp-vcentersa1.template.local

Directory Username

Логин учетной записи администратора в SSO домене. Используется для аутентификации в веб интерфейсе vCenter

administrator@vsphere.local

Directory Password

Пароль учетной записи администратора в SSO домене. Используется для аутентификации в веб интерфейсе vCenter

*пароль*

Directory Domain Name

Имя домена SSO. Должно соответствовать домену, указанному в логине учетной записи администратора

vsphere.local

Root Password

Пароль root от консоли vCenter

*пароль*

Tools-based Time Synchronization Enabled

Использовать VM Tools для синхронизации времени с гипервизором.

+

На случай, если мы где-то ошиблись в заполнении параметров, можно создать Snapshot перед первым запуском.

Запускаем VM и ждём 5–10 минут.

Через браузер с ManagementVM переходим на https://temp-vcentersa1.template.local:5480/ и дожидаемся окончания установки.

ff54c4ad663dac2965b25f74c2ce1720

Нажимаем Set Up

7e87a93fc333e00b8199fc37f3660c33

Вводим пароль root, указанный ранее в Guest Properties

537be8ae67b4c57f3b471119999a1e52

На шаге 2 проверяем корректность настроек. Редактируем при необходимости.

На шаге 3 создаём новый SSO домен.

538de34dd708a13a7c3b5c7583441742

Проверяем корректность параметров и нажимаем Finish.

7fc36449cbe9f8b24745d43e62bb675d

Если установка завершится ошибкой на 2%, то проблема почти наверняка кроется в некорректно созданной PTR записи для vCenter.

Дожидаемся окончания установки

201f979175f05f9b3b42781f50a49085

Переходим по адресу https://temp-vcentersa1.template.local:443, выбираем LAUNCH VSPHERE CLIENT (HTML5)

9e6eae48eee9af837697867d79098707

Вводим учётные данные Администратора SSO домена

1289ec28e6f0bbf50b90b3395bb98a2a

Скачиваем сертификат CA и устанавливаем в систему https://temp-vcentersa1.template.local/certs/download.zip .

Необходимо установить сертификат download.zip\certs\win\*.crt в доверенные корневые центры сертификации ManagementVM и перезапустить браузер.

В vCenter создаём дата-центр.

144bc67247afd53f39e3a68ce75dc20e.png

В дата-центре создаём кластер.

a7e2ceb242e9177ee10dfffd6d2b127f

Включаем vSphere DRS.

vSphere HA и VSAN оставляем выключёнными. C 1 ESXi гипервизором DRS работать не будет, но он должен быть включён для работы с vApp.

3aac48679736fb98a957c00f837b2d76

Переходим в Configure — > Configuration –> Quickstart кластера temp-Cluster и добавляем temp-ESXi1, нажав ADD.

bf252dcac8fb60b43a54d3f0b6c2cb4a

Выбираем наш хост temp-esxi1.template.local и вводим учётные данные root.

38939d824beaaf2692579d2e70a00cf6

Принимаем его сертификат и завершаем работу с Quickstart. Нужно добавить temp-esxi1 в кластер. Продолжать настройку кластера необходимости нет.

be707c4a5a7a4b8270e19b705b63bece

Добавляем Datastore в наш кластер. Кликаем правой кнопкой мыши по кластеру и выбираем Storage → New Datastore.

6abce364f6e034d1bc4a1991050e9ed1

Выбираем тип VMFS

90e56fa9bd20b1ff6434374e13360c7c

Задаём имя Datastore и выбираем подключенный ранее диск на 1 ТБ на temp-ESXi1.

10a44c00dac1a23ad6455873a3116073

На шаге 4 указываем использование всего раздела на 1 ТБ и завершаем работу мастера.

c5736504bd183ed335406184f5e273a8

Выводим temp-esxi1 из Maintenance Mode

3cd3a8141211d94f72436f54aa59f769

Подготовка инфраструктуры для создания шаблона завершена.

4.    Создание шаблона vApp

4.1.  Подготовка vApp

Кликаем на кластер правой кнопкой мыши и создаём новый vApp: vApp_vCenter6.7_3ESXi6.7_UbuntuNFS_WindowsDNS

В vApp будут следующие VM:

  1. ESXi01

  2. ESXi02

  3. ESXi03

  4. vCenterSA01

  5. WindowsDNS

  6. UbuntuNFS01

UbuntuNFS — это имитация внешней СХД. На ней будет Datastore, доступный всем ESXi хостам.

ESXi0x устанавливаем из ISO. vCenterSA01, WindowsDNS, UbuntuNFS можно развернуть из OVA шаблонов.

Добавим ISO с установщиком ESXi в temp-Datastore. Переходим в Datastores → temp-Datastore → Files, создаём папку ISO и загружаем в неё ISO образ установщика ESXi

b61bb53e2c108cc86ecfdb593528729e

4.2.  Создание ESXi VM в vApp

6f33e4d66157df1a93000d215bb35e1beeb027b8aa4fcd90e1cb7703d3c997a0

На шаге 2 задаём имя VM.

b32de8809ad54da09d6d6c8588083491

На шаге 3 выбираем vApp, в котором будут размещены VM.

d2ecf02ddda228a4afe3f13b0711afe9

На шаге 6 выбираем тип гостевой ОС.

efaf56a34d8363c704f7813ee915b040

На шаге 7 выбираем 2 vCPU, 4GB RAM, 5GB Storage и подключаем ISO. Разверните подраздел CPU и отметьте пункт Hardware virtualization.

a78bc7d2ab13d31109daa0ee508df749010ffc8569cacf2fc0907136c7d25d0b

Перейдите на вкладку VM Options и снимите отметку с пункта Secure Boot.

44c773cb646cfd0c093b634495f76a85

Клонируем VM ESXi01 в VM ESXi02 и в VM ESXI03.

bd3c64ea17863b4c822b3351b560fd75

Запускаем vApp и выполняем установку ESXi01, ESXi02, ESXi03.

Настраиваем на ESXi IP адреса:

ESXi01 — 10.0.0.11

ESXi02 — 10.0.0.12

ESXi03 — 10.0.0.13

На каждом ESXi хосте включаем доступ по SSH (F2 → Troubleshooting Options — > Enable SSH)

0a5146704a8e735f1b5478449e7656e55d4d110adca535ab181cd60d48edf605

4.3.  Кастомизация ESXi в vApp

Добавим ESXi хостам возможность кастомизации сетевых параметров из интерфейса VMware Cloud Director (и vSphere Client). Для этого подключимся с помощью WinSCP к хосту, перейдём в каталог /etc/rc.local.d и откроем текстовым редактором файл local.sh

45db9b1dd2d2b033b3445aaaa61facf5.png

Заменим содержимое local.sh следующим скриптом:

#!/bin/sh
#Customization script for ESXi01
getprops_from_ovfxml() {
/bin/python - </tmp/ovf.xml 2>/dev/null
eval `getprops_from_ovfxml /tmp/ovf.xml`
#Проверяем, что в Guest Properties включена кастомизация
if [ $enablecustomization1 = "enabled" ] ;
then
esxcfg-init --set-boot-progress-text "Applying OVF customization..."
#Изменяем пароль root
echo $rootpassword1 | passwd --stdin root
#Задаем FQDN ESXi хоста
esxcli system hostname set --fqdn=$fqdn1
#Задаем настройки IP
esxcli network ip interface ipv4 set -i vmk0 -I $ipaddr1 -N $netmask1 -g $defaultgateway1 -t static
#Очищаем список DNS серверов
esxcli network ip dns server remove -a
#Добавляем DNS сервер
esxcli network ip dns server add --server=$dnsserver1
#Перезапускаем сетевой интерфейс для применяния настроек
esxcli network ip interface set -e false -i vmk0
esxcli network ip interface set -e true -i vmk0
esxcfg-init --set-boot-progress-text "OVF customization applied"
else
esxcfg-init --set-boot-progress-text "OVF customization disabled."
fi
rm -f /tmp/ovf.xml
exit 0

Сохраним файл и выключим хост ESXi из меню выключения.

9d182d3a39575525d2c1fed98230d72e.png

Важно: для каждого ESXi хоста применятся своя версия скрипта.

Это связано с тем, что в ovf.xml передаются все параметры Guest Properties каждой VM в vApp.

Для ESXi02 в скрипте нужно у всех переменных заменить число в конце переменной на 2.

$rootpassword1 заменить на $rootpassword2

$ipaddr1 заменить на $ipaddr2

и т.д.

Скрипт для ESXi02
#!/bin/sh
#Customization script for ESXi02
getprops_from_ovfxml() {
/bin/python - </tmp/ovf.xml 2>/dev/null
eval `getprops_from_ovfxml /tmp/ovf.xml`
#Проверяем, что в Guest Properties включена кастомизация
if [ $enablecustomization2 = "enabled" ] ;
then
esxcfg-init --set-boot-progress-text "Applying OVF customization..."
#Изменяем пароль root
echo $rootpassword2 | passwd --stdin root
#Задаем FQDN ESXi хоста
esxcli system hostname set --fqdn=$fqdn2
#Задаем настройки IP
esxcli network ip interface ipv4 set -i vmk0 -I $ipaddr2 -N $netmask2 -g $defaultgateway2 -t static
#Очищаем список DNS серверов
esxcli network ip dns server remove -a
#Добавляем DNS сервер
esxcli network ip dns server add --server=$dnsserver2
#Перезапускаем сетевой интерфейс для применяния настроек
esxcli network ip interface set -e false -i vmk0
esxcli network ip interface set -e true -i vmk0
esxcfg-init --set-boot-progress-text "OVF customization applied"
else
esxcfg-init --set-boot-progress-text "OVF customization disabled."
fi
rm -f /tmp/ovf.xml
exit 0
Скрипт для ESXi03
#!/bin/sh
#Customization script for ESXi03
getprops_from_ovfxml() {
/bin/python - </tmp/ovf.xml 2>/dev/null
eval `getprops_from_ovfxml /tmp/ovf.xml`
#Проверяем, что в Guest Properties включена кастомизация
if [ $enablecustomization3 = "enabled" ] ;
then
esxcfg-init --set-boot-progress-text "Applying OVF customization..."
#Изменяем пароль root
echo $rootpassword3 | passwd --stdin root
#Задаем FQDN ESXi хоста
esxcli system hostname set --fqdn=$fqdn3
#Задаем настройки IP
esxcli network ip interface ipv4 set -i vmk0 -I $ipaddr3 -N $netmask3 -g $defaultgateway3 -t static
#Очищаем список DNS серверов
esxcli network ip dns server remove -a
#Добавляем DNS сервер
esxcli network ip dns server add --server=$dnsserver3
#Перезапускаем сетевой интерфейс для применяния настроек
esxcli network ip interface set -e false -i vmk0
esxcli network ip interface set -e true -i vmk0
esxcfg-init --set-boot-progress-text "OVF customization applied"
else
esxcfg-init --set-boot-progress-text "OVF customization disabled."
fi
rm -f /tmp/ovf.xml
exit 0

После того, как мы добавили скрипты на каждый ESXi хост, через vCenter кликаем на VM → Configure → vApp Options → Edit

f1673dc8fb1929eef3d14bbeb2c6a549.png

Отмечаем пункт Enable vApp options, а на вкладке OVF Details отмечаем пункт VMware Tools. Это нужно для того, чтобы VMware Tools передали ovf.xml внутрь гостевой ОС ESXi

cfae67ce16e48b0155982abeaf9c99ce.png

Переходим VM → Configure → vApp Options, пролистываем вниз и нажимаем ADD.

105b0277bf471724cf20753e8a8585ec.png

Для ESXi01 нужно добавить следующие Properties:

  1. enablecustomization1;

  2. rootpassword1;

  3. fqdn1;

  4. ipaddr1;

  5. netmask1;

  6. defaultgateway1;

  7. dnsserver1.

В поле Category указываем название подраздела, в поле Label — отображамое имя параметра, а в поле Key ID — имя переменной, которую обрабатывает скрипт кастомизации.

Эти параметры можно будет задать в интерфейсе VMware Cloud Director в процессе развёртывания шаблона. Скриншот для наглядности ниже.

d51c541d8033c6c5a691f2992d46c178.png

Нажимаем ADD и добавляем Properties.

9d6ea97c2dfb200a30ee556c93584d7a.png

На вкладке Type мы можем выбрать тип параметра, в нашем случае все параметры строковые (String), и выбрать значение по умолчанию (Default value). Это значение будет автоматически подставлено при развёртывании шаблона.

ad67b5ee4f227b59bba45584b751318c.png

Создаём property для каждого параметра на каждом ESXi хосте.

Корректно заполненные Properties должны выглядеть, как на скриншотах ниже.

92b9a1806cd59f9be10cd0c38b53d337.png516787ecd8e272fa93983f9d28ee93b0.png43445003d788513b428ca042b740719f.png

4.4.  Установка vCenter Server Appliance в vApp

Добавим OVA с vCenter Server Appliance vApp. Конфигурировать и запускать не будем.

f7c037718b6dcb8d64f3282268926824.png

Выбираем OVA шаблон vCenter

44389ed2edfcd69e6d0435d35ebbbeb4.png

В процессе развёртывания оставляем все значения «По умолчанию». Просто нажимаем Next на каждом этапе и дожидаемся окончания развёртывания.

Затем необходимо установить Windows Server 2019 и Ubuntu 18.04 LTS. Это можно сделать, используя ISO-образы, но я пойду более простым путём и разверну их из OVA шаблонов, предварительно скачанных из публичных каталогов VMware Cloud Director (vcd.cloud4y.ru).

4.5.  Установка Windows Server 2019 в vApp

Разворачиваем Windows Server из OVA шаблона. Запускаем VM.

Включаем удалённое управление по RDP.

Устанавливаем роль DNS сервера.

Создаём Forward Lookup Zone для domain.local.

fba143e48fc3f1cf978545aed1d29c54.png

Создаём Reverse Lookup Zone для 2.168.192.in-addr.arpa.

0b524cab2164d2e926ab52c8cbbc584a.png

Выключаем VM.

4.6.  Установка Ubuntu 18.04 LTS в vApp

Концепция следующая:

При развёртывании шаблона в VMware Cloud Director подключаем к VM с Ubuntu 18.04 LTS дополнительный диск, форматируем его в ext4 и расшариваем в нашей подсети средствами NFS.

Настраиваем сеть. Устанавливаем обновления: apt install update && apt install upgrade -y

Устанавливаем NFS сервер: apt install nfs-kernel-server nfs-common -y

Внесём закомментированные строки, которые будет достаточно раскомментировать в случае развёртывания в стандартной конфигурации.

Редактируем /etc/fstab

430930c8157d00dc90faac22aabaa4ea.png

Редактируем /etc/exports

ab3d2f567d927f44bea2204be8112a8e.png

Выключаем все запущенные VM в vApp.

4.7.  Удаление ISO приводов и сетевых адаптеров

Переходим в настройки каждой VM и удаляем все CD-приводы и сетевые адаптеры каждой VM в vApp. CD-приводы нам более не требуются. Сетевые адаптеры удаляем во избежание конфликтов при развёртывании шаблона.

e7f8e487866332c11b37a6410610eec6.png044937ef051d918fe4f4b5e19caee0ba.png

5.    Выгрузка vApp шаблона из Working Environment

Выгрузка шаблона из vCenter.

Теперь мы можем выгрузить шаблон.

17863b6c8e562fe03b4d39599994b10e.png50d7e29c9a36e6012b7172436b096592.pngВ случае возникновения подобного предупреждения разрешаем открытие всплывающих окон в браузере.В случае возникновения подобного предупреждения разрешаем открытие всплывающих окон в браузере.

По окончанию скачивания получаем набор файлов, готовых к загрузке в VMware Cloud Director. Общий размер 11,5 ГБ, но в VMware Cloud Director потребуется около 350ГБ, т.к. у нас используются Thin (тонкие) диски, а VMware Cloud Director рассчитывает размер не по текущему размеру диска, а по максимальному (до которого диски могут быть расширены).

458e96b2c243eff2d45d7b21c7527d38.png

6.    Загрузка vApp в VMware Cloud Director

Переходим в vcd.cloud4y.ru и загружаем vApp из OVF.

59f9bb3c9a33ac0f0d5d3fd18e243421.png

Нажимаем Browse и выбираем все файлы, которые мы экспортировали из vCenter.

281f67775480e1a4277562cd9ad3a78d.pnge5a242e2041d9c8588a96cb713ff9d3a.png

На последующих шагах принимаем EULA и не вносим изменений в параметры развёртывания. Нажимаем Next→ Next →… → Finish.

Дожидаемся окончания загрузки. Теперь мы можем сохранить готовый vApp в каталог.

Надеемся, что наш туториал по подготовке шаблона vApp тестовой среды VMware vCenter + ESXi в VMware Cloud Director будет вам полезен при работе с вложенной виртуализацией и подготовке среды для неё. Да, в первую очередь информация будет полезна инженерам облачного провайдера. Но для понимания принципов работы облачной инфраструктуры статью можно прочитать и другим техническим специалистам.

Спасибо за внимание!

Что ещё интересного есть в блоге Cloud4Y

→ Пароль как крестраж: ещё один способ защитить свои учётные данные

→ Тим Бернерс-Ли предлагает хранить персональные данные в подах

→ Виртуальные машины и тест Гилева

→ Создание группы доступности AlwaysON на основе кластера Failover

→ Как настроить SSH-Jump Server

Подписывайтесь на наш Telegram-канал, чтобы не пропустить очередную статью. Пишем не чаще двух раз в неделю и только по делу.

© Habrahabr.ru