Инсталлируем Sangfor HCI. Часть 2

Привет, меня зовут Иван. Я по-прежнему работаю в Nubes, отвечаю за направление виртуализации и поддержку облачных сервисов. А ещё продолжаю изучать Sangfor — азиатскую альтернативу популярным продуктам HCl (Hyper Converged Infrastructure), которые недавно покинули российский рынок. На Хабре делюсь подробным гайдом по инсталляции и настройке решения.

09c33e4113d33e9c7ce4e51ff73abdbf.png

Предыдущую статью я закончил на этапе установки гипервизоров на хосты. В этот раз расскажу и покажу:

  • все основные моменты развертывания кластера,

  • как добавить лицензию,

  • как подключить внешнюю СХД,

  • как настроить aSAN. 

Дисклеймер: прошлая статья про Sangfor HSI была почти полгода назад. За это время в стенде мы стали использовать сервера иной конфигурации на базе процессоров AMD. И так как стенд разворачивался очень резво, то было совсем не до скриншотов. 

Показывать только готовый развёрнутый стенд — такое себе занятие. Поэтому скриншоты могут немного отличаться по наполнению, ибо взяты с чистой установки… с хостами на базе Intel из первой статьи. Вот такие вышли рокировочки.

Создаём кластер 

Гипервизор установили, а значит можно приступить к развёртыванию кластера.

Проваливаемся через браузер на любой из IP-гипервизоров.

881119089b1addc92cfb259b8f14afee.jpg

Учётка по умолчанию была указана на последнем этапе установки: admin/admin. Видим стартовый экран:

cdf5a1284c64ab2cdfeb92180c679a92.JPGd1d970afdbe6a240c6e14018f8548d05.jpg

Наблюдать один грустный хост не очень хочется, поэтому выбираем пункт Add new node. Если же кластера нет, то первым делом нам предложат заполнить данные: указать его имя, адрес и маску. 

0bc0e2f23027f8348b4a94dae4bd1560.jpg

Далее мы можем добавлять хосты в кластер по одному или сразу по несколько.

c352cc6c48ebf35e67352b69b600aa27.jpge87c0ae5023019033931d217bb3d51a1.jpg42bc28f0eb7ce8047843afe653c48b1a.jpg

Next, next, next — и визард ругнулся только на отсутствие лицензии. Но это нормально, ею мы займёмся позже.

506de9858f4c8172bacc58fcf1762d94.jpgfb5dfc7bda73d7334ecb4059279f6846.jpg

В настройках кластера мы можем добавлять или удалять ноды, а также изменять время для перевыбора кластер-контроллера.

2991bdc743ce017d2a9ff757ddf925a8.jpg

После всего этого мы переходим по адресу, который указывали как кластерный. Далее управляем всем уже с него. При первом логине платформа потребует сменить пароль от учётки admin на новый.

Также после создания кластера создадим Overlay-сеть. Без неё никак. В своей конфигурации я выбрал пункт Add Multiple VLAN Subinterfaces и добавил три сабинтерфейса.

7ce441ab91aae6a9cebfc5f8184b8fb2.jpg

Переходим на вкладку Overlay Network Interface и добавляем новый IP-пул.

32d92e4614f00600f6779cb82cab6e37.jpg

Здесь также можно использовать любую адресацию, так что заполняем поля и двигаемся дальше.

e76cce184497f89fd8f68380f9db7060.jpgd90d4e6d728f76caed36f38c317ca9b5.jpg

Всё. Настройку Overlay закончили (:

Добавляем лицензию

Предлагаю выйти за рамки ознакомительного функционала и добавить лицензии на наш кластер. Для этого генерируем файл с хостов, по которому коллеги из Sangfor выпишут лицензии.

Лицензия может быть представлена в двух вариантах — в виде USB-ключа или сгенерированного файла с хостов кластера.

c09efa1c14a383a99ffdb66d1d0cf942.JPG

Для генерации файлика лицензии необходимо минимум два хоста.

Выбираем два и далее — экспорт.

47391e621a3ebd82ddeb7ee33012a56b.jpg

После получения лицензии в том же меню выбираем пункт «Активировать лицензию».

d1880aa4e0c0a17c2887c7d385358926.JPG

Так как у меня лицензия Enterprise, то все компоненты лицензированы.

b945b9b7842e057d88a85d2cc1672f1d.JPG9fd53dd38d3568289061bd0082f7938b.JPG

Важно: файл, который мы генерим, будет уникальным, и повторно лицензию использовать нельзя. Даже если переустановите систему на этих же хостах.

Как работает лицензия на базе USB-ключа я не знаю, к сожалению. С ней на практике не сталкивался.

Настраиваем aSAN

Следующим шагом добавим хранилище. Есть два варианта:

  1. aSAN — виртуальное хранилище на локальных дисках сервера (аналог технологии VMware vSAN);

  2. классическое подключение по FC, iSCSI, NFS и с использованием локальных дисков.

aSAN — это решение для распределённого хранения данных от компании Sangfor. Оно разработано на основе распределённой файловой системы GlusterFS. Подробнее коснемся данной технологии в статье про тесты на производительность.

Чтобы собрать виртуальное хранилище, нам придётся соблюсти три требования:

  1. Наличие лицензии, которая позволяет использовать технологию aSAN.

  2. Отдельные физические интерфейсы для трафика.

  3. Настройка Storage Network Interface.

Последний пункт на практике выглядит довольно просто. Сначала выбираем Add Storage Area Network.

aef5ec7618b4a21757f83651386023ce.JPG90745da4437cdd7e49f7dc0ebfbc514d.JPG

Так как в агрегаты я линки не собирал, то выбираю второй пункт — Link aggregation disabled.

Адресация на скриншоте ниже является дефолтной. При желании её можно изменить на свою.

c6cec2d171d5be10c597122e8a019335.jpg1eb3a32ebb668cf44c340b736d1b1d3e.jpg2d2b46e3ddc99fb0e8d6529e93be7295.jpg

После всех этих манипуляций мы можем собрать виртуальное хранилище. Для этого выбираем Storage — Virtual Storage — New.

182977f293c3a6b726aca022af8a98cb.JPG

В данном окне мы видим все серверы кластера с указанием количества локальных дисков. Выбираем нужные (в нашем случае — все).

f1ca0f16ec438af596f4a923eb414f09.jpg

И видим список всех доступных дисков на каждом хосте. Список поддерживаемых дисков можно запросить у коллег из Sangfor.

Важно: есть вероятность, что диски в данном меню будут помечены красным как неподдерживаемые. В таком случае следует обратиться в техподдержку.

79e0e30a4922b41127e1d64135a4380c.jpg

Далее у нас есть возможность изменить конфигурацию дисковых групп на каждом сервере. Я создал по две дисковые группы на сервер.

077c985badcf4db1a27594ff39aea4dd.jpgbf26d12bca7bf6325c5a5367a3523388.jpgd3abc71c2bcc2adfe4521e6bf642ffdc.jpg

В финале вываливаемся в последнее меню и видим общую конфигурацию того, что мы наконфигурили. Если всё ОК, то двигаемся дальше и ждём успешного окончания задачи по созданию виртуального хранилища.

6ead4b3cd290884347b8b8e6b3fb8c63.jpg

Итог должен быть вот таким :)

c97f2d3f57d18ea4d2afea8be5a27cff.jpg

Подключаем СХД

Как я уже писал ранее, мы можем добавить внешние СХД по протоколам:

  • FC,

  • iSCSI,

  • NFS.

Перед подключением СХД по iSCSI на моем стенде требовалось добавить сабинтерфейс с сетью, по которой она доступна. Делается это аналогично c Overlay. Выбираем Add Multiple VLAN Interfaces и указываем свои настройки сети. 

Перед подключением LUN нам нужно добавить таргеты.

66fe0da8c0f31544cd62a41db990aa17.JPG6b6f6dd0c490d0ba0fdd725aa8d812ff.jpg2cdcd73a216daf9ee458fc0131657cca.jpg

На СХД видим инициатор в таком формате: iqn.2005–03.org.open-iscsi: host-e8ebd337de1c. 

Презентуем LUN на хосты, затем ресканим и только после этого подключаем LUN:

4762f926e90c8922404c3beeaff3e90f.JPG

Выбираем необходимое количество хостов.

9e8ab5b204a02711105dbcec9cc84352.jpg

Затем указываем имя и некоторые другие параметры.

5d68802ff630b78b5a0c960f3ed1b964.JPG

Подключение по FC выглядит аналогично. С NFS тоже всё просто.

bc22ef972b88b0be0a940445feda3245.jpg

Указываем необходимые данные NFS-сервера, после чего шара появляется в списке доступных. 

На этом сегодня всё. Ухожу писать следующую часть нашего большого гайда. Надеюсь, что вернусь не через полгода, а раньше. Скоро разберу следующие этапы инсталляции и настройки HSI Sangfor. В частности, расскажу, как развернуть и настроить SCP — Sangfor Cloud Platform. 

А пока с удовольствием отвечу на ваши вопросы. Когда есть комментарии, писать следующие статьи как-то веселее:)

© Habrahabr.ru