Блейд-коммутация в шасси Dell PowerEdge M1000e
Сегодня мы расскажем о коммутаторах Dell Networking MXL и PowerEdge M I/O Aggregator для установки в модульное шасси для блейд-серверов Dell PowerEdge M1000e, предназначенных для скоростной связи серверов как в пределах шасси, так и с соседними группами серверов, системами хранения данных и для подключения к ядру сети. Они поддерживают новейшие технологии для систем коммутации и благодаря этому могут быть использованы в составе сложных сетевых архитектур не только для увеличения скорости обмена данными и создания отказоустойчивых конфигураций, но и для конвергенции сетей передачи и хранения данных. Каждый из них обеспечивает производительность 1,28 Тбит/с в дуплексном режиме, поддерживает до 6 портов 40 Гбит/с и оснащен двумя слотами для установки модулей расширения, поддерживающих различные сетевые интерфейсы. Однако, как видно из названия, один из них относится к линейке сетевого оборудования Dell Networking, а другой к серверной Dell PowerEdge. Почему – разберемся при их изучении. Начнем с блейд-шасси.
Корпус PowerEdge M1000e
Знакомство
Модульное шасси для блейд-серверов PowerEdge M1000e на данный момент является флагманом компании на рынке блейд-решений. Гибкость конфигурирования, компактность, централизованное управление, возможность наращивания мощности в процессе эксплуатации и внедрения новых технологий без полного переоснащения серверных шкафов – вот основные преимущества использования решений на основе блейд-технологии. Развивается она уже давно, и PowerEdge M1000e – зрелое, законченное решение с богатым выбором опций для комплектации. Кратко рассмотрим его устройство.
С фронтальной стороны находится шестнадцать отсеков для установки серверов половинной высоты, а также других совместимых устройств. Например, Dell выпускает iSCSI системы хранения данных для установки непосредственно в это шасси. Самый популярный формат серверов — половинной высоты, как на фотографии, однако бывают как полной высоты, так и в четверть слота. Таким образом, возможна установка до 32 серверов в одно шасси размером 10U. Также на фронтальной панели находится интерактивный мини-дисплей и порты USB и VGA для подключения клавиатуры, мыши и дисплея.
На тыльной стороне размещены шесть отсеков для блоков питания (снизу) и девять для вентиляторов, все с горячей заменой. Сверху размещаются KVM с возможностью подключения к удаленной консоли по витой паре и два отсека для Chassis Management Controller, обеспечивающего интерфейс для полного управления как шасси, так и установленного в него оборудования. Между вентиляторами расположены шесть отсеков для установки сетевых коммутаторов.
Основная часть корзины – мидплейн, через него осуществляется питание установленного оборудования и обмен данными. На каждом сервере имеются сетевые порты, предустановленные LOM либо добавленные при помощи карт расширения формата Mezzanine, на коммутаторах для корзины имеются внутренние порты, все они коммутируются через мидплейн. Скорость обмена данными по нему может достигать 8,4 Тбит/с в дуплексном режиме. При установке соответствующих сетевых коммутаторов поддерживается до 32 внутренних серверных портов на слот.
В качестве вариантов выбора Dell предлагает полтора десятка устройств разной степени сложности и мощности, а также поддерживающих разные технологии коммутации. Это Ethernet-коммутаторы собственного производства и Cisco, Fibre Channel коммутаторы Brocade и InfiniBand от Mellanox.
Внешняя коммутация На схеме видно, что два слота А на шасси предназначены для коммутаторов Ethernet, тогда как B и C могут содержать модули с поддержкой Fibre Channel и InfiniBand. Также здесь видны два, для защиты от сбоев, модуля CMC, подключаемые к выделенной сети управления. Один модуль обеспечивает полную функциональность, второй находится в горячем резерве. Между ними KVM, на котором порт RJ-45 служит не для подключения к сети, а для удаленной консоли. Два USB и VGA – для локальной.
Внутренняя коммутация На рисунке показана схема внутренней коммутации для серверов половинной высоты. Здесь как раз показаны интерфейсы, которые могут присутствовать на таких серверах: встроенный двух- или четырехпортовый Ethernet-адаптер с поддержкой скорости 1 или 10 Гбит/с и карты расширения формата Mezzanine, которые могут поддерживать до двух портов Fibre Channel и InfiniBand или до четырех портов Ethernet.
На следующем рисунке представлено распределение портов в случае использования четырехпортовых Ethernet-адаптеров в серверах при использовании блейд-коммутаторов с 32 внутренними портами, например, Dell Networking MXL.
Dell Networking MXL и PowerEdge M I/O Aggregator
Общее Оба коммутатора поддерживают до 32 внутренних портов 10 GbE для обмена данными между серверами. Оба оснащены двумя портами 40 GbE QSFP+ и двумя слотами расширения для совместимых модулей. На лицевой панели каждого находится 2 порта USB – один для консоли и один для устройства хранения данных.
Оптическими портами поддерживается как подключение трансиверов для последующей коммутации оптоволоконными кабелями, так и прямое соединение специальным кабелем, поддерживающим диапазон скоростей 10 Гбит/с или 40 Гбит/с, но не предназначенным для передачи сигнала на большие расстояния. В качестве опций доступны кабели-разветвители 40 Гбит/с в 4 по 10 Гбит/с. На рисунке представлены поддерживаемые модули расширения, трансиверы и кабели для них.
Модуль с четырьмя портами 10GBASE-T RJ-45 можно установить только один, во второй слот при этом можно поставить любой другой модуль расширения. Кроме этого ограничения, все остальные модули можно одновременно использовать в любых доступных комбинациях, как разные, так и одинаковые.
Различия
PowerEdge M I/O Aggregator
Предназначен для быстрого ввода в эксплуатацию шасси М1000е и подключения к сетям, построенным на основе оборудования различных производителей, поддерживающего разные сетевые технологии. Для ввода в эксплуатацию требуется распаковать коммутатор, установить его в слот шасси, назначить IP-адрес и пароль администратора и подключить uplink-порты к стоечному коммутатору или коммутатору ядра сети. На стоечном коммутаторе нужно настроить LAG в режиме LACP. При использовании конвергенции все настройки DCB (ETS и PFC) новое устройство M I/O Aggregator возьмет со стоечного коммутатора, используя протокол DCBX. Для начала работы не требуется установка дополнительных лицензий или предварительная настройка блейд-коммутатора.
По умолчанию все порты коммутатора активны и все VLAN на них тегированные. Если необходимо какие-то порты определить нетегированными в данном VLAN, это можно сделать через простой графический интерфейс, предоставляемый модулем СМС. Это, однако, не значит, что более тонкое конфигурирование устройства невозможно – оно поддерживает широкий спектр возможностей, доступна командная строка для администрирования.
Dell Networking MXL Коммутатор поддерживает динамические протоколы маршрутизации, доступные в Dell Networking Operating System 9 (OS9). Это полностью соответствующая отраслевым стандартам операционная система, управляемая через командную строку и предоставляющая администратору широкий спектр возможности тонкой настройки. Она похожа на Cisco IOS и поддерживает PVST+ для интеграции с ней.
MXL поддерживает организацию стека, в состав которого могут входить до шести устройств, как размещенных внутри одного корпуса М1000е, так и в разных корпусах.
Кроме отказоустойчивости это дает высокую скорость обмена данным между серверами в разных корпусах и возможность обращаться к коммутаторам в стеке как к единому сетевому устройству, с одним сетевым адресом и общими настройками. Подключение осуществляется по технологии «кольцо», т.е. первый и последний участник сборки должны быть соединены между собой.
Если корпус один, то обе разновидности блейд-коммутаторов могут поддерживать стек, создаваемый в пределах одного М1000е для резервирования и распределения нагрузки. Такой стек называется горизонтальным – кабели в нем именно так и расположены. Вертикальным называется стек, содержащий в своем составе до 6 коммутаторов MXL, установленных в три разных шасси в составе одной стойки. Организуется он как «кольцо». Все оборудование, находящееся в трех М1000е в пределах стойки, в случае такого подключения оказывается в составе единой физической сети, агрегатором которой выступает стек из MXL. Извне коммутаторы, входящие в стек, выглядят вообще единым устройством, с одинаковыми настройками, предоставляющим единый набор сервисов и даже имеющим один IP-адрес. Впрочем, с точки зрения устойчивости к сбоям, предпочтительно в каждом блейд-шасси использовать по два стека, объединяющие коммутаторы из разных шасси (см. рисунок)
Альтернативой стеку, повышающей отказоустойчивость, может быть использование на двух коммутаторах MXL в блейд-шасси функционала Dell Virtual Link Trunking (VLT) (об этом мы подробно писали здесь). Тогда блейд-серверы в шасси можно подключать к двум MXL с использованием NIC тиминга LACP, а также стоечные коммутаторы могут подключаться к двум блейд-коммутаторам в шасси с использованием лишь одного LAG. Обычно на MXL для организации VLTi линка используют два встроенных порта 40 GbE, объединенные в LAG.
Пример настройки стека MXL В данном примере приведена конфигурация стека с использованием двух коммутаторов MXL в фабрике A1 (MXL-A1) и A2 (MXL-A2), объединенных в стек двумя портами fortyGig 0/33 и 0/37.
Необходимо учитывать следующую особенность стека. При обновлении программного обеспечения DNOS на стеке все коммутаторы стека будут перегружены. Данную процедуру необходимо выполнять в часы наименьшей нагрузки. Если же это недопустимо, то рекомендуется использовать вместо стекирования технологию Virtual Link Trunking (VLT).
Подготовка коммутаторов:
- Если версии DNOS на коммутаторах отличаются, необходимо обновить их, чтобы все коммутаторы в стеке имели одинаковую версию DNOS. Проверка версии с помощью команды
show version
. - Коммутаторы должны быть загружены.
- Кабели для стекирования не должны быть подключены.
Далее необходимо перевести порты коммутаторов в режим стекирования.
Проверим, что порты для стекирования еще не сконфигурированы на коммутаторе MXL-A1:
MXL-A1#sho system stack-ports Topology: Stand alone Interface Connection Link Speed Admin Link Trunk (Gb/s) Status Status Group ------------------------------------------------------------------
Обычно для стекирования используются два встроенных порта 40 GbE. Это порты fortyGig 0/33 и 0/37. Соответствие физических портов коммутатора номерам stack-group показано на рисунке ниже:
MXL-A1(conf)#stack-unit 0 stack-group 0 MXL-A1(conf)#stack-unit 0 stack-group 1
Для детерминированного выбора мастера стека рекомендуется настраивать приоритеты на каждом коммутаторе, участвующем в стеке. Мастером становится коммутатор с наибольшим приоритетом:
MXL-A1(conf)#stack-unit 0 priority 14
Проверим, что порты для стекирования еще не сконфигурированы на коммутаторе MXL-A2:
MXL-A2#sho system stack-ports Topology: Stand alone Interface Connection Link Speed Admin Link Trunk (Gb/s) Status Status Group ------------------------------------------------------------------
Настроим порты стекирования и приоритет на коммутаторе MXL-A2:
MXL-A2(conf)#stack-unit 0 stack-group 0 MXL-A2(conf)#stack-unit 0 stack-group 1 MXL-A2(conf)#stack-unit 0 priority 1
После этого необходимо сохранить конфигурацию и перегрузить оба коммутатора:
MXL-A1#wr MXL-A1#reload MXL-A2#wr MXL-A2#reload
Дождитесь перезагрузки коммутаторов и подключите два порта стекирования между коммутаторами кабелями 40GbE QSFP+ Direct Attach или оптическими трансиверами и оптическими кабелями:
fortyGig 0/33 на коммутаторе MXL-A1 <-> fortyGig 0/33 на коммутаторе MXL-A2
fortyGig 0/37 на коммутаторе MXL-A1 <-> fortyGig 0/37 на коммутаторе MXL-A2
Проверьте на мастере стека, что коммутаторы объединились в стек:
MXL-A1#sho system brief Stack MAC : d0:67:e5:cc:8e:f0 Reload Type : normal-reload [Next boot : normal-reload] -- Stack Info -- Unit UnitType Status ReqTyp CurTyp Version Ports ------------------------------------------------------------------------------------ 0 Management online MXL-10/40GbE MXL-10/40GbE 8.3.16.4 56 1 Standby online MXL-10/40GbE MXL-10/40GbE 8.3.16.4 56 2 Member not present 3 Member not present 4 Member not present 5 Member not present MXL-A1#sho system stack-ports Topology: Ring Interface Connection Link Speed Admin Link Trunk (Gb/s) Status Status Group ------------------------------------------------------------------ 0/33 1/37 40 up up 0/37 1/33 40 up up 1/33 0/37 40 up up 1/37 0/33 40 up up
Дополнительную информацию по стекированию коммутаторов MXL можно найти в данном документе.
Если простота не главное, то возможностей больше
Насчет невозможности организации стека из шести M I/O Aggregator следует сделать уточнение – при базовых настройках из коробки. При перенастройке через командную строку для них доступны четыре режима работы:
- Standalone mode (SMUX) – режим по умолчанию, с простой конфигурацией.
- VLT mode – режим участника домена VLT, о котором мы рассказывали ранее.
- Programmable MUX mode (PMUX) – полностью настраиваемый через командную строку режим, с возможностью гибких настроек.
- Stack mode – режим поддержки стека по технологии «кольцо», до шести устройств в стеке.
В общем, похожи MXL и M I/O не только внешне.
Несколько слов из практики монтажа Поясним некоторые термины и магические цифры. Высота корпуса М1000е составляет 10U, они пригодны для плотного монтажа. В условиях HPC (High Performance Computing) свободное место в серверной и в каждом из шкафов столь же ценно и так же быстро заканчивается, как и свободное место на жестком диске рабочего компьютера. Посему считается хорошей практикой использовать стойки и шкафы высотой 42U-47U. Стойка в целом обычно является в некотором роде самодостаточным юнитом, даже когда она далеко не одна. Поэтому вниз монтируется самое тяжелое оборудование – ИБП, занимающий обычно до 10U. Далее идут серверные корпуса, и М1000е помещается как раз 3 штуки. Опционально на высоте 20U при таком монтаже может быть установлена консоль высотой 1U, выдвижная, для непосредственной работы с серверами и прочим оборудованием. Как мы отмечали, небольшие СХД можно установить непосредственно в шасси, большие займут еще 2U-5U сверху.Конвергенция Поскольку оба рассматриваемых коммутатора поддерживают FCoE и карты расширения с FC портами и могут напрямую работать с поддерживающими этот протокол передачи данных системами хранения, то при их использовании есть возможность непосредственного подключения таких СХД к общей конвергентной сети.
Оба рассматриваемых коммутатора поддерживают конвергенцию FCoE в режиме FCoE транзита, а при установке модуля с портами FC возможность подключения к существующей FC фабрике в режиме NPIV Proxy Gateway, либо для небольших инсталляций типа «ЦОД в коробке» поддерживают подключение FC СХД напрямую (см. рисунок). При использовании конвергенции можно сэкономить на HBA в блейд-серверах и FC блейд-коммутаторах в шасси.
Пример конфигурации коммутатора MXL И в завершение мы бы хотели привести пример рабочей конфигурации блейд-коммутатора Dell Networking MXL, установленного в шасси Dell PowerEdge M1000e.
MXL-A1#show running-config
Current Configuration…
! Version 9.8(0.0)
[Указана версия Dell Networking OS, под управлением которой работает коммутатор]
! Last configuration change at Thu Jul 23 17:49:01 2015 by default
! Startup-config last updated at Sat May 16 04:52:23 2015 by default
!
boot system stack-unit 0 primary system: A:
boot system stack-unit 0 secondary system: B:
[Коммутатору Dell присваивается номер “stack-unit”. Когда коммутаторы Dell не стекируются, они имеют номер “0”. Если коммутаторы объединяются в стек, будет указан их номер в соответствие с позицией в стеке: от 0 до 5.
Команда boot system содержит указание на две партиции: A и B. Каждая партиция может иметь свою версию Dell Networking OS. “A” – основная и “B” – backup партиция. При загрузке коммутатор автоматически загружает версию Dell Networking OS, находящуюся в основной партиции, если другое не указано в команде boot system.
В Dell Networking OS после того, как введена команда, ее действие применяется в текущем (running) конфигурационном файле. Для сохранения текущей конфигурации скопируйте running конфигурацию в другое местоположение (например, в энергонезависимую память коммутатора с помощью команды copy running startup).]
!
redundancy auto-synchronize full
[Задана по умолчанию. Используется в случае стекирования дли синхронизации мастера стека с резервным коммутатором.]
!
hostname MXL-A1
!
!
username admin password 7 888dc89d1f1bca2882895c1658f993e7 privilege 15
username root password 7 d7acc8a1dcd4f698 privilege 15 role sysadmin
[Создаем локальные учетные записи администратора. Dell Networking OS поддерживает также аутентификацию и авторизацию на RADIUS и TACACS+ серверах. Т.к. не задана команда “enable” или “enable secret” password, сетевой администратор попадет сразу же в привилегированный режим конфигурации (privileged exec) (hostname#) после успешного ввода пароля.]
!
default vlan-id 11
[Назначаем VLAN 11 в качестве native/untagged/default VLAN. Native VLAN – нетегированный.]
!
!
protocol spanning-tree rstp
no disable
bridge-priority 57344
[Настраиваем протокол RSTP 802.1w. Dell Networking OS 9.x также поддерживает PVST+, MST (802.1s) и STP (802.1D).
Если 802.1w RSTP домен коммутаторов Dell подключается к Rapid-PVST+ домену коммутаторов Cisco, VLAN 1 должен быть разрешен на обеих сторонах транкового порта (или Port-channel), соединяющего коммутаторы Dell и Cisco. Это позволит RSTP домену сходиться с использованием дерева Common Spanning Tree (CST), которое использует VLAN 1.
В Cisco IOS и NX-OS VLAN 1 является тем единственным VLAN, который позволяет взаимодействовать протоколу Cisco rapid-PVST+ с коммутаторами других производителей, использующих протокол RSTP 802.1w. Только в VLAN 1 коммутатор Cisco посылает Cisco проприетарные пакеты BPDU и также стандартные BPDU для сходимости топологии с другими коммутаторами. Коммутатор с поддержкой 802.1w использует стандартные BPDU в VLAN 1. Проприетарные пакеты Cisco BPDU туннелируются через сеть коммутаторов других производителей к следующему коммутатору Cisco для обеспечения сходимости протокола Cisco PVST+.]
!
no iscsi enable
[Эта команда отключает iSCSI оптимизацию в коммутаторах Dell – это настройки Jumbo MTU, flow control, unicast storm control и другие, которая включена по умолчанию в Dell Networking OS.]
!
vlt domain 2
peer-link port-channel 10
back-up destination 192.168.2.2
primary-priority 57344
system-mac mac-address 02:01:e8:00:01:02
unit-id 0
[Эти команды настраивают функционал Dell Virtual Link Trunking (VLT), реализацию технологии Multi-chassis LAG. VLT позволяет объединить два коммутатора в отказоустойчивую конфигурацию для подключения к другим коммутаторам или серверам при помощи Link Aggregation Group (LAG) и протокола 802.3ad LACP. Т.к. физические порты принадлежат одному Port-channel логическому интерфейсу, протокол Spanning Tree не блокирует отдельные порты и обеспечивается балансировка по всем физическим портам в группе.
Два VLT коммутатора образуют домен с номером 1. Линк, соединяющий два VLT коммутатора между собой, под называнием VLTi состоит в этом примере из 2-х портов 40G (Fo0/33 и Fo0/37), объединенных в port-channel под номером 10 (можно использовать любой номер в диапазоне от 1 до 128). VLTi линк используется для синхронизации служебной информации и всех таблиц (MAC адреса и ARP таблицы, IGMP и др.). Это позволяет двум VLT коммутаторам функционировать как один логический коммутатор для подключенных к ним устройств. Один из коммутаторов принимает роль VLT primary (можно задать с помощью команды primary-priority), а второй роль secondary, эта роль в дальнейшем определяет поведение коммутатора в случае сценариев отказов в сети, а также для обработки STP BPDU.
В качестве back-up destination IP адреса используется адрес Management интерфейса VLT соседа. Когда вы создаёте VLT домен на коммутаторах, Dell Networking OS может сама назначить MAC адрес для взаимодействия и задать коммутаторам уникальные unit ID. Использование команд system-mac mac-address и unit-id минимизирует время синхронизации VLT соседов после перезагрузки одного из коммутаторов.]
!
stack-unit 0 provision MXL-10/40GbE
!
stack-unit 0 port 41 portmode quad
!
stack-unit 0 port 45 portmode quad
[Встроенные 40GE порты коммутатора MXL (Fo0/33 и Fo0/37) по умолчанию работают в режиме 40GE. Их часто используют для стекирования или для VLTi линка в случае технологии VLT. По умолчанию 40GE порты на 2-х портовом модуле расширения для коммутатора MXL работают в режиме 8 x 10GE (quad режим). Если эти порты планируется использовать для стекирования, то их необходимо сконвертировать в режим 40GE.
Для перевода из режима 4-х портов 10GE в режим 40GE используются команды:
switch(conf)# no stack-unit <номер коммутатора в стеке> port <номер порта 40GE (33, 37, 41, 45, 49 или 53> portmode quad]
stack-unit <номер коммутатора в стеке>: укажите номер коммутатора в стеке в диапазоне 0-5. Для отображения номера коммутатора в стеке используйте команду show system brief.
port <номер порта 40G>: укажите номер 40GE QSFP+ порта. Номера встроенных портов 40GE коммутатора MXL: 33 или 37; номера портов для слота расширения slot 0: 41 или 45; для слота расширения slot 1: 49 или 53
portmode quad: указывает, что 40GE порт работает в режиме 4 x 10GE.]
!
!
!
interface TenGigabitEthernet 0/1
description internal server
no ip address
portmode hybrid
[Позволяет порту коммутировать тегированные и нетегированные VLAN. Соответствует команде Cisco “switchport mode trunk”]
switchport
[Определяет порт как Layer 2]
spanning-tree rstp edge-port
[Позволяет порту пропустить фазы STP Listening и Learning и немедленно перейти в режим STP Forwarding. Используется на портах, к которым подключены серверы. Соответствует команде Cisco “portfast” в Cisco IOS]
no shutdown
!
!
!
interface fortyGigE 0/33
description port-channel_member_10
no ip address
no shutdown
!
interface fortyGigE 0/37
description port-channel_member_10
no ip address
no shutdown
!
!
!
interface fortyGigE 0/49
description member port-channel 1
no ip address
port-channel-protocol LACP
port-channel 1 mode active
[Добавляет порт Fo0/49 в агрегационную группу port-channel 1 и включает для нее протокол LACP для согласование настроек агрегационной группы LAG между коммутаторами.]
no shutdown
!
interface fortyGigE 0/53
description member port-channel 1
no ip address
port-channel-protocol LACP
port-channel 1 mode active
no shutdown
[Добавляет порт Fo0/53 в агрегационную группу port-channel 1 и включает на ней протокол LACP.
Одинаковые настройки для группы портов можно сделать с помощью команды range:
switch(conf)#interface range fo0/49-53]
!
!
interface ManagementEthernet 0/0
ip address 192.168.2.2/24
no shutdown
[Это порт для выделенной сети управления коммутатором, который подключен к внутреннему коммутатору управления блейд-шасси M1000e. К этому же L2 коммутатору подключены iDRAC интерфейсы блейд-серверов для управления. Chassis Management Controller (CMC) модуль блейд-шасси имеет внешний RJ-45 порт для подключения к выделенной сети управления.]
!
!
!
interface Port-channel 1
description Port-Channel to S6000 switches
no ip address
switchport
vlt-peer-lag port-channel 1
[Конфигурирует port channel 1 как L2 порт, а также как VLT port-channel. VLT port-channel состоит из физических портов, которые распределены между двумя коммутаторами в VLT домене, при этом все порты активные и обеспечивается балансировка трафика по всем портам в port-channel без блокирования портов STP.]
no shutdown
!
!
!
interface Port-channel 10
description VLTi link to 450-MXL-A2
no ip address
channel-member fortyGigE 0/33,37
[Этот пример показывает конфигурацию статического port channel без использования протокола LACP. VLTi port-channel должен быть настроен как раз статическим.]
no shutdown
!
!
interface Vlan 1
no ip address
tagged TenGigabitEthernet 0/1-32
tagged Port-channel 1
[Определяет VLAN 1 тегированным на портах Te0/1-32 (это порты к блейд-серверам) и port-channel 1. Не рекомендуется использовать VLAN 1 для какого-либо продуктивного трафика, т.к. он используется протоколами уровня управления, например STP.]
no shutdown
!
!
interface Vlan 2
description WAN_VLAN
no ip address
tagged TenGigabitEthernet 0/1-32
tagged Port-channel 1
[Определяет VLAN 2 тегированным на портах Te0/1-32 и port-channel 1.]
no shutdown
!
!
interface Vlan 11
description vlan 11
untagged TenGigabitEthernet 0/1-32
untagged Port-channel 10
[Определяет VLAN 11 нетегированным на портах Te0/1-32 и port-channel 10. Нетегированный трафик, приходящий на коммутатор, будет попадать в VLAN 11.]
!
!
[Одно из отличий настройки коммутаторов под управлением Dell Networking OS 9.x от коммутаторов Cisco заключается в конфигурации VLAN на портах коммутатора.
Конфигурация VLAN 1, 2 и 11, указанная выше, определяет порты Te0/1-32 и port-channel 1 транковыми. VLAN 1 и 2 тегированные, а VLAN 11 сконфигурирован как native/нетегированный VLAN. На коммутаторах Cisco эквивалентная конфигурация команд выполняется на физических портах или port-channel и выглядит так:
interface Te0/1 (или Po1)
switchport mode trunk
switchport trunk allowed VLAN 1,2,11
switchport trunk native VLAN 11
Если требуется, например, настроить порт Te0/20 в качестве access порта в VLAN 100, на коммутаторе Dell это можно сделать командами:
interface VLAN 100
description HR_Department_LAN
untagged TenGigabitEthernet 0/20
На коммутаторе Cisco это настраивается командами:
interface TenGigabitEthernet 0/20
switchport mode access
switchport mode access VLAN 100
]
!
!
!
management route 0.0.0.0/0 192.168.2.1
[Маршрут по умолчанию для сети управления с указанием next-hop IP адреса.]
!
ip domain-name dell.local
ip domain-lookup
[Настройка доменного имени по умолчанию и включение динамического разрешения для доменных имен.]
ip name-server A.B.C.D
ip name-server E.F.G.H
[Задает IP адреса DNS серверов, на которые будут отправляться запросы для разрешения доменных имен хостов.]
!
!
!
!
banner login ^C
##########################################################
# #
# WARNING #
# #
# This is a private device and can only be accessed by #
# authorized personal. Use of this resource can be #
# monitored and unauthorized use is strictly prohibited. #
# #
##########################################################
^C
!
ntp server A.B.C.D
ntp server E.F.G.H
[Адреса серверов для синхронизации времени с помощью протокола Network Time Protocol]
!
clock timezone GMT 3
[Определяет временную зону GMT +3.]
ip ssh server version 2
[Включает SSH сервер для удаленного управления коммутатором.]
!
no dcb enable
[Отключает функционал Data Center Bridging, который используется в сценариях для конвергентных сетей FCoE и iSCSI.]
!
!
!
protocol lldp
[Включает протокол Link Layer Discovery Protocol. Коммутаторы под управлением Dell Networking OS 9.x поддерживают LLDP вместо Cisco CDP.]
!
!
line console 0
line vty 0
line vty 1
line vty 2
line vty 3
line vty 4
line vty 5
line vty 6
line vty 7
line vty 8
line vty 9
!
reload-type
boot-type normal-reload
[На коммутаторе настроен обычный режим загрузки. Также существует альтернативный режим загрузки под названием BMP, который позволяет коммутатору автоматически загружать файл конфигурации и ОС с удаленного сервера и упрощает инсталляцию большого количества коммутаторов. По умолчанию новый коммутатор работает в режиме загрузки BMP. Для перехода в обычный режим загрузки в командной строке коммутатора нужно выполнить команды:
FTOS#stop bmp
FTOS#reload-type normal-reload
]
!
end