Как новые подходы позволяют эффективно управлять мультиоблачными средами
Новое в СХД
02.03.2020, Пн, 17:46, Мск , Текст: Шатунова Евгения
Облачные технологии продолжают завоевывать мировой рынок. Все больше данных и приложений мигрируют на публичные площадки. При этом, некоторые виды корпоративного ПО, например, «тяжелые» приложения SAP все же предпочтительно разворачивать в локальных ИТ-средах. Но, как быть, если требуется сочетание обоих подходов? Один из наиболее эффективных вариантов — использование стека технологий NetApp Data Fabric.
Управление данными — основа надежности ИТ
Фраза о том, что информация — «новая нефть» известна, наверное, каждому. Аналогия тем более интересна, учитывая тот факт, что информация, как и настоящая нефть нуждается в сложном процессе переработки — для того, чтобы из нее можно было получить максимальную пользы. В корпоративных ИТ, важнейшим звеном, связывающим информацию и аппаратное обеспечение, на котором она хранится и обрабатывается, являются бизнес-приложения. Поэтому, чем крупнее компания и сложнее ее ИТ-подсистема, тем более существенное значение отводится надежности и отказоустойчивости ПО.
В то же время, постоянное технологическое развитие ставит новые вызовы перед корпоративными ИТ-подсистемами — миграция в облака, интеграция IoT-сетей, использование больших данных и технологий искусственного интеллекта на фоне усиливающихся киберугроз — все это требует адаптивного подхода к управлению данными. И те решения, которые были актуальны еще несколько лет назад, сегодня уже не отвечают требованиям времени. Например, такие важнейшие корпоративные приложения как ERP, CRM, CLM, PIM, которые ранее являлись фактически независимыми системами, сегодня все более тесно интегрируются между собой — нарушение в работе одной из них неизбежно приводит к сбоям во всех остальных. Соответственно резко возрастает и цена ошибки. Поэтому компании предъявляют самые высокие требования к доступности и отказоустойчивости платформ, на которых будут развернуты корпоративные приложения — вплоть до 99,9999%. В случае облачных операторов, данный аспект нередко фиксируется в договоре об уровне обслуживания (SLA).
Чтобы соответствовать этим требованиям, не только аппаратная платформа, но и весь процесс управления данными также должны соответствовать высоким стандартам. Скажем, резервное копирование и аварийное восстановление должны производиться автоматически и в кратчайшие сроки, желательно без ущерба для работы основной ИТ-системы компании, даже если речь идет о гибридной среде (сочетающей локальные ресурсы с публичными облаками). Такие решения есть, например, у NetApp. В целом, стоит отметить, что чем дальше, тем больше облака будут проникать в бизнес — как предсказывает IDC, уже к 2021 году 70% корпоративных приложений будут разрабатываться для облачных сред. Более того, еще один прогноз говорит о том, что к 2024 году 90% компаний по всему миру, будут ориентироваться на мультиоблачную стратегию.
Но когда корпоративные приложения распределены по нескольким системам в гибридной среде, становится крайне сложно обеспечить их согласованную и безопасную работу. В этом случае необходим особый подход, позволяющий унифицировать процесс управления данными и гарантировать их бесшовную миграцию между локальными инфраструктурами, а также частными и публичными облаками, которые вместе формируют ИТ-ландшафт организации. Одним из наиболее актуальных подходов в этом направлении является концепция Data Fabric, которую Gartner назвал одним из наиболее важных технологических трендов 2019 года.
Data Fabric для приложений SAP
Компания NetApp начала активно развивать концепцию Data Fabric несколько лет назад — задолго до того, как она стала мировым трендом. Как показала практика, данный подход хорошо зарекомендовал себя в ИТ-экосистемах, ориентированных на использование продуктов SAP.
Как известно, приложения этой компании широко применяются в самых разных сферах корпоративной деятельности — от производства до управления финансами. В то же время, многие организации сегодня сталкиваются с трудностями при попытках перенести продуктивные системы SAP с локальных инфраструктур, где они работали годами, на облачные платформы. И даже если это удается, сложности, связанные с управлением новой гибридной платформой и обеспечением ее киберзащиты, нередко, оказываются критическими, нивелирующими весь положительный эффект от использования новых технологий.
Сложности при управлении новой гибридной платформой и обеспечением ее киберзащитой, нередко, оказываются критическими, нивелирующими весь положительный эффект от использования новых технологий.
Однако концепция Data Fabric, предложенная NetApp, позволяет сделать этот процесс достаточно простым, прозрачным и безопасным, что, собственно, и определило ее популярность в области SAP-платформ. Более того, этот инновационный подход, основанный на стеке фирменных технологий, закладывает надежный фундамент для дальнейшего развития ИТ-инфраструктуры компании в гибридных средах. В этом направлении, NetApp действует не в одиночку, активно взаимодействуя с глобальными партнерами, среди которых Microsoft, Cisco, Suse — в результате такого сотрудничества удалось получить гибкую, прозрачную и безопасную архитектуру для сред SAP.
Гибкость миграции в облако
До недавнего времени системы SAP обычно перемещались в облако поэтапно, и компании-пользователи, как правило, начинали с переноса резервных копий. Такой подход с одной стороны позволяет выявить потенциальные проблемы на раннем этапе, а с другой дает возможность подготовить инфраструктуру для будущего перемещения основной системы (или ее части).
Но с миграцией уже продуктивной платформы SAP могут проявиться определенные сложности. Дело в том, что многие компании, запуская проекты в публичном облаке (например, для тестирования), в какой-то момент, могут столкнуться с необходимостью вернуть приложения из облака в локальную ИТ-систему. При этом перенос данных и вычислительных нагрузок в облако и обратно может занять непозволительно много времени.
Добавим, что сегодня большинство компаний эксплуатируют свои системы SAP на хранилищах корпоративного класса, используя сети передачи данных и протоколы блочного доступа (SAN) / iSCSI, либо сетевое хранилище (NAS) с сетевой файловой системой (NFS). В облаке, протокол Fibre Channel не поддерживается в сочетании с NetApp; при переходе на классическое облачное хранилище, такое как Elastic Block Store (EBS) от AWS или Azure SSD Managed Disks (Premium Disks), поэтому ИТ-менеджеры должны адаптировать конфигурацию системы SAP к условиям поставщиков облачных услуг.
Есть также серьезные изменения в логике работы. Это связано с тем, что высокая доступность для дисков EBS или Premium достигается за счет нескольких, как правило, трех, избыточных копий. Часто возникает необходимость объединить эти премиальные диски, используя менеджер логических томов (LVM) и чередование (striping), чтобы удовлетворить требования по емкости или производительности. Это влияет на управление системами хранения, например, когда речь идет о резервном копировании, тонкой настройке или расчетов ресурсов.
Но, этот процесс можно радикально упростить и облегчить за счет использования стека технологий NetApp Data Fabric, который позволяет переносить системы SAP в облако без изменения привычной концепции работы, поскольку в этом случае, управление данными в облаке обеспечивается по тем же принципам, что и в локальной инфраструктуре.
Резервное копирование больших объемов данных
Надежность корпоративных приложений должна быть гарантирована как в облаке, так и в собственном дата-центре компании. Помимо прочего, это требует быстрого резервного копирования и восстановления данных. Но это может быть трудно реализуемо в случае действительно больших баз данных, таких которые используются в SAP HANA.
Традиционные подходы — потоковое или резервное копирование на ленту, недостаточно эффективны для критически важной информации. Ведь обычно требуется создать полную резервную копию БД в условиях ограниченней пропускной способности сети. К тому же процесс резервного копирования создает ощутимую дополнительную нагрузку на продуктивную систему. На практике это значит, что в большинстве случаев, удается создать всего одну-две резервные копии в день, чего явно недостаточно для критически важных для бизнеса систем. И это, не говоря о восстановлении данных, которое занимает больше времени, чем само резервное копирование.
Более эффективным является подход на базе моментальных снимков (snapshots). В этом случае, резервные копии баз данных можно создавать и сохранять всего за несколько секунд, не влияя на производительность системы. Технология моментальных снимков позволяет делать практически неограниченное число резервных копий в день и оперативно восстанавливать данные в случае сбоя основной системы. При этом снимки могут храниться как локально, так и в облаке, обеспечивая дополнительный уровень гибкости защиты данных.
Аварийное восстановление в гибридных ИТ-ландшафтах
Рассуждая о резервном копировании, нельзя обойти и вопрос аварийного восстановления данных, который при неправильном подходе также может превратиться в ощутимую проблему. Политика аварийного восстановления подразумевает использование определенных метрик, с помощью которых можно определить ее эффективность. Наиболее важными являются два параметра: целевая точка восстановления (Recovery Point Objective, RPO), которая определяет максимально допустимый объем потерянных данных; целевое время восстановления (Recovery Time Objective, RTO), которое указывает максимально допустимое время простоя корпоративного приложения. Они определяются типом используемого приложения и характером данных предприятия. Этот шаг важен, потому что технически доступные опции различаются в зависимости от системы SAP HANA.
Одним из возможных решений является использование групп согласованности. Все системы, которые работают вместе, объединяются в такую группу и резервируются в общем плане резервного копирования, которое выполняется автоматически и синхронно. В случае сбоя системы один и тот же статус данных может быть снова импортирован везде и одновременно, что и позволяет обеспечить требуемую согласованность.
IoT, большие данные и не только
Где еще может найти применение концепция Data Fabric? Она прекрасно подходит для нагрузок, связанных с Интернетом вещей (IoT), искусственным интеллектом, большими данными и другими инновационными технологиями, которые стремительно врываются в повседневную жизнь. Дело в том, что все они требуют совершенно новых подходов к вопросам хранения информации, поскольку порождают невиданные до сих пор объемы данных, которые к тому же требуют анализа и обработки в режиме онлайн.
Поэтому, большие централизованные СХД постепенно теряют актуальность, а рынок периферийных вычислений (Edge Computing) напротив, будет увеличиваться. Согласно исследованию, проведенному консалтинговой фирмой ISG, сегмент систем хранения для Edge Computing растет в среднем более чем на 30% в год, причем в ближайшие несколько лет прогнозируется взрывоподобное увеличение его объемов. В то же время, Gartner отмечает, что периферийные вычисления и облака будут не конкурирующими, а как взаимодополняющими концепциями.
Например, чтобы обеспечить бесперебойное взаимодействие между IoT-устройствами и корпоративными приложениями, организациям требуется интегрированное управление данными, учитывающее все уровни сложной распределенной ИТ-среды — от датчика до облачного хранилища и приложения, которое использует данные. Системы должны быть в состоянии безопасно доставить необходимые данные в нужное место с заданной скоростью.
В частности, компания NetApp выделяет в этом процессе пять этапов, каждый из которых включает в себя различные задачи это: сбор, транспортировка, хранение, анализ и архивирование. Все их можно решить с помощью Data Fabric.
Учитывая упомянутые технологические тенденции, компания SAP активно развивает решения, предназначенные для работы с сетями IoT, большими данными, платформами ИИ. Но, для их эффективной работы требуются новые подходы. Ведь обычно, настройка среды тестирования и разработки SAP занимает несколько дней. Но, если применить технологию автоматизированного клонирования, которая доступна в рамках Data Fabric, то необходимая среда может быть создана и развернута в течение нескольких минут.
Есть и еще один важный момент. Чтобы перевести на платформу SAP HANA корпоративную среду, в которой развернуто от 20 до 100 SAP-приложений требуется, как правило, от 6 до 18 месяцев. Большая часть этого времени уходит на создание сред тестирования и выполнение функциональных проверок на различных уровнях. Это необходимо для того, чтобы фактическая миграция была как можно более безопасной, а необходимое время простоя — минимальным. Но, с помощью решений NetApp для управления данными этот процесс может быть существенно сокращен во времени, благодаря возможности, запуска множество тестов в параллельном режиме.
Корпоративные приложения будут и впредь играть ключевую роль в ИТ-инфраструктуре. Но с учетом растущего объема данных, получаемых благодаря повсеместному внедрению новых технологий, все большая их часть будет мигрировать на публичные облачные площадки. При этом вряд ли многие компании решатся переместить свои основные SAP-системы туда же. Скорее всего, они останутся в локальных инфраструктурах или гибридных облаках. Поэтому в ближайшие годы, если говорить о сегменте крупных и средних компаний, будет расти актуальность мультиоблачного подхода, а также соответствующих концепций управления данными и приложениями.
Полный текст статьи читайте на CNews