Какие ИТ-инфраструктуры должны выбирать предприятия в условиях цифровой трансформации? Где эти инфраструктуры должны располагаться? Следует ли при выборе корпоративных ИТ-инфраструктур опираться на опыт Google, Amazon, Facebook и других интернет-гигантов? Такого рода вопросы с разных — иногда диаметрально противоположных — точек зрения обсуждались во время последнего в этом году заседания Комитета АПКИТ по мониторингу развития ИТ-индустрии, в котором приняли участие представители более 40 компаний и организаций. Открывая данное заседание (его основная тема «Инфраструктура для цифровой трансформации»), руководитель этого комитета, вице-президент IBM Кирилл Корнильев обратил внимание собравшихся на то (см. диагр. 1), что среди данных, которые копит человечество, и которые могут быть потенциально полезны бизнесу, стремительно растет доля неструктурированных данных. И если структурированные данные традиционные корпоративные ERP-, СRM- и прочие ***-системы уже научились обрабатывать достаточно хорошо, то колоссальное количество неструктурированных данных можно обработать лишь методами искусственного интеллекта (или, как иногда говорят, с помощью когнитивных решений).

По оценкам IBM, новые ИТ-рынки, так или иначе связанные с когнитивными решениями и обработкой неструктурированных данных, в ближайшем будущем (по крайней мере, до 2020 г.) будут расти со скоростью около 25% в год. А вот рынок традиционных ИТ (включая сюда так называемые облачные вычисления) в ближайшем будущем будет прирастать со скоростью лишь 3-5% в год. Кирилл Корнильев полагает, что эта разница в скоростях приведет (см. диагр. 2) к трансформации ИТ-индустрии и повлияет (см. диагр. 3) на используемые ИТ-инфраструктуры.

Рассматривая эволюцию ИТ-инфраструктур, обычно выделяют традиционные (клиент-серверные) архитектуры и новейшие конвергентные и гиперконвергентные (HCI, Hyper-Converged Infrastructure) решения. А ещё есть технологии, связанные с использованием All-Flash СХД (см, например, здесь) и технологии In-Memory Computing, к которым внимательно присматривается Сбербанк.

Какими же должны быть дата-центры нового поколения? Какое оборудование и на каких технологиях там должно использоваться?

Вот как отвечает на эти вопросы системный архитектор департамента развития продаж комплексных проектов группы компаний Softline Рустам Сунгатуллин: «У каждой конкретной задачи свои требования, и, следовательно, наиболее эффективно каждая задача будет выполняться на соответствующем задаче решении — как программном, так и аппаратном. Поэтому однозначно сказать, что современная инфраструктура дата-центров будет строиться только полностью на флэше или обязательно с использованием in-memory computing, нельзя. Если задача требует высокой скорости обработки больших объёмов данных (например, в Big Data), то для неё целесообразно использование решений in-memory computing, что, кстати, является программной технологией хранения и обработки данных. Естественно, для использования этой технологии нужно соответствующее аппаратное обеспечение. Для задач, требующих предсказуемой производительности доступа к данным при скачкообразно вырастающей в периоды высокой активности нагрузке, целесообразно использование систем хранения all-flash. На мой взгляд, инфраструктура дата-центров нового поколения будет строиться на гиперконвергентных решениях, имеющих архитектуру web-scale, главными преимуществами которой являются простота, высочайшие показатели производительности, гибкости и масштабируемости. Такая инфраструктура позволит максимально эффективно использовать имеющиеся ресурсы, снизить затраты на владение инфраструктурой, а также упростит прогнозирование затрат на рост вычислительных мощностей и объёмов хранения».

«Принципиальной разницы между конвергентыми и гиперконвергентными решениями нет, — поясняет менеджер по развитию серверных решений IBM Алексей Перевозчиков. — Это скорее вопрос маркетинга и функционала используемого ПО. Если же говорить о данных решениях в самых общих словах, то лозунг у апологетов конвергентных и гиперконвергентных решений таков: „Долой дорогостоящие проприетарные СХД и разного рода RAID-массивы, а также дорогие вычислительные системы и сетевые коммутаторы! Берем недорогие серверы с внутренними дисками, объединяем их посредством скоростного Ethernet, а затем из Open source компонент создаем конвергентное решение, которое позволит вам наращивать все ресурсы простым добавлением новых серверов...“. Со временем, однако, производители конвергентных систем стали использовать проприетарное ПО, а самые крупные компании — разрабатывать собственные».

Однако, как подчеркивает Алексей Перевозчиков, не всем предприятиям эти гиперконвергентные решения подходят: «Не все такие крутые, как Google (чьи дата-центры по разным оценкам насчитывают около 2,5 млн. серверов), Amazon, Facebook и прочие Интернет-гиганты. Да и бизнес-модели большинства предприятий сильно отличаются от бизнес-идей, заложенных в основу перечисленных выше компаний. Ведь одно дело, когда мы решаем сотни задач на одном сервере, и совсем другое — когда одна задача (например, бизнес-аналитическая) решается с использованием сотен серверов. С точки зрения заказчиков, проникшихся верой в то, что горизонтально-масштабируемые решения снимают все проблемы, cначала все выглядит привлекательно: не объявляется никаких конкурсов, а закупается некоторое количество серверного оборудования и формируется команда из головастых программистов. Последняя с использованием Open source компонент реализует небольшой пилотный проект, который решает поставленную задачу и обеспечивает, к примеру, прирост какого-либо бизнес-показателя на 15-20, а то и больше процентов. В итоге все довольны. И принимается решение реализовать более крупный проект, охватывающий все филиалы компании и более существенное количество бизнес-процессов. Однако здесь-то, как правило, и начинаются проблемы (в том числе, c безопасностью) — стоимость растет линейно, а эффект для бизнеса — нет. Да, есть очень большие Google или Amazon. И они решают подобные задачи вполне успешно и экономически эффективно. Но принципиально другим образом. Что же касается глобальной статистики, собираемой аналитическими агентствами, то обратите внимание: по некоторым оценкам, корпоративные дата-центры первой десятки интернет-компаний (Google, Amazon, Facebook и др.) потребляют, в общей сложности, около 20% мирового рынка серверных процессоров. Формируют они и другие тренды. Но к ситуации в большинстве других компаний эти тренды имеют мало отношения».

Директор по исследованиям и инновациям компании «Диасофт Системы» Сергей Добриднюк полагает, что в настоящее время в российских банках гиперконвергентные решения пока не получили широкого распространения: «Большинство коммерческих банков вполне устраивают ИТ-платформы, разработанные в классической клиент-серверной парадигме, построенные с использованием RAID-массивов и высокопроизводительны проприетарных СХД. Гиперконвергентные многоуровневые архитектуры изначально возникли при автоматизации розничного банковского обслуживания: там появились раньше всего кросс-индустриальные банковские продукты, там налажен почти 100%-но электронный документооборот и специфика бизнеса требует высокой скорости внесения изменений в продукты и услуги. Вместе с тем, автоматизация корпоративного бизнеса находится на невысоком уровне, в том числе и из-за наличия несовременных нормативно-правовых барьеров, мешающих переходу в „цифровую экономику“».

Заместитель директора компании АБАК Дмитрий Афремов согласен с мнением о том, что конвергентные и гиперконвергентые решения пока не получили заметного распространения в российских предприятиях, относящихся к реальному сектору экономики. Более того, он считает, что данные решения не получат заметного распространения и в обозримом будущем. «Предприятия, работающие в конкурентной среде, как правило, не могут позволить себе эксперименты, связанные с переходом на принципиально новые ИТ-инфраструктуры и чреватые возможной остановкой их бизнесов на то или иное время», — говорит Дмитрий Афремов.

Что же в условиях цифровой трансформации бизнесов делать со своими ИТ-инфраструктурами предприятиям, не таким крупным, как Google, Amazon, Facebook и некоторые другие?

На этот вопрос Алексей Перевозчиков отвечает так: «Крупные предприятия давно поняли, что им выгоднее строить собственные дата-центры. Что же касается небольших предприятий, то им в подавляющем большинстве случаев есть смысл использовать мощности публичных дата-центров по моделям Сo-Location, IaaS, PaaS или SaaS. Дать какие-то общие рекомендации средним компаниям практически невозможно. Ведь требования к ИТ-инфраструктуре компании определяются не только её численностью и объемами продаж. Есть много других факторов, правильно учесть которые могут только высококвалифицированные специалисты».

Но такого рода высококвалифицированных специалистов в нашей стране, похоже, очень мало. Вот что говорит старший аналитик Gartner Петр Городецкий: «Опросы, которые мы проводим среди владельцев и топ-менеджеров, показывают, что в российских предприятиях до сих пор нет директоров по цифровым технологиям. Практически нет и специализированных департаментов, отвечающих за цифровые технологи». Интересно отметить, что у респондентов, участвующих в опросах Gartner, популярность корпоративных ЦОДов падает, а вот популярность частных и гибридных облаков растет. Что же касается публичных облаков, то спрос на них стабильно невелик. Интерес к ним (как по итогам опросов Gartner, проводимых в 2015 г., так и по итогам опросов, проводимых в 2017 г.) проявляют менее 10% респондентов.

Петр Городецкий выделяет четыре группы факторов, вызывающих нежелание предприятий и организаций идти в публичные облака:

  • вопросы безопасности и зрелости пользователей:
  • сложность ИТ-инфраструктуры на стороне заказчика;
  • проблемы на стороне провайдера (отсутствие экспертизы, низкий уровень безопасности, отсутствие необходимых сертификатов, нежелание помогать заказчикам);
  • законодательство в области персональных данных.

Данное законодательство, как известно, предписывает проводить обработку персональных данных наших граждан только на территории Российской федерации. Что, как легко заметить, создает огромные трудности для транснациональных корпораций, работающих в нашей стране. Ну да это тема отдельного разговора. Ведь не только наша страна выдвигает особые требования к хранению и обработке персональных данных.

Резюме

Общий вывод Gartner (с которым согласен и IBM) таков: «Гибридный подход станет фундаментом инфраструктуры для последующего переноса приложений». Видимо, так оно и есть: не надо бросаться в крайности и все «тащить в облака». Что-то (наиболее критичное для бизнеса) должно «остаться на земле». И не надо слепо копировать чей-то опыт. Сергей Добриднюк (участник практически всех заседаний Комитета АПКИТ по мониторингу развития ИТ-индустрии) совершенно справедливо замечает: «Для коммерческих компаний (банков, к примеру) погоня за унификацией ИТ-инфраструктур может привести к потере своей уникальности». Вот так-то: обращать внимание на общемировые тенденции, конечно, нужно, но при выборе ИТ-инфраструктуры каждое конкретное предприятие должно идти своим путем. Выбрать же правильный путь могут помочь опытные интеграторы и консультанты.

«Про необходимость цифровой трансформации бизнесов сейчас не говорит только ленивый, — отмечает Кирилл Корнильев. — При этом в настоящее время трансформация бизнесов идет удивительно быстро. И вызовы бизнесу приходят из самых разных областей. Многие руководители считают, что главные угрозы их бизнесам приходят из соседних областей». Он также напомнил участникам вышеупомянутого заседания АПКИТ слова генерального директора IBM Джинни Рометти: «Трансформация — единственный способ выжить. Только так вы станете инновационной компанией».

«Выжившие предприятия от невыживших отличает умение адаптироваться, — говорит Кирилл Корнильев. — Ну это как в эволюции видов. Умение быстро адаптироваться к изменениям условий ведения бизнеса и принято называть цифровой трансформацией. Здесь важную роль играют не только технологии, используемые компанией, но и люди, применяющие эти технологии». Что верно, то верно. Ведь именно от людей, а не от роботов, зависит, как и какие технологии накопления, сохранения и обработки данных применять в конкретных предприятиях и организациях. В то же время внедрение новых технологий хранения и обработки данных стоит денег. И ответ на вопрос о том, окупятся ли эти деньги — не всегда очевиден.

Источник: Владимир Митин, для crn.ru

Версия для печати (без изображений)   Все новости