Для развития AI-инструментов, которые сегодня так востребованы рынком, нужно оборудование «AI Ready», квалифицированные профильные специалисты и дополнительно соответствующие «облачные» сервисы — причем все перечисленное в больших количествах. Требования будут только расти: по мере проникновения AI в бизнес-системы нейропрограмм требуется все больше, они становятся все сложнее, процесс их обучения становится все более сложным и требует все большего объема специализированных вычислений.

«Происходит не столько расширение спектра бизнес-задач, сколько расширение числа заказчиков, которые видят возможности применения этого инструментария и реализуют их на практике», — говорит Вячеслав Елагин, менеджер по продажам серверов для высокопроизводительных вычислений Hewlett Packard Enterprise в России.

Большинство корпораций уже имеют опыт практического внедрения AI-инструментов, как показало исследование «State of AI in the Enterprise», проведенное Deloitte: 26% респондентов используют AI достаточно широко и долго, 47% имеют ограниченный опыт работы с этой технологией, а 27% только начинают интегрировать решения на базе «искусственного интеллекта» в рабочие процессы. Как видно, технологии известны, но поле для развития соответствующего стека очень широко. Заметим, что в российских условиях развитие идет быстро.

«За год произошло очень стремительное развитие сферы AI, что вызвано возросшим спросом. — говорит Андрей Сысоев, ведущий специалист по высокопроизводительным вычислительным технологиям Lenovo в России. — Повышенный интерес на подобные решения наблюдается не только внутри сообщества разработчиков, но и среди конченых заказчиков, желающих внедрять их для решения своих бизнес-задач».

Hard для AI

Разнообразие применений AI для бизнес- и технических задач, перечисленных выше, приводит к необходимости очень широкого спектра профильного аппаратного обеспечения. Заказчикам актуальны AI-ускорители как для EDGE-вычислений, так и для вычислений на локальных серверах, на мощностях дата-центров и даже на суперкомпьютерах. Заказчики, разумеется, не очень хотят тратить дополнительные средства на инфраструктуру, стараются обойтись имеющимися вычислительными мощностями и на каком-то временном отрезке это даже получается, приобретать решения с AI-ускорителями все же приходится.

«Многие компании приобретают специализированные решения, когда задачи, связанные с AI, переходят в промышленную эксплуатацию», — говорит Максим Мельситов, заместитель руководителя департамента бизнес-решений компании Softline.

Современные серверные решения Dell идут с маркировкой «Ready Architecture for AI», указывающей на наличие адаптации «к перспективным нагрузкам», характерным для вычислений с AI, как отмечал на Dell Technologies Forum 2020 ведущий инженер департамента серверных и сетевых решений компании Артём Булкин. Системы с маркировкой «AI Ready» представлены Dell в линейке рабочих станций, созданных для работы с тяжелым контентом, как отметил выступавший на том же мероприятии Артур Антонов, технический специалист по клиентским решениям Dell.

В рассматриваемом сегменте активны и успешны многие относительно молодые вендоры, которые как производители вычислительной техники появились много позже, чем IBM и даже Dell. Например, Huawei предоставляет комплексную вычислительную инфраструктуру и прикладные решения для всех областей промышленности, где требуется использование «искусственного интеллекта». Китайский вендор выпускает и развивает вычислительные платформы, изначально разработанные для AI-задач, а также масштабируемые и, по заявлению компании, с возможностями применения в разных профилях.

«Вычислительная платформа Huawei Atlas обеспечивает высокую мощность и максимальную энергоэффективность при любых сценариях применения искусственного интеллекта на всех устройствах — и на периферии, и в «облаке», — говорит Тони Сюй, президент подразделения вычислительных систем Ascend в Huawei.

Пример, иллюстрирующий важность специализированных вычислителей для AI: на задачах обучения моделей «искусственного интеллекта» кластер Atlas 900, по данным Huawei, обеспечивает общую вычислительную мощность от до 1024 Петафлопс, что эквивалентно общей мощности 500 тыс. традиционных персональных компьютеров.

Вендоры держат курс на расширение спектра предложений с AI, чтобы иметь возможность выстраивать системы, отвечающие задачам и стратегии заказчика.

«В основном наши заказчики внедряют гибридный подход к размещению данных и запуску задач, — отмечает Игорь Хапов, директор по технологиям IBM в России и СНГ. — Это позволяет им получить все преимущества гибкого масштабирования и минимизировать капитальные затраты. Мы можем предложить решения как в „облачной“ среде, так и в ЦОДе заказчика». В прошлом году компания представила платформу автономного управления периферийными вычислениями IBM Edge Application Manager и открыла код ее ядра в рамках проекта Open Horizon, напомнил г-н Хапов, что позволяет управлять приложениями — как на EDGE-устройствах, так и в вычислительных кластерах.

Вендоры стремительно начинают разворачивать в данном направлении различные продуктовые линейки компьютерного, «граничного» и серверного оборудования. Например, в декабре Hewlett Packard Enterprise расширила спектр предложения рассматриваемого нами оборудования, представив в России сервер Superdome Flex 280, который позиционировала как платформу для ускорения «цифровой трансформации» малого и среднего бизнеса. А по заявлению производителя, новинка подойдет для задач с элементами «искусственного интеллекта» наряду с задачами «интернета вещей», высокопроизводительных вычислений и даже аналитики в режиме реального времени, которая, заметим, в ряде случаев также требует AI. Ранее подобное было доступно только на решениях корпоративного уровня, но теперь технологии стремительно мигрируют «сверху вниз».

«Мы даем возможность малым предприятиям ускорить процесс „цифровой трансформации“ и получить конкурентное преимущество с помощью решений корпоративного уровня, которые масштабируются в соответствии с размером и потребностями бизнеса», — говори Джефф Кайл, вице-президент и генеральный директор подразделения бизнес-критичных серверных систем HPE.

«Кадры решают все»

Проблемы, вызванные «кадровым голодом», во многом можно решить — или смягчить — при помощи AI-инструментов, но для работы с «искусственным интеллектом» тоже не хватает людей. «Специалистов в области AI найти сейчас не очень просто, тем более с профильной экспертизой, — говорит Игорь Хапов. — В ряде случаев мы нанимаем специалистов уже с опытом. Внутри компании сотрудники непрерывно проходят курсы повышения квалификации и развивают свои знания».

Собственные курсы повышения квалификации в области AI есть и у других вендоров.

Ряд компаний активно взаимодействуют с учебными заведениями, причем как в плане базовой подготовки профильных специалистов, так и в организации креативных проектов. Например, корпорация Softline помогает проекту Университет 20.35, обеспечивающему профессиональное развитие человека в «цифровой экономике», реализовать акселерационную программу. Около восьми сотен проектных команд со всей России приняли участие в онлайн-интенсиве по «искусственному интеллекту» и анализу данных, который был организован Университетом 20.35 в прошедшем ноябре, где в качестве приглашенных экспертов участвовали специалисты Softline Digital, которое в корпорации отвечает за формирование стратегий «цифровой трансформации», в том числе, включающих AI.

Есть компании, которые смотрят еще шире, инвестируя в развитие в стране обучения специалистов по AI. Например, к крупным инвестиционным проектам Samsung в России следует отнести создание Центра Искусственного интеллекта в Москве, который был открыт в 2018 году. Помимо данного Центра в России с 1993 года работает исследовательский центр Samsung Research Russia. Кроме фундаментальных и прикладных разработок, Центры занимаются учебными и образовательными проектами, в частности «IT школа Samsung» и «IT Академия Samsung», а также рядом взаимодействий с российскими вузами, для которых разработаны практико-ориентированные курсы направлены на подготовку специалистов для развития технологий искусственного интеллекта и машинного обучения.

AI в «облаке» — модно и удобно

«Большинство российских заказчиков все еще предпочитают использовать свою традиционную ИТ-инфраструктуру для решения задач из класса AI, — говорит Михаил Орленко, директор департамента серверных и сетевых решений, Dell Technologies в России. — Однако все больший интерес многие организации проявляют к передовым „облачным“ сервисам». Также г-н Орленко отметил рост популярности внедрения EDGE-вычислений с использованием AI.

Глобальные заказчики используют AI в «облаках» очень давно и активно. Еще в позапрошлом году это практиковали 93% компаний, опрошенных в рамках «State of AI in the Enterprise». При «импульсных» нагрузках на нейросети — на время обучения моделей, например, — вполне логично использовать «облака». С ростом популяризации AI в бизнесе принцип сохраняется, только тут уже будет сочетание использование собственных ресурсов с «облачными» — последние сохраняют актуальность при «пиковых импульсных» нагрузках, например, когда надо обучать особо сложные модели.

Напомним, что на этапе обучения моделей нужна особо высокая производительность, что требует затрат на аппаратные ресурсы, находящиеся в собственности или арендуемые. «Стоимость разработки действительно не всегда легко спрогнозировать: сказывается дефицит данных и исследовательский характер задач», — отмечает Тимур Хабиров, основатель компании Prequel. Обучение нейросетей — процесс непростой. Он требует несколько итераций, а именно: построение моделей, подготовка наборов данных для обучения, собственно процессы обучения моделей на этих наборах, оценка производительности уже обученных моделей и, наконец, «донастройка» моделей для достижения оптимальных результатов. На каждом из этих этапов разработчикам нужна высокая производительность от доступных ресурсов.

Следует помнить о концепции «cloud first», которая сегодня присутствует почти во всех подходах, в том числе, и в подходе к построению решений с использованием AI. Разумеется, внутри сегмента «AI & cloud» идет активное развитие. Концепция «все как сервис» добралась уже и до рассматриваемой нами области: на рынке в прошлом году стали предлагать AIaaS — набор инструментов для дата-сайентистов, которым остро нужны инструменты на основе «искусственного интеллекта» для выполнения своих повседневных задач.

О востребованности таких сервисов говорил Федор Прохоров, Chief Technical Officer в SberCloud. Напомним, что SberCloud предлагает продукты для полного цикла ML-разработки, причем за его «облаками» может стоять и суперкомпьютер «Кристофари», изначально создаваемый с акцентом на AI-задачи. AI в «облаке» активно продвигают ключевые гиперскейлеры — Microsoft Azure, Google Clouds, Amazon Web Service, Mail.ru Cloud Solutions и др. Как и другие вычисления, AI доступны в разных форматах — чисто «облачном», на территории заказчика (в том числе, и на границе сети) и, наконец, в гибридном варианте.

Однако, «облака» не являются универсальным инструментом, следует помнить про ограничения, накладываемые регуляторами.

«ML-модели обучаются и работают на основе большого объема внутренних данных заказчика (например, клиентская информация, транзакции, программы лояльности). По этой причине процесс переноса на удаленные площадки или облачные решения часто бывает затруднительным из-за вопросов безопасности, защиты персональных данных и интеграции», — напоминает Дмитрий Тимаков, руководитель направления «Машинное обучение» в компании НОРБИТ, входящей в группу ЛАНИТ).

Как видно, требуются новые подходы, и гранды рынка создают их. «Hewlett Packard Enterprise развивает подход „обучения в рою“ или роевого обучения, когда обучение и получение предсказаний выполняется полностью на границе ЦОДа, не пересекая ее, — говорит г-н Елагин. — При этом рой EDGE-систем лишь отдалённо напоминает „облако“ и скорее является вычислительным кластером». Это лишь один из примеров, есть и другие решения, тоже очень изящные с точки зрения технологии.

Что это значит для канала?

Следует помнить, что AI-инструменты — лишь составляющая решений для корпоративных пользователей. «Большинство клиентов приходят с запросом на создание комплексных платформ для работы с данными, где машинное обучение и „искусственный интеллект“ — одни из задач», — говорит Дмитрий Лазаренко, директор по продукту Mail.ru Cloud Solutions.

Аппаратное обеспечение, среди прочих особенностей отличающееся сбалансированностью для AI, становится массовым, про что нужно помнить каналу. Высока востребованность «железа» для AI-вычислений в составе готовых решений — например, комплексных систем для видеонаблюдения с решениями видеоаналитики. Заметим, что организации в 2-3 раза чаще приобретают преднастроенные решения на основе перспективных технологий, чем разрабатывают свои собственные, по данным упомянутого исследования Oracle, а процентное соотношение предпочтений зависит от конкретного сегмента. В большинстве случаев оптимальной оказывается гибридная схема.

«Для решения наших задач мы приобретаем специальное оборудование. Так же, при необходимости, арендуем дополнительные мощности или пользуемся специализированными сервисами», — говорит г-н Хабиров.

Заметим, что у традиционного канала в данном случае появляются конкуренты нового типа — «облачные» провайдеры, которые могут поставлять AIaaS, а также предоставлять заказчикам аппаратные решения для работы в периметре ИТ-инфраструктуры предприятия (например, соответствующие элементы Microsoft Azure Stack Hub или конкуренты от AWS). Возможностей удовлетворить запросы пользователей много, в большинстве случаев, как отмечал г-н Хапов, оптимальным оказывается гибридный подход. В результате вместо лобовой конкуренции все чаще мы наблюдаем сотрудничество компаний разных типов в решении клиентских задач. Как отметил Андрей Сысоев, следует ждать прорывных решений в AI уже в ближайшей перспективе.

Источник: Александр Маляревский, внештатный обозреватель CRN/RE

Версия для печати (без изображений)   Все новости