Согласно прогнозу IDC, к 2025 году общий объем цифровых данных, генерируемых во всем мире, вырастет более чем вчетверо — до 175 Зеттабайт с 40 Зеттабайт в этом году, — в том числе благодаря растущему количеству IoT-устройств и датчиков. В соответствии с описанием главных атрибутов больших данных как «трех „V“» (объем, многообразие, скорость), которое дает Gartner, эта нарастающая лавина данных будет всё больше характеризоваться разнообразием их типов, причем большая часть будет представлять собой постоянно меняющиеся потоки данных в реальном времени.

Как результат, задача управления данными и их анализа значительно затрудняется, и это обусловливает многие из трендов, которые, как видится, будут преобладать в 2020 году и о которых следует знать VAR’ам, предлагающим решения бизнес-аналитики и управления данными своим клиентам.

CRN/США указывает на восемь таких трендов, основываясь на информации из разных источников, включая отчеты Gartner, IDC и Ventana Research, а также мнения компании-разработчика MicroStrategy, поставщика решений Pythian и других.

Автоматизация анализа данных

Анализ данных традиционно выполнялся бизнес-аналитиками, которые делились своими выводами с руководителями бизнеса, маркетологами, продакт-менеджерами, руководителями отделов продаж и другими заинтересованными сторонами, предоставляя отчеты, диаграммы и т. д.

Но это слишком медленный процесс в сегодняшних условиях, особенно когда речь идет о потоковых данных в реальном времени. По прогнозу IDC, к 2025 году почти 30% всех генерируемых данных будут анализироваться в реальном времени против 15% в 2017 году.

Аналитика данных всё чаще встраивается непосредственно в бизнес-процессы, в частности, Интернет-торговли и клиентской поддержки, автоматизируя анализ и задействуя аналитический контент, ускоряя принятие решений и сроки их реализации. Согласно прогнозу Ventana Research, к 2021 году треть организаций будет использовать анализ данных реального времени в качестве стандартной функции своих BI-систем.

Важным фактором развития этого тренда будет использование искусственного интеллекта и машинного обучения в процессах бизнес-анализа.

Интеллектуальная аналитика

Разработчики ПО анализа данных всегда стремились предоставить возможности своей технологии более широкой аудитории обычных бизнес-пользователей и всех работающих с информацией.

И это уже происходит благодаря так называемой интеллектуальной (augmented) аналитике. Gartner дает определение интеллектуальной аналитики как использования технологий искусственного интеллекта, машинного обучения и обработки естественного языка для содействия в подготовке данных, понимании и трактовке результатов анализа, то есть в качестве расширения возможностей человека и традиционных способов формирования и использования аналитического контента.

Интеллектуальная аналитика поможет специалистам и обычным сотрудникам, работающим с информацией, автоматизировать многие аспекты изучения данных, а также разработки и использования моделей данных.

Обработка естественного языка в аналитике

Технология обработки естественного языка позволяет компьютерам понимать человека. Как результат, рядовые бизнес-пользователи могут делать запросы к сложным массивам данных обычными словами и фразами, голосом или вводом с клавиатуры, и получать столь же легко понимаемые результаты бизнес-анализа.

По прогнозу Gartner, к концу этого года 50% аналитических запросов будут делаться на естественном языке или с помощью привычного поиска либо генерироваться автоматически. А согласно прогнозу Ventana Research, 33% организаций ожидают, что к 2021 году запросы и ответы на естественном языке будут стандартной функцией инструментов бизнес-анализа.

В 2017 году разработчик ПО бизнес-аналитики Tableau Software купила компанию ClearGraph, разработавшую технологию обработки естественного языка, и в прошлом году встроила ее в свою флагманскую платформу визуализации данных.

Аналитика для EDGE

Согласно прогнозу IDC, к 2025 году во всем мире будет насчитываться более 150 миллиардов «подключенных» устройств — главным образом датчиков и других устройств Интернета вещей на стыке физического мира и IoT-сети, — и они будут генерировать более 90 Зеттабайт данных.

Это ставит трудную задачу управления данными и их анализа, одновременно открывая новые возможности. Сбор, подготовка и анализирование громадных объемов данных, генерируемых устройствами периферии сети, — главным образом потоковых данных в реальном времени — потребует новых технологий и процессов обработки.

Одним из решений видятся периферийные вычисления, когда данные обрабатываются и анализируются в реальном времени распределенными системами там, где они генерируются, и даже внутри самих граничных устройств, а результаты отправляются в централизованные ИТ-системы. Это уменьшит трафик и задержку в сети, а основу реализации этой модели составят облачные технологии, говорит Gartner.

Данные-как-услуга

Организации всё чаще предоставляют доступ к данным и файлам — будь то собственным сотрудникам или на коммерческой основе в качестве источника дохода, — используя модель как-услуга.

Данные традиционно держались в хранилищах, для доступа к которым служили специальные приложения. Модель «данные-как-услуга», как и SaaS, использует облачную технологию, предоставляя доступ к данным по требованию, откуда угодно и с любого устройства.

Эта модель обеспечит удобный доступ к данным для аналитиков при проведении бизнес-анализа и упростит обмен данными между подразделениями или организациями.

IDC ожидает также, что некоторые компании могут предоставлять клиентам доступ к своим данным через инструменты бизнес-анализа по подписке. По прогнозу IDC, в 2020 году целых 90% крупных корпораций будут получать доход на основе модели данные-как-услуга.

От предиктивной — к предписывающей аналитике

Аналитика данных традиционно использовалась для выявления и лучшего понимания того, что происходило раньше, то есть для ретроспективных данных, и потому называлась «описательной». Сколько дождевиков продала компания в Небраске в 2018 году в сравнении с 2017 годом? Сопоставив эти данные с информацией о погоде, можно понять, почему упали продажи.

Более сложные инструменты анализа, получившие широкое распространение в последние годы, дают возможность «прогнозного» анализа — используя определенные методы статистического моделирования, они позволяют прогнозировать возможный результат принятия тех или иных деловых решений.

Теперь же мы наблюдаем новое поколение инструментов «предписывающего» анализа данных, дающих рекомендации — как следует действовать исходя из найденных результатов. Инструменты предписывающей аналитики моделируют возможный результат конкретного бизнес-решения, включая в рассмотрение все известные переменные, помогая достичь наилучшего. По прогнозу Ventana Research, к 2021 году две трети аналитических процессов будут не только помогать понять, что произошло и почему, но и предписывать, как следует действовать.

Предписывающая аналитика часто строится как продолжение автоматизации анализа данных и задействует целый ряд технологий — искусственный интеллект и машинное обучение, вычислительное моделирование, нейронные сети и графовый анализ.

Ужесточение регулирования в сфере обращения с данными

Многие компании уже ощутили на себе ужесточение регулирования в обращении с данными с вступлением в силу Генерального регламента о защите данных (GDPR) в Евросоюзе в мае 2018 года. В текущем году, с вводом Закона штата Калифорния о защите конфиденциальности потребителей (CCPA) и в свете растущих призывов ввести такие правила в масштабах всей страны, компании и организации в США встанут перед необходимостью внедрить строгий контроль за данными, обеспечением их защищенности и конфиденциальности.

Всё это окажет влияние на практику сбора, обработки, хранения и использования данных компаниями, и в первую очередь это касается данных потребителей.

К 2021 году 25% организаций создадут новые центры передовых технологий управления данными и безопасности, что поможет снизить риск неправомерного использования или утечки, дает прогноз Ventana Research. Исследователи в сфере технологий управления данными и бизнес-анализа призваны сыграть ключевую роль в разработке и внедрении эффективных и надежных методов.

Растущее использование графовых баз данных

Бизнес-аналитики создают всё более сложные запросы к структурированным и неструктурированным данным, часто из нескольких приложений и источников, говорит Gartner. Выполнение таких сложных запросов в больших масштабах с использованием традиционных инструментов и языков запросов представляет собой очень трудную задачу.

Графовые базы данных и инструменты аналитики и визуализации помогают справиться с этой задачей, показывая связи, существующие между узлами — людьми, локациями и объектами материального мира.

Gartner прогнозирует, что использование графовой обработки и графовых баз данных будет удваиваться ежегодно в последующие несколько лет, что позволит «ускорить подготовку данных и создать более сложные и адаптивные методы анализирования данных».

По материалам crn.com.

Источник: Рик Уайтинг, CRN/США

Версия для печати (без изображений)   Все новости