Big, big, big data

Из-за лавинообразного роста объема данных требования к серверным решениям становятся все более жесткими

Дмитрий Шепелявый
Дмитрий Шепелявый

Сфера ИТ сейчас переживает очередную серьезную трансформацию. Массовое использование мобильных устройств — смартфонов, планшетов, ноутбуков и нетбуков, сопряженное с радикальным расширением каналов передачи данных, распространением технологий беспроводной связи 3Gи 4G — все это ведет к тому, что приложения все чаще исполняются не на «девайсах» клиента, а на серверах. Облачные решения становятся нормой жизни. Это в свою очередь радикально повышает требования к производительности серверов. Они должны молниеносно обрабатывать большие объемы данных, не допускать ошибок при сохранении информации в базах, исполнять одновременно массу приложений, взаимодействовать с множеством клиентов, никого не заставляя ждать. Соответствовать всем этим запросам может далеко не каждая аппаратно-программная платформа. Одно из надежных решений, HANA, предлагает компания SAP. В отличие от конкурентов, в последнее время этот ИТ-гигант делает акцент не только на работе с базами данных, но и на создании виртуальных сред — для того, чтобы на серверах можно было запускать практически любые приложения, адаптированные для облаков. Кроме того, HANA — это пример in-memorycomputing, когда серверы хранят всю информацию в оперативной памяти, что позволяет ускорить обработку данных иногда в 10 тыс. раз! Об особенностях возникшего момента «Эксперт Казахстан» побеседовал с Дмитрием Шепелявым, заместителем генерального директора SAP СНГ, директором департамента технологических решений SAP СНГ.

— Для чего, собственно, нужны системы работы с большими массивами данных — такие, как SAP HANA? Почему вы считаете, что старые серверные решения больше не годятся для бизнеса?

— Нельзя сказать, что старые решения больше совершенно непригодны. Речь, скорее, о том, что происходит некое серьезное изменение подходов к ИТ. Новые технологии радикально меняют парадигму управления, систему принятия решений. Объем данных постоянно увеличивается. Известный факт, что мы с вами, люди XXI века, за месяц получаем и обрабатываем такой же объем информации, как человек XVII века — за всю жизнь. В конце прошлого года работники компании Symantec опросили больше четырех тысяч директоров организаций из 38 стран и подсчитали, что сейчас в мире хранится на серверах около 2,2 зеттабайт данных, то есть 2,2трлн Гб! Если каждый байт приравнять к песчинке, то получится, что байтов в мире хранится примерно в 70 раз больше, чем всех песчинок на пляжах Земли. По прогнозам IDC, количество данных на планете будет, как минимум, удваиваться каждые два года вплоть до 2020 года. С такими объемами нужно уметь работать. В какой-то момент начало казаться, что человечество стало терять контроль, не справляется с этой лавиной информации. Но сегодня появляются решения, которые позволяют, если так можно выразиться, оседлать эту волну. И одно из лучших решений — это наша платформа HANA.

— У вас уже есть примеры, когда обработка больших массивов данных с помощью ваших решений принесла ощутимые результаты?

— Конечно, есть. И я думаю, они будут множиться. Допустим, в Бразилии с помощью нашего программно-аппаратного комплекса провели анализ всего объема разведочных данных по нефтяным и газовым месторождениям, выделили самую полезную информацию. И хотя в Бразилии большинство месторождений «трудные», инвесторы потянулись в эту страну, в эту отрасль. Несмотря на то, что сегодня только 2% работ по разведке нефти в Бразилии выполняют конкуренты бразильской государственной Petrobras, за год они вложили в НИОКР около 500 млн долларов. При этом ожидается, что в следующие пять лет эта цифра возрастет на 25%, а к 2017 году общая сумма инвестиций в НИОКР по разведке и добыче нефти в Бразилии составит, как сообщает Forbes, 7 млрд долларов.

— То есть оказалось не так важно: трудная там нефть или нет?

— Совершенно верно. Для инвесторов было важнее то, что они получили конкретную информацию, и это позволило им принять обоснованные решения. То есть инвестиции Бразилией были получены именно как следствие обработки больших объемов данных. Одна из известных компаний-поставщиков ИТ-решений вложила около 100 млн долларов в создание научно-исследовательского центра в Рио-де-Жанейро, который специализируется на хранении, анализе и управлении потоками bigdata, генерируемых нефтедобывающими предприятиями страны.

— Что дает грамотная работа с большими массивами данных компаниям, у которых накоплен какой-то объем информации?

— Лучшее понимание клиентов. Более быструю реакцию на их запросы. По данным нашего опроса, использование HANA в среднем помогает увеличить дополнительные и перекрестные продажи в общем объеме продаж на 2–3%, на 10–20% сократить отток клиентской базы, на 30–50% уменьшить затраты времени на подготовку финансовой отчетности, на 70–90% — затраты времени на ее анализ. Например, компания RedBull ускорила процесс сбора отчетности филиалов, находящихся в 39 странах, и сократила время получения одного отчета с 50 минут до двух минут. В мексиканском подразделении Colgate использовали SAP HANA, чтобы управлять прибыльностью продаж и анализировать отчетность. Теперь их торговые представители имеют возможность показывать результаты своей работы в реальном времени, что позволяет бизнесу в 100–300 раз быстрее реагировать на любые изменения. Поэтому неудивительно, что среди компаний, которые оценили эту технологию,— Bosch, Siemens, Adobe, Lenovo, Deloitte, BASF и масса других корпораций.

Статьи по теме:
Казахстан

Не победить, а минимизировать

В Казахстане бизнес-сообщество призывают активнее включиться в борьбу с коррупцией, но начать эту борьбу предлагают с самих себя

Международный бизнес

Интернет больших вещей

Освоение IoT в промышленности позволит компаниям совершить рывок в производительности

Спецвыпуск

Бремя управлять деньгами

Замедление экономики разводит все дальше банки и реальный сектор

Бизнес и финансы

Номер с дворецким

Карта столичных гостиниц пополнилась новым объектом