Банковское обозрение

Финансовая сфера

  • Большими данными — по большим резервам
10.04.2019 Аналитика
Большими данными — по большим резервам

С внедрением МСФО (IFRS) 9 повсеместное использование Big Data в банках неизбежно — без больших данных рентабельность не удержать. Что предпринять банкам?



МСФО 9 вводит в обиход российских финансовых организаций модель ожидаемых кредитных убытков, в парадигме которой будет жить каждый актив банка. На первом этапе — при возник-новении или приобретении актива — банку следует создать резерв, эквивалентный кредитному убытку за 12 месяцев. Существенно сложнее ситуация при переходе актива на второй или на третий этап, когда банк получает сигнал о росте кредитного риска или о дефолте заемщика соответственно. В этом случае банк обязан создать резерв на весь срок действия актива. Масштаб проблемы особенно отчетливо виден на примере ипотечного портфеля розничного дивизиона с его сроками кредитов и 10, и 20 лет.

Требования МСФО 9 уже оказывают значительное давление на капитал банков, их рента-бельность и на эффективность бизнеса кредитных организаций в глазах их акционеров: дона-числения резервов проходят в отчетности как убытки, и совладельцам банков потребуется неко-торое время, чтобы «сжиться» с МСФО 9. Привыкать есть к чему. Аудиторы из «ФБК Грант Торнтон» подсчитали, что резервы могут увеличиться от 5 до 25% в зависимости от структуры и качества кредитного портфеля, а также в силу необходимости создания резервов по портфелям, которые ранее в резервировании не нуждались. Также отчетность по МСФО 9 усложнила расчет резервов: расширившийся временной горизонт вынудит банки учитывать при расчете в том числе факторы макроэкономических циклов.

В новых условиях банкам предстоит найти решение, которое помогло бы снизить нагрузку на капитал через оптимизацию резервов. Одна из таких возможностей — строить предиктивные модели на основе больших данных и технологий машинного обучения, которые предсказывали бы возникновение факторов ухудшения качества активов, способствующих движению этих активов по модели ожидаемых кредитных убытков в «плохую» сторону.

Для подавляющего большинства российских банков Big Data и машинное обучение — новые тематики, которые влекут за собой ряд организационных и технологических вызовов. Во-первых, сами математические модели и расчеты будут намного сложнее, чем, скажем, определение платежеспособности заемщика в рамках его проверки на кредитном конвейере. Во-вторых, для точности предсказаний следует работать с действительно большими данными самой разной структуры: информации от кредитных бюро и собственной статистики банка для этих целей явно недостаточно, понадобится собирать информацию из десятков и сотен источников, в том числе внешних по отношению к банку, уметь анализировать ее в режиме реального времени и вытаскивать из информационного потока значимые факты. В-третьих, потребуется иметь практически мгновенный доступ к накопленной информации, для чего обычную систему хранения использовать нецелесообразно — необходима отдельная СХД с другим аппаратным обеспечением и иными принципами расположения данных на дисках. В-четвертых, предстоит создать инфраструктуру построения моделей, проверки гипотез и быстрой реализации модели на продакшн-системах, а это совершенно отдельная управлен-ческая и инженерная практика.

Требования МСФО 9 уже оказывают значительное давление на капитал банков

Масштаб задач не всегда понимается организациями, которые пытаются построить практику анализа больших данных и создания предиктивных моделей своими силами. Самый распространенный прокол — нанять «дата-сайентиста», наделить его полномочиями и ждать быстрого результата. Между тем действительно крутые профи привыкли работать по-другому. Они эффективны в рамках «обвязки», которая состоит из особенных инструментов, процессов и специалистов. Да, команду можно сформировать из готовых специалистов — на рынке их не так много, они довольно дорогие, но они есть. Гораздо больше сложностей возникнет на этапе интеграции новой команды со смежными подразделениями и исправления ошибок, которых на первом этапе избежать будет невозможно. На все эти издержки накладывается фактор времени: надо быть реалистами и понимать, что первые видимые бизнесу результаты команда Big Data даже в идеальных условиях покажет минимум через шесть месяцев после старта. Можно ли назвать полгода приемлемым сроком time-to-market — каждая организация решает для себя.

Условную стоимость «входного билета» и сроки подготовки к развертыванию практики Big Data и машинного обучения можно сократить, если обратить внимание на класс решений, которые на разных уровнях позволяют автоматизировать работы по решению комплексной задачи:

• упорядочивают разработку моделей, контролируют их версионность;

• визуализируют процесс моделирования;

• представляют средства управления созданными моделями, чтобы снизить так называемый модельный риск — потенциальные потери от ошибок в моделях;

• существенно упрощают работу с большими данными и делают ее выполнимой для специалистов, не обладающих глубокими компетенциями в стеке решений Big Data.

Самый распространенный прокол — нанять «дата-сайентиста», наделить его полномочиями и ждать быстрого результата

Класс этих решений только зарождается, однако аналитик Gartner в корпоративном блоге объясняет, почему такие платформы важны для больших данных как отрасли знаний и компетенций. Data science как предметная область в ее нынешнем виде очень скоро потеряет элитарность. В противовес экспертам (Expert Data Science) возникнет целая каста так называемых Citizen Data Science — специалистов среднего и даже начального уровня по работе с большими данными и машинным обучением. Обладая доступом к приложениям по автома-тизации и упрощению работы с данными, они будут успешно закрывать ту часть функциональ-ности «дата-сайентистов», которая на данный момент поддерживается существующими решениями. Организациям, которые возьмут на вооружение платформы по автоматизации работы с Big Data, останется лишь выстроить взаимодействие «отделов Big Data» со смежными подразделениями, например с инженерами по эксплуатации информационных систем.

Пока сами банки раздумывали об использовании больших данных для решения бизнес-задач, решение регулятора, связанное с МСФО 9, накрыло их, словно эффект бабочки. Если раньше банки рассматривали Big Data как один из инструментов, позволяющих заработать больше денег для своих акционеров, то теперь большие данные станут средством сохранения рентабельности бизнеса, которая, если ничего не предпринимать, упадет из-за роста резервов. Это история безальтернативная. Варианты начнутся на этапе поиска возможностей реализации. Действовать консервативно, готовиться понести временные, финансовые и организационные издержки, создавая команду Big Data с нуля? Или использовать достаточно простые в освоении платформы автоматизации для создания и проверки моделей, управления ими и развертывания их с короткими сроками time-to-market? Или скомбинировать эти подходы? Каким бы ни был выбор, рискну дать несколько рекомендаций, которые, на мой взгляд, помогут рационально подойти к расширению функциональности систем риск-менеджмента для расчета резервов по активам.

1. Определите существенные для вашего банка факторы кредитного риска. Целесообразно определить их исходя из риск-политики либо пригласить консультантов с опытом расчета резервов по МСФО 9 для «приземления» лучших практик на систему риск-менеджимента организации.

2. Определите источники данных, которые будут включены в модель. Часть данных — например, о платежной дисциплине и кредитной истории — можно будет взять из хранилища банка. Какие-то типы данных придется подтянуть извне, чтобы повысить точность модели.

3. Проанализируйте, есть ли в вашей организации ресурсы для реализации такого проекта. Обратите внимание на инфраструктуру создания, развертывания и эксплуатации прогнозных моделей.

4. При оценке платформ для автоматизации и упрощения работы с большими данными и моделями обратите внимание на функциональность каждого решения. Попадание класса решений в фокус аналитиков Gartner вызвало «маркетинговый зуд» у разработчиков похожих решений: нередко они маскируют важную отсутствующую функциональность, без которой, если вы намерены сформировать команду из Citizen Data Science, работать нельзя.

5. Посчитайте необходимые затраты времени и денег на формирование команды и на распространение новой функциональности на всю организацию. При прочих равных условиях почти всегда целесообразнее обратиться к внешним консультантам — это элементарно быстрее. Обращайте внимание на готовые решения в их арсенале. Идеально, если они обеспечат инфраструктуру создания и проверки моделей, помогут обучить работе со стеком технологий новичков и обеспечат быстрый старт для только что нанятого data sciеntist. При наличии такой платформы для аналитика выше шанс оказаться в привычном окружении и быстро показать ожидаемый результат.