Банковское обозрение (Б.О принт, BestPractice-онлайн (40 кейсов в год) + доступ к архиву FinLegal-онлайн)
FinLegal ( FinLegal (раз в полугодие) принт и онлайн (60 кейсов в год) + доступ к архиву (БанкНадзор)
Искусственный интеллект уже стал основой банковских сервисов, но вместе с его внедрением растут и этические риски. Европа отвечает комплексным AI Act, США — «Биллем о правах в эпоху ИИ», Китай — жесткими правилами для генеративных систем. Россия выбрала мягкий путь и представила собственный Кодекс этики для финансового рынка
Банк России в июле 2025 года представил Кодекс этики в сфере разработки и применения искусственного интеллекта на финансовом рынке (далее — Кодекс). Документ носит добровольный характер и задает общие ориентиры, а не жесткие требования. Эксперты сходятся во мнении, что для банковского сектора появление Кодекса актуально и своевременно. Этот документ призван повысить доверие клиентов и минимизировать риски, содействуя развитию доверенных технологий ИИ на финансовом рынке.
Поскольку подходы к регулированию ИИ различаются в разных странах, российские эксперты спорят о балансе: жесткий европейский подход снижает технологические риски, но замедляет внедрение, тогда как мягкая модель США и Великобритании быстрее стимулирует рынок, оставляя пробелы в регулировании.
Великобритания: гибкий «pro-innovation»-подход

Лондон придерживается линии «pro-innovation» — регулировать ИИ через существующие законы, избегая жёстких рамок. Для анализа рисков создан AI Safety Institute (UK AISI), который разрабатывает методики тестирования, в том числе для финансовых приложений.
Необходимость практических механизмов контроля подчеркивает Дмитрий Зборошенко, ML-архитектор компании «Софтлайн Решения» (ГК Softline). «На практике у разных игроков могут быть различные трактовки этих принципов, и ни один кодекс без механизмов контроля не станет гарантом их соблюдения. Выполнение норм часто зависит не от формальных регламентов, а от зрелости корпоративной культуры и инженерной дисциплины. Поэтому Кодекс может быть полезен только как часть более широкой инфраструктуры управления ИИ, включающей методологии, процедуры оценки, аудит и обучение команд», — считает эксперт. Принцип прозрачности Кодекса обязывает организации информировать клиентов о применении ИИ и раскрывать информацию о рисках, что напрямую работает на гарантии безопасности и справедливости. Как отметил Егор Тайков, сооснователь компании Plevako.ai: «Кодекс этики — это правила, которые защищают обе стороны. Финтех-проекты получают четкие ориентиры для разработки, клиенты — гарантии безопасности и справедливого отношения». При этом люди не всегда понимают, как именно работает алгоритм, что делает ответственность разработчиков критически высокой.
США: Blueprint for an AI Bill of Rights

В 2022 году Белый дом опубликовал Blueprint for an AI Bill of Rights, где закреплены пять принципов:
безопасность и эффективность систем;
защита от дискриминации;
конфиденциальность данных;
уведомление и объяснение решений;
возможность альтернативного взаимодействия с человеком.
Документ носит рекомендательный характер, но активно используется регуляторами — Федеральной торговой комиссией (FTC), Комиссией по ценным бумагам и биржам (SEC) и Бюро финансовой защиты потребителей (CFPB). Отдельные штаты идут дальше: Нью-Йорк обязал проводить аудит алгоритмов в HR-системах, Коннектикут обсуждает аналогичные меры для финтеха.
В Кодексе также содержатся рекомендации участникам рынка по обмену опытом для проработки и конкретизации формулировок предлагаемых в Кодексе норм. По мнению Юлии Седченко, директора по продажам Fromtech, Кодекс помогает структурировать отношение к ИИ, задает вектор этичного развития технологий и усиливает доверие со стороны клиентов. «Он особенно важен сейчас, когда активно обсуждаются риски генеративных моделей. Однако реализация даже рекомендательных норм требует ресурсов — как технических, так и организационных. Некоторые положения сформулированы достаточно широко, и им потребуется конкретизация с участием специалистов из бизнеса», — указала на недоработки Юлия Седченко.
Китай: жесткое регулирование

В 2021 году в Китае принят Этический кодекс для искусственного интеллекта нового поколения. В нем закреплено, что ключевые решения должны оставаться за человеком, а алгоритмы использоваться как вспомогательный инструмент. Кодекс также требует защиты персональных данных и обязательной регистрации алгоритмов.
С 2023 года действуют отдельные правила для генеративных сервисов: разработчики обязаны проходить проверку у регулятора, внедрять цензурные фильтры и раскрывать основные принципы работы моделей.
Кодекс содержит рекомендации по маркировке информации, созданной ИИ, — это один из инструментов повышения доверия к генерируемому контенту. С этим согласны и эксперты, они называют поддержание доверия ключевым вызовом. Глеб Калкутин, руководитель департамента RPA PIX Robotics, считает важным отделять созданный ИИ контент от авторского, чтобы избежать манипуляций. Развивая эту мысль, эксперт отмечает, что Кодекс может и должен играть роль свода принципов хорошей практики, определяя рамки ответственности: «Одним из ключевых пунктов может стать обязательное отделение созданного ИИ контента от авторского. Это поможет сохранить доверие к информации, избежать манипуляций и предупредить подмену понятий. Его наличие позволит задать прозрачные ориентиры и минимизировать репутационные и юридические риски».
Дмитрий Зборошенко также утверждает, что потеря доверия к решениям, принимаемым с помощью систем с ИИ, это главный риск: при отсутствии прозрачности и понятных норм клиенты, регуляторы и общество будут все чаще сомневаться в технологиях.
Вопрос защиты данных и предотвращения дискриминации в своем комментарии для «Б.О» подняла Лариса Карпан, эксперт по безопасной разработке Angara Security. «В условиях, когда алгоритмы все чаще принимают решения, наличие единых этических стандартов помогает минимизировать риски дискриминации, нарушения конфиденциальности и злоупотреблений. Кодекс способствует формированию культуры добросовестного использования ИИ и укреплению доверия между участниками рынка и надзорными органами». При этом, по ее мнению, эффективный контроль возможен лишь при росте компетенций самого регулятора — нужны специализированные подразделения и эксперты, иначе проверки будут формальными.
Европейский Союз: AI Act

В 2024 году ЕС принял AI Act — первый комплексный закон об ИИ. Он делит системы на четыре категории:
Отдельный блок закона посвящен генеративным моделям: они должны маркировать создаваемый контент, раскрывать используемые при обучении данные и внедрять фильтры для недопустимой информации.
Святослав Смирнов, руководитель подразделения «К2 НейроТех» от компании «К2Тех», считает появление Кодекса своевременным шагом, но подчеркивает: «Практическая ценность Кодекса будет напрямую зависеть от того, насколько эффективными окажутся механизмы внедрения и контроля новых правил». Он отметил, что регулятор может испытывать трудности при глубоком аудите сложных ИИ-систем, особенно в условиях стремительного развития технологий.
Эксперты, в целом, отметили, что результативно отслеживать применение ИИ для регуляторов будет непросто, пока у них нет нужной экспертизы. Решение видят в фокусе на результатах, а не на алгоритмах: важно оценивать, какие данные обрабатываются, какие выводы формируются и к чему они приводят.
Так, Глеб Калкутин отметил: «Мы считаем, что это возможно при условии, что надзорные органы будут опираться не столько на техническую экспертизу, сколько на прозрачные механизмы оценки и метрики результата. Искусственный интеллект можно контролировать через его воздействие: как он применяется, какие данные обрабатывает, какие выводы генерирует и к каким последствиям приводит». Компетенции будут наращиваться через диалог с отраслью, а такие меры, как документация моделей, трекинг данных и регулярная валидация, делают контроль реалистичным.
Еще один аспект — баланс между регулированием и конкурентоспособностью. Никита Константинов, генеральный директор NIKTA.AI, прокомментировал это так: «Сегодня невозможно обязать иностранные сервисы вроде ChatGPT, Perplexity или DeepSeek отвечать по российским правилам, а значит, чрезмерная регуляторная нагрузка на отечественные продукты рискует снизить их конкурентоспособность. Кодекс этики должен учитывать этот баланс».
Акцент на финансовых рисках сделал Николай Фокин, учредитель и генеральный директор Cloud4Y: «Отсутствие регулирования ИИ в ближайшие несколько лет может серьезно дестабилизировать финансовые рынки. Во-первых, алгоритмы, работающие без четких правил, способны усиливать волатильность. Во-вторых, растет риск манипуляций. ИИ-инструменты могут использоваться для создания фейковых новостей, дип-фейков или сложных схем pump-and-dump, обманывая как инвесторов, так и регуляторов».
Усиливает проблему кадровый дефицит специалистов: банки переманивают экспертов, и контролеры не успевают за рынком.
Некоторые участники дискуссии рассматривают Кодекс как элемент постепенного ужесточения правил. Денис Хлебородов, основатель и генеральный директор Cloud X, считает: «Кодекс этики Банка России — необходимая инициатива, которая задает общий “минимальный стандарт”: человекоцентричность, справедливость, прозрачность, безопасность и управляемость рисков. При этом документ носит рекомендательный характер — он не является федеральным законом или обязательным нормативным актом, а выступает как “мягкое регулирование” (soft law)». При этом Денис Хлебородов отметил, что Кодекс этики ЦБ через разработку и внедрение надзорных ожиданий может в дальнейшем трансформироваться в обязательные требования — как это уже было с рядом рекомендаций ЦБ в области кибербезопасности и операционной устойчивости, которые со временем стали нормативными актами.
Этические стандарты ИИ перестают быть абстрактной темой для футурологических дискуссий и становятся частью реальной практики финансового рынка.
Мировой опыт показывает: чем раньше участники рынка внедряют прозрачные и безопасные подходы к использованию алгоритмов, тем выше их устойчивость к технологическим и репутационным рискам.
Редакция «Б.О» тоже ознакомилась с Кодексом, который действительно сочетает в себе международные принципы с учетом российской специфики: акцентом на доверии, защите клиента, управлении рисками и готовности к технологическим сбоям.
Международные инициативы

Дискуссии идут и на глобальном уровне. В сентябре 2024 года Совет Европы открыл для подписания первую международную Конвенцию по ИИ, посвященную ответственности, защите прав человека и приватности. Документ подписали США, UK, Канада, страны ЕС и другие члены Совета Европы.
Сны Анны, или За кулисами гения
В конце зимы я посмотрела спектакль московского театра «МОСТ» «Достоевская. Сны Анны», поставленный по дневнику его жены Анны Григорьевны. Это была не просто театральная постановка, это было погружение в мир, где за видимым блеском гениального писателя скрывается женщина, ставшая истинным движителем его творческой и финансовой судьбы
Человек — это архитектор смысла, а ИИ — лишь помощник
О том, как опыт аудитора помогает управлять финансовыми процессами в крупном банке, о масштабном проекте внедрения МСФО в российском банковском секторе и о том, как автоматизация уже сейчас помогает готовить отчетность большой группы всего за неделю, в интервью «Б.О» рассказала руководитель финансового департамента — старший вице-президент банка ВТБ Наталья Сурова
Спортсмены НОВИКОМа завоевали призовые места в Казани
Сотрудники банка НОВИКОМ успешно выступили на VI зимнем корпоративном фестивале Всероссийского физкультурно-спортивного общества «Трудовые резервы». Соревнования прошли в Казани при поддержке Министерства спорта Российской Федерации и госкорпорации «Ростех»