Финансовая сфера

Банковское обозрение


  • А только ли в технологиях дело?
17.07.2023 FinTechАналитика

А только ли в технологиях дело?

Искусственный интеллект (ИИ) был когда-то самой открытой технологией. Сегодня же это одна из наиболее закрытых сфер. В выигрыше оказались те, кто смогли создать свой собственный стек технологий. Но этого мало


«Романтический» период развития ИИ, когда было принято делиться со всем миром своими достижениями, похоже, подошел к концу. Мир разделяется на сферы влияния нескольких крупнейших держав, за пределы которых постепенно перестают уходить данные о тех или иных перспективных разработках. В итоге во многих юрисдикциях начинает появляться собственное регулирование ИИ, которое порой ограничивает использование тех или иных иностранных разработок. Россия в этом не является исключением.

Но если бы только технологии и регуляторика были темами многочисленных дискуссий. На повестке дня — горячее обсуждение форм использования ИИ бизнесом, в частности трансгуманизма. Человечество столкнулось с тем, что человек и технология сливаются воедино, чтобы появилась возможность усовершенствования нынешней человеческой формы бытия — редактирования генома, переноса сознания человека в цифровое пространство, имплантации чипов, оспользования нанотехнологиий, крионики и т.д.

Сегодня все эти проблемы обсуждаются в России в рамках значимых саммитов, например в ходе конференции STARTUP VILLAGE — 2023, на форуме ЦИПР («Цифровая индустрия промышленной России»), который прошел в Нижнем Новгороде в начале июня 2023 года, а также на полях ПМЭФ-2023 и т.д. Важным наблюдением является то, что среди самых активных участников дискуссий — представители финансового сектора. Почему так происходит? Попробуем разобраться.

OpenAI как символ двойных стандартов

Начнем с открытости и свободы конкуренции в сфере ИИ на примере бесконечных происшествий с американской компанией OpenAI — олицетворением технологических прорывов и создателем нашумевшего сервиса ChatGPT.

В начале 2023 года OpenAI сообщила, что больше не поддерживает принцип открытого кода. Сооснователь компании OpenAI Илья Суцкевер (Ilya Sutskever) объяснил, что растущая конкуренция и необходимость соблюдения безопасности потребовали именно такого решения. Модели OpenAI, по его словам, слишком мощные уже сегодня, а со временем будут становиться все мощнее. В какой-то момент по желанию неких людей этими моделями станет очень легко причинить значительный ущерб другим.

Темой безопасности объясняли желание притормозить мировой прогресс в области ИИ Илон Маск, Стив Возняк и некоторые другие известные в мировом масштабе лица. Они выступили с идеей заморозить все разработки в области ИИ как минимум на полгода — до тех пор, пока не появятся некая хартия и новые стандарты безопасности. Кстати, о регулировании: гендиректор OpenAI Сэм Альтман (Samuel Harris Altman) предупредил, что компания может отказаться предоставлять услуги на европейском рынке в ответ на разрабатываемые в регионе меры государственного регулирования отрасли ИИ.

Что касается конкуренции, то Илон Маск и Сэм Альтман, запуская OpenAI в 2015 году, ставили цель создать «открытую компанию, работающую на благо общества, а не на государства или корпорации, а также не позволить кому бы то ни было завладеть теми “фантастическими” преимуществами, которые даст создание полноценного ИИ на основе нейросетей». В планах компании были заявленыо «открытое сотрудничество со всеми лицами и учреждениями», а также открытая публикация всех результатов своих исследований. Вот такая «открытость»!

Илон Маск покинул OpenAI в 2018 году, объявив, что разрабатывает ИИ для своих автомобилей Tesla, и стал конкурировать с компанией за ряд топовых специалистов в области ИИ, а также разошелся во мнениях о путях развития OpenAI, которая выбрала тесное сотрудничество с Microsoft, а затем и с правительством США (после слушаний в Конгрессе в мае 2023 года). Вот такая «свобода конкуренции»!

Человек или машина?

Угроза американскому ИИ со стороны европейских регуляторов стала поводом для анализа сложившейся ситуации для самого Криса Скиннера (Chris Skinner), председателя Financial Services Club, британского финтех-гуру и футуролога. Отечественным финансистам он хорошо известен по яркому выступлению о трансформации банков в цифровую эпоху на форуме FINOPOLIS-2019, а также по статьям, например, о том, какие возможности появляются у банков в условиях, когда «капитализм акционеров уже мертв и нарождается капитализм стейкхолдеров».

Крис Скиннер решил задать вопрос о том, как регулировать ИИ самому искусственному интеллекту в лице ChatGPT, поставив журналистов во всем мире в тупик из-за нерешенности проблем с авторским правом и публикацией принадлежащих перу ИИ произведений. Ответы ChatGPT о регулировании самого себя, полученные Крисом Скиннером, «Б.О» приводит в подверстке к этому анализу. Кстати, там можно найти вполне резонные соображения по этому поводу.

Сам же Крис Скиннер в посте в личном блоге объяснил причины своего общения с ИИ тем, что, по его мнению, подкрепленному мыслями его коллег, «ChatGPT — это окно в будущее финансовых услуг. Хотя никто не будет предоставлять потребительские услуги с использованием ChatGPT и Open Banking в том виде, в каком они есть сейчас, обе эти технологии радикально изменят розничные финансовые услуги».

По словам британского гуру, идея о том, чтобы боты стали помогать клиентам банков в достижении их финансового благополучия в рамках обязанности заботиться о нем вместо самого человека, очень привлекательна. Поэтому банк JPMorgan Chase уже разрабатывает сервис «IndexGPT», который использует ИИ для выбора оптимальных инвестиций для своих клиентов.

Крис Скиннер пишет: «Это означает, что для большинства людей в недалеком будущем финансовые решения, транзакции и анализ ситуации будут выполняться ботами, действующими в рамках соответствующего законодательства в области ИИ и обеспечения финансового благополучия (financial health). В случае успеха JPMorgan Chase и других исследователей потребуется несколько лет, чтобы покончить с индустрией финансовых услуг в том виде, в каком мы ее знаем сегодня».

Стандарты и регулирование

Что же конкретно вызвало недовольство Сэма Альтмана применительно к законодательству ЕС? Это стало известно уже 14 июня 2023 года, когда депутаты Европарламента одобрили Закон об ИИ (AI Act), который теперь необходимо обсудить в Еврокомиссии, а также со странами — членами ЕС. Эксперты ИД «КоммерсантЪ» назвали случившееся «фундаментальным шагом в принятии закона, который должен стать первым в мире примером разностороннего и всеобъемлющего регулирования использования ИИ».

Документ, в частности, запрещает использование удаленной биометрической идентификации в режиме реального времени в общественных местах, а также системы распознавания эмоций. Под рестрикции попало применение полицией систем предиктивной аналитики для профилактики правонарушений. Теперь жестко регулируются генеративный ИИ (такой, как ChatGPT), а также иные высокорисковые системы, основанные на ИИ, среди которых беспилотные автомобили и медицинское оборудование.

Что касается множества тонкостей регулирования ИИ в разных странах и союзах, то исчерпывающий анализ можно найти в материалах вебинара «Воздействие технологий искусственного интеллекта и робототехники на правовую реальность», который был недавно проведен в рамках подготовки к осеннему форуму Kazan Digital Week 2023. Особенный интерес вызвала дискуссия в чате по поводу необходимости определения ИИ на уровне единого международного документа.

Что касается России, то в разработке регулирования ИИ правят бал представители финансового сектора. Медиапроект «Б.О» опубликовал в ноябре 2020 года интервью с Александром Ведяхиным, первым заместителем председателя правления СберБанка, где он описывал, как по приглашению правительства и администрации президента банк активно участвовал в разработке Национальной стратегии развития технологий ИИ. Это ключевой документ стратегического планирования, в котором сформулированы основополагающие направления развития технологий ИИ в России.

В июне 2023 года в ходе ПМЭФ-2023 в рамках пленарной сессии «Искусственный интеллект: фундамент экономики будущего и маяк российского технологического суверенитета» Александр Ведяхин сказал по этому поводу следующее: «Сейчас в России реализуются Федеральный проект и Национальная стратегия ИИ. Но она разрабатывалась в 2018 году, а принималась в 2019 году, поэтому сейчас идет процесс ее обновления. Необходимо понять, куда двигаться дальше, что нас ждет в будущем. Эти вопросы весьма актуальны, поскольку внедрение технологии ИИ даст существенный экономический эффект для экономики нашей страны».

Отчего наблюдается такая активность законодателей по всему миру? Один из ответов на этот вопрос — деньги. Согласно последним исследованиям Сбера, в целом, в мире ИИ может ежегодно приносить экономическую выгоду в размере от 2,6 трлн до 4,4 трлн долларов. За 2022 год Сбер получил экономический эффект от применения ИИ в размере 250 млрд рублей, а в этом году ожидается 350 млрд рублей.

Bloomberg Intelligence в своем исследовании сообщает о том, что рынок генеративных нейросетей в целом к 2032 году увеличится более чем в 30 раз, до 1,3 трлн долларов. К этому же периоду годовой доход от цифровой рекламы, созданной с помощью нейросетей, достигнет 192 млрд долларов.

В широком смысле сектор ИИ может увеличиться на 42% в течение десяти лет, что объясняется спросом на инфраструктуру, необходимую для обучения систем ИИ, а затем последующих устройств, использующих модели ИИ, рекламу и прочие услуги. Согласно отчету Bloomberg, корпорации Amazon, Alphabet, Nvidia и Microsoft, которые инвестировали миллиарды долларов в OpenAI, окажутся в наиболее выигрышном положении. Однако не все так просто!

«Их на всех не хватит»

Министр цифрового развития, связи и массовых коммуникаций РФ Максут Шадаев на упомянутой пленарной сессии ПМЭФ-2023 рассказал: «В России уже работает большая госпрограмма развития микроэлектроники. Поэтому будут и российские чипы для ИИ, и супермощные компьютеры. К тому же в России есть сеть суперкомпьютеров, входящих в рейтинг топ-500: три у “Яндекса”, два у Сбера и по одному у МТС и МГУ».

Для чего именно нужны эти ресурсы, можно понять, изучив материалы сессии «Сумма технологий искусственного интеллекта. Тренды и вызовы», прошедшей в рамках Форума ЦИПР. Ее важным результатом стало выделение «коллективным естественным интеллектом» участников дискуссии наиболее важных тенденций в области ИИ в России. Перечислим основные тренды.

  1. Нелинейный скачкообразный рост производительности специализированных чипов, а также «доведение до ума» технологий дистанционного считывания эмоций и образов, возникающих в головном мозге человека.
  2. ИИ становится технологией, повышающей личную эффективность человека.
  3. Постоянное личное использование ИИ в качестве персонального ассистента.
  4. Развитие применения ИИ в крупном бизнесе.
  5. Data Fusion как средство безопасного объединения данных и появление доверенных сред.
  6. ИИ как средство повышения производительности труда в промышленности.
  7. Выход в продуктовую среду отечественных разработок для качественного скачка технологий — например, физически осведомленные нейронные сети, нейронные операторы.

Перечислим вызовы.

  1. Технологический разрыв с Западом и пробелы регулирования ИИ в России.
  2. Агрессивная конкуренция и борьба за квалифицированные кадры.
  3. Необходимость понимания ценности и векторов применения ИИ в реальном секторе в целях расчета экономического эффекта в экономике.
  4. Кадровые вызовы: баланс смещается в сторону зарабатывания денег в противовес получению фундаментального образования.
  5. Требуется решить проблему доверенного ИИ, а также регламентировать применение ИИ в различных отраслях.
  6. Необходимость научиться управлять с помощью ИИ огромным количеством процессов одновременно в рамках парадигмы Change Management.
  7. Необходимость наведения «мостиков» между корпорациями и государством в защищенной среде для создания и продвижения новых продуктов.

Банкиров на этой сессии представляли Владимир Авербах, старший управляющий директор управления национального развития AI Сбербанка; Сергей Голицын, вице-президент, заместитель руководителя департамента анализа данных и моделирования банка ВТБ; Александр Крайнов, директор по развитию технологий ИИ компании «Яндекс», которая помимо прочего имеет в своем составе банк и платежный сервис. Поскольку у «Яндекса» сохраняются некоторые шансы стать членом группы ВТБ, тезисы яркого выступления его представителя были буквально разобраны на цитаты финансистами.

В частности, Александр Крайнов предложил: если уж американский Bloomberg Intelligence не стесняется продвигать американские ИИ-бренды, то глупо не назвать поименно и не представить наиболее выдающихся отечественных ученых в области ИИ, находящихся в это время в зале (без учета самого спикера):

  1. Алексей Шпильман, руководитель центра анализа данных и машинного обучения НИУ ВШЭ — Санкт-Петербург;
  2. Алексей Наумов, заведующий международной лабораторией стохастических алгоритмов и анализа многомерных данных (HDI Lab) ФКН ВШЭ;
  3. Евгений Бурнаев, профессор, директор Центра прикладного искусственного интеллекта «Сколтеха» (находился в составе участников дискуссии на сцене).

Своих ученых надо знать в лицо, поскольку глобальная конкуренция в области ИИ в равной степени происходит как за вычислительные ресурсы, так и за талантливых специалистов, которых во всем мире насчитывается не более двух тысяч человек.

«Их на всех не хватит», — заявил Александр Крайнов, поэтому очень важны эффективные коммуникации между отечественными центрами разработок и исследований. Спикер явно намекал на синергетический эффект от совместной работы ВШЭ и Сбера, ярко проявившийся в ходе R&D-дня (Research and Development), посвященного сотрудничеству в сфере разработки технологий ИИ и промежуточным результатам работы университетского Исследовательского центра ИИ по проектам для Сбера.

Расширенных комментариев, очевидно, требует позиция банка ВТБ, который очень активно работает над развитием датасетов для обучения нейронных сетей: «Развитие ИИ требует новых подходов и технологий работы с данными. В частности, это разработка доверенных сред для безопасного объединения данных разных источников. Технологии Data Fusion нужны для развития комфортной городской среды, повышения качества услуг и создания новых удобных сервисов».

Заслуженный киборг России

Александр Крайнов оказался, кроме того, связующим звеном между рассмотренной сессией «Сумма технологий…» и последовавшей далее в рамках Форума ЦИПР дискуссией «Трансгуманизм. Новые пределы эволюции».

В ходе первой сессии он заявил: «Не пользоваться генеративными сетями станет невозможно, так как это создает персональное конкурентное преимущество. Если на предыдущих этапах развития ИИ речь шла о повышении эффективности бизнеса и государства, то сегодня на повестке дня стоит вопрос превращения ИИ в технологию для личного использования».

Таким образом, встал вопрос о создании интерфейсов и разработке принципов взаимодействия искусственного и естественного интеллектов. Об этом и писал Крис Скиннер, опасаясь того, что человек разучится думать, доверившись банковским ботам, как уже частично произошло с московскими таксистами-мигрантами, которые перестали замечать дорогу, доверившись навигаторам.

Как далее выяснилось, с таксистами в Лондоне случилась та же самая история, зафиксированная даже клиническим образом: их гиппокамп, область мозга, отвечающая за организацию работы памяти и построение моделей окружающего пространства, изменился в размерах. Таким образом, профессионального таксиста можно с легкостью определить с помощью МРТ-исследования. А если верить Крису Скиннеру, то также можно будет вычислить активных пользователей персональных ассистентов.

Классических банкиров представлял Альберт Ефимов, кандидат философских наук, вице-президент — директор управления исследований и инноваций СберБанка. Кроме того, в жаркой философской дискуссии приняли участие Александр Храмов, главный научный сотрудник Балтийского федерального университета имени Иммануила Канта, и Сергей Кладько, доцент Университета «Иннополис».

Чаще всего не соглашались друг с другом представители СберБанка и «Яндекса», а деятели науки пытались найти компромиссный вариант. В частности, модератору так и не удалось добиться от бизнесменов четкого ответа на вопрос о том, какая причина, кроме личного академического интереса, движет бизнес в сторону трансгуманизма?

Сергей Кладько выдвинул гипотезу: «Бизнесу в глобальном масштабе в рамках экономики потребления все сложнее и сложнее генерировать новый потребительски спрос. А вот идеи трансгуманизма продаются хорошо». Это, очевидно, является ответом и на вопрос, почему, несмотря на предложения некоторых экспертов (в частности, из области кибербезопасности) остановиться и даже откатить назад, рынок продолжает двигаться вперед, но, к сожалению, без четкой цели.

Сергею Кладько также принадлежал основной вывод из дискуссии: «Транс — в переводе означает “через”, что предполагает движение вперед через человеческую природу, через человеческую натуру. Основоположники трансгуманизма утверждали, что количество людей их не интересует, им важно качество людей. Цели немного меняются, но остается прежней проблема цифрового неравенства и сжатия технологии в сферу для избранных, потому что каждый захочет быть умнее и сильнее, чем те, кто обладают старыми технологиями».

Хотят люди того или нет, все данные находятся непосредственно под нашей субъективной культурной интерпретаций. Поэтому, что бы ни пытались внушить футуристы, документ под названием «Этика ИИ» придется вновь подвергать ревизии, так как национальные культуры жителей России начинают сопротивляться универсальным принципам реальной этики ИИ, что стало заметно невооруженным глазом в конце 2022 года.

По мнению ученых, пока не очень понятна позиция государства по поводу возведения данных в абсолют, а также по поводу полноценного регулирования самого Homo Sapiens во всем его многообразии. А как будут регулироваться будущие «инфоборги»: полчеловека или полмашины? Как определить, кому именно присваивать звание заслуженного киборга России и т.д.?

В итоге вывод, с которым согласились и банкиры, и ученые: «В перспективе десяти лет ИИ достигнет такого уровня развития, что действующие сегодня нормы регулирования и ИИ, и человека будут неактуальны. То, что есть сегодня, больше напоминает либо театр этики, либо этический камуфляж. И если мы все не гуманизируем технологию ИИ до того, как она дегуманизирует человечество, то мы потеряем себя».

 

Послы Европейского Союза и Соединенных Штатов 30 мая 2023 года провели четвертую встречу, посвященную выработке регламента по использованию искусственного интеллекта (ИИ).

В 2023 году в ЕС ожидается соглашение по первому закону касательно ИИ, что многие рассматривают как глобальную гонку в стремлении управлять новыми технологиями. Вопрос в том, как регулировать их эффективно.

Регулирование ИИ — это комплексная и постоянно меняющаяся задача, которая требует тщательной проработки различных факторов. Вот некоторые из ключевых вопросов и принципов, которые могут быть приняты для регулировки ИИ:

  1. Принципы этики. Необходимо обеспечить работу систем ИИ в соответствии с человеческими ценностями. Данные принципы должны включать информационную прозрачность, объективность, ответственность и избегание вреда.
  2. Оценка рисков. Важно производить масштабную работу по выявлению потенциальных рисков, связанных с эксплуатацией ИИ. Это могут быть риски, связанные с приватностью, безопасностью, предвзятостью и исчезновением рабочих мест. Регуляторам следует сотрудничать с разработчиками ИИ и экспертами, чтобы оценить потенциальные риски и принять необходимые меры для их снижения.
  3. Управление данными. Необходимо обеспечить построение систем ИИ на высококачественных, непредвзятых и разноплановых наборах данных. Регулятор может потребовать от организаций строго соблюдать практики по сбору, хранению и использованию данных, включая получение информированного согласия и сохранение приватности пользователя.
  4. Информационная прозрачность и объяснимость. Соблюдение этих принципов в системах ИИ особенно важно в случае влияния на личность или общество в целом. Регулятор может потребовать от организаций предоставлять конкретные пояснения работы ИИ-алгоритмов и обеспечивать работу механизмов по аудиту и отчетности.
  5. Снижение уровня предвзятости. Данный принцип является в системах ИИ критически важным для обеспечения объективности и устранения дискриминации. Регулятор может обязать организации систематически проводить проверки в целях выявления и снижения предвзятости в их моделях ИИ. Кроме того, продвижение разнообразия и инклюзивности в процессе разработки ИИ позволит минимизировать предвзятость.
  6. Стандарты и сертификация. Необходимо определить стандарты отрасли и процессы, подлежащие сертификации, чтобы обеспечить соответствие регламенту. Эти процессы могут включать в себя создание руководства по разработке ИИ, его тестирование и внедрение, а также создание программы сертификации, чтобы обеспечить соответствие систем ИИ заранее прописанным стандартам.
  7. Непрерывный мониторинг и адаптация. Регламент ИИ должен быть динамичным и адаптироваться к меняющейся технологической среде. Регулярный мониторинг и оценка систем ИИ, а также сотрудничество между регулятором, индустрией и академией помогут распознавать возникающие риски и обновлять регламент с их учетом.
  8. Международное сотрудничество. С учетом глобальной природы развития ИИ международное сотрудничество и гармонизация регламента ИИ крайне важны. Сотрудничество между странами поможет разрешить проблемы, связанные с трансграничным потоком данных, нормами этики и регуляторной стабильностью.

Важно учитывать тот факт, что в регламенте следует соблюдать баланс между внедрением инноваций и защитой социальных интересов. Чтобы разработать эффективный и заслуживающий доверия регламент, необходим междисциплинарный подход с привлечением разработчиков политик, экспертов ИИ, специалистов по этике и прочих заинтересованных лиц из разных отраслей.

Примечание: эта колонка была создана чат-ботом ChatGPT






Новости Новости Релизы
Сейчас на главной

ПЕРЕЙТИ НА ГЛАВНУЮ