ИИ в банкинге: борьба с мошенничеством и гендерная дискриминация

Интеллектуальные системы используют 75% банков с активами более $100 млрд и 46% банков с активами менее $100 млрд

Фото: iStock

Совокупный ущерб от мошенничества с банковскими картами в 2019 году составил $28,6 млрд, что на 2,9% больше, чем годом ранее ($27,8 млрд). Такие данные приводит компания Nilson Report, изучающая рынок безналичных платежей. Эта цифра не включает миллиардные убытки от преступлений, связанных с платежами по QR-кодам и переводами между банковскими счетами. Кроме того, в ней не учтены затраты продавцов, банков-эмитентов и банков-эквайеров на обработку обращений и расследование преступлений. В качестве инструмента борьбы с финансовыми преступлениями все чаще используют искусственный интеллект (ИИ). Но важно понимать, что применение подобных технологий может быть сопряжено с некоторыми этическими проблемами.

Эксперты Nilson Report отмечают, что самые серьезные убытки от банковского мошенничества несут жители США: в 2019 году они потеряли $9,6 млрд. В Великобритании жертвы санкционированного банковского мошенничества, добровольно переводившие деньги злоумышленникам, в 2020 году лишились £479 млн ($677 млн). Это на 5% больше, чем годом ранее. Рост потерь, как подсчитали в UK Finance, объединении представителей банковского и финансового сектора, отчасти связан с пандемией. Преступники обманывали жертв с помощью писем, в которых содержались поддельные ссылки на сайты о вакцинации или на штрафы за нарушение правил изоляции.

В России, по данным Центрального банка, за первые девять месяцев 2020 года клиенты банков из-за мошеннических действий потеряли около 6,5 млрд рублей. Для сравнения, сумма потерь за весь 2019 год оценивается в 5,7 млрд рублей. Чаще всего нарушители выманивали персональные данные с помощью психологических методов убеждения, обмана, запугивания.

С финансовыми преступлениями, включая взяточничество, коррупцию, незаконное присвоение средств, мошенничество с финансовой отчетностью и закупками, сталкиваются и юридические лица. За последние два года от подобных действий пострадали 47% компаний. Совокупный ущерб бизнеса оценивается в $42 млрд. В частности, около 13% заявивших о случаях мошенничества сообщили о потерях в размере от $50 млн, а 43% — в размере от $100 млн. На это указывают результаты опроса аудиторской компании PwC, проведенного среди представителей 5 тыс. организаций по всему миру.

Почему традиционные системы мониторинга устарели и как помогает ИИ

Традиционные системы отслеживания транзакций предусматривают проверку действий клиентов на предмет соответствия заранее заданному набору строгих правил. Если фиксируется отклонение от правил, операция автоматически идентифицируется как подозрительная, после чего специалист должен проверить ее вручную. Однако единообразное применение правил ко всем ситуациям увеличивает риск ложноположительных предупреждений. В таких случаях обычные действия клиентов, например использование карты за границей, принимаются за мошеннические. Доля таких операций, по оценкам экспертов, может составлять от 95% до 99%, то есть только от 1% до 5% подозрительных транзакций действительно являются таковыми.

Технологии ИИ, включая методы машинного обучения, помогают решить эти проблемы. Например, команда сотрудников одного из крупнейших нидерландских банков ABN AMRO разработала инструмент на основе неконтролируемого машинного обучения (англ. — Unsupervised Machine Learning). Он позволяет обнаруживать аномалии, или так называемые выбросы, — операции, проведение которых отличается от обычного сценария. Это значительно сокращает количество ложноположительных предупреждений и помогает успешно предотвращать случаи мошенничества. «Мы видим закономерности и факты, которых раньше не замечали», — говорит руководитель команды Малоу ван ден Берг.

По словам аналитика банка для предпринимателей и предприятий «Точка» Андрея Румянцева, даже не очень мощные системы на базе ИИ помогают быстро и массово проверять транзакции. «Да, он [ИИ] может ошибаться чаще, чем человек, но зато сильно выигрывает в объемах обрабатываемой информации, — пояснил специалист Plus‑one.ru. — Кроме того, ИИ способен находить сложные взаимосвязи, которые указывают на финансовые преступления, в то время как человек может их упустить. Наш банк очень давно занимается внедрением и развитием таких технологий, и сейчас они занимают существенную роль в принятии решений по данным вопросам».

Борьба с мошенничеством — не единственная сфера применения ИИ. У того же ABN AMRO также есть приложение Grip, которое позволяет клиентам следить за своими доходами и расходами и лучше планировать бюджет. Первый в России банк в мессенджерах TalkBank, как рассказал Plus‑one.ru его основатель Михаил Попов, активно использует технологии ИИ для распознавания лиц и документов. Алгоритмы также применяются для борьбы с мошенничеством: они анализируют поведенческие характеристики клиентов — то, как они общаются в чат-ботах, какие операции совершают.

В отчете исследовательского подразделения финансового холдинга UBS (UBS Evidence Lab) говорится, что сейчас инструменты на базе ИИ используют по меньшей мере 75% банков с активами более $100 млрд и 46% банков с активами менее $100 млрд. На основе ИИ работают чат-боты и голосовые помощники, которых контролируют сотрудники фронт-офиса, отвечающего за взаимодействие с клиентами. В мидл-офисе, который занимается обработкой клиентских операций, эти технологии используются для управления рисками, в том числе для борьбы с мошенничеством и отмыванием денег. Алгоритмы также помогают компаниям работать в соответствии с принципом «Знай своего клиента» (англ. — Know Your Customer, KYC), который предусматривает проверку контрагентов перед проведением финансовых операций. Это позволяет предотвращать взяточничество, коррупцию, финансирование терроризма, а также помогает снизить риски для самой финансовой компании.

Как ИИ дискриминирует клиентов банков и что можно с этим сделать

Фото: iStock

Между тем алгоритмы могут предвзято относиться к людям определенного пола, этнической и религиозной принадлежности. Так, в 2019 году выяснилось, что алгоритмы сервиса Apple Card (виртуальная кредитная карта, выпущенная корпорацией Apple в партнерстве с финансовым конгломератом Goldman Sachs) устанавливали разный кредитный лимит для мужчин и для женщин. Впервые об этом сообщил датский программист, создатель фреймфорка для веб-приложений Ruby on Rails Дэвид Хайнемайер Ханссон. На своей странице в Twitter он написал, что кредитный лимит его жены был в 20 раз меньше, чем у него, несмотря на то, что они подавали совместные налоговые декларации. Позднее о такой же проблеме заявил один из соучредителей Apple Стив Возняк. Разница между его кредитным лимитом и лимитом его жены была 10-кратной, хотя у нее не было отдельных банковских счетов или активов. В Goldman Sachs заявили, что максимальная сумма займа определяется в зависимости от дохода и кредитоспособности клиента, а не в зависимости от гендерной принадлежности.

В ситуации начал разбираться департамент финансовых услуг штата Нью-Йорк (New York State Department of Financial Services, NYSDFS). Специалисты проанализировали данные почти 400 тыс. подавших заявки на кредит ньюйоркцев и узнали, что на самом деле алгоритмы Goldman Sachs не дискриминируют их по признаку пола: лимит, согласно их заключению, действительно зависит от кредитной истории и суммы невыплаченного долга. Тем не менее в NYSDFS раскритиковали реакцию партнера Apple на жалобы клиентов. Технически банки должны раскрывать свою кредитную политику только тогда, когда они отказывают кому-либо в займе. Однако во избежание путаницы в Goldman Sachs могли бы сделать исключение для пользователей Apple Card, считают эксперты.

По словам Михаила Попова из TalkBank, вероятность одобрения кредита и его размер действительно может зависеть от социально-демографических характеристик, которые влияют на скоринговый балл (платежеспособность заемщика, выраженная в цифрах. — Прим. Plus‑one.ru). Но это, по словам эксперта, связано не с неправильным использованием ИИ, а с политиками банков, в основе большинства из которых лежат исторические данные. «Риск-менеджеры, которые занимаются построением рисковых моделей, в значительной степени объективны, и, как правило, в их работе нет вольных решений», — рассказывает эксперт. Он добавляет, что значения коэффициентов, связанные с тем или иным фактором, определяются статистически на больших объемах данных. В редких случаях банки могут намеренно ухудшить эти параметры, чтобы уменьшить количество выдаваемых продуктов. «Если банк или другое учреждение планирует сокращать выдачу продуктов, например страховых полисов или кредитов, то он ужесточает рисковую политику и превентивно начинает требовать более высокие скоринговые баллы, — комментирует Михаил Попов. — Для некоторых групп людей, которым раньше хватало баллов, продукт может стать недоступен, и они могут подумать, что их дискриминируют. Но на самом деле здесь нет ничего личного — это исключительно математика».

Предвзятость инструментов на основе ИИ, используемых в финансовой сфере, может быть обусловлена несколькими причинами, объясняют в консалтинговой компании Deloitte. Во-первых, многое зависит от качества входных данных. Алгоритмы могут обучаться на данных о ранее принятых банком решениях, которые были необъективными и дискриминирующими. Во-вторых, на ИИ влияют взгляды и убеждения разработчиков: если они предвзято относятся к определенным категориям людей, то это отражается на результатах работы моделей. Еще одна проблема заключается в том, что регулирующим органам не хватает технических знаний и ресурсов для проверки результатов работы подобных инструментов и фиксации нарушений.

Михаил Попов соглашается с тем, что ошибки в работе ИИ могут возникать из-за обучения на некорректных наборах данных. «В любой модели или математической конструкции могут быть погрешности и ошибки, — говорит он. — Но это всегда можно исправить: те же нейросети можно переобучить, это все управляемо. Поэтому большого и долгосрочного риска я не вижу. Наоборот, я предполагаю, что будут появляться более объективные и гибкие модели. Они будут учитывать факторы, которые сам риск-менеджер мог не заметить».

Такого же мнения придерживается Андрей Румянцев из «Точки». «Если данных было мало или при обучении случались ошибки, то могут возникнуть ложные статистические закономерности, которые выучит ИИ, — поясняет специалист. — Поэтому важно тщательно изучить, как полученная модель себя ведет на разных данных, чтобы не допустить подобную дискриминацию».