Пока человечество пытается сообразить, как отбить сотни миллиардов долларов, инвестированных в генеративный ИИ, основанные на этой технологии инструменты уже вовсю осваивают киберпреступники. Например, они уже выяснили, что с помощью ИИ можно создавать виртуальных денежных мулов (их еще называют «дропами») — подставных лиц, на счета которых выводят награбленное. Дипфейки позволяют успешно обходить используемые финансовыми учреждениями процедуры проверки личности клиента (KYC, Know Your Customer), устраняя тем самым потребность в использовании живых сообщников. Рассказываем подробнее о том, как это работает.
Что такое KYC
Процедура KYC — принятая в финансовой сфере практика установления личности клиента, которая используется для борьбы с различной незаконной финансовой деятельностью, в частности с мошенничеством, отмыванием денег, уклонением от уплаты налогов, финансированием терроризма и так далее.
В более узком смысле под KYC часто понимают биометрические системы подтверждения личности при полностью удаленном обслуживании — то есть в условиях, когда регистрация клиента происходит исключительно онлайн, без личного контакта с сотрудниками финансовой организации.
Как правило, в рамках этой процедуры клиенту необходимо загрузить фотографии своих документов и снять селфи, зачастую с документами в руках. Также в последнее время стала популярна дополнительная мера защиты: клиента просят включить камеру смартфона и покрутить головой в разных направлениях, следуя указаниям системы.
Данный метод в некоторых случаях используется также и для подтверждения операций. Но в целом он предназначен для защиты от аутентификации с помощью статичных фотографий, которые могли быть тем или иным способом украдены. Проблема в том, что преступники уже придумали, как обходить эту защиту, — для этого они используют дипфейки.
Мошеннические ИИ-инструменты
Не так давно эксперты из стартапа Sensity, специализирующегося на распознавании дипфейков, выпустили годовой отчет, в котором описали несколько наиболее популярных среди киберпреступников способов вредоносного использования контента, сгенерированного с помощью ИИ.
В этом отсчете эксперты приводят общее количество существующих в мире ИИ-инструментов для создания контента. Всего они насчитали 10 206 инструментов для генерации изображений, 2298 инструментов для замены лица в видео и создания цифровых аватаров, а также 1018 инструментов для генерации или клонирования голоса.
Отдельно авторы отчета приводят данные о количестве специализированных утилит, которые изначально предназначены для обхода KYC: подобных инструментов они насчитали аж 47 штук. Они позволяют киберпреступникам создавать цифровых клонов, которые успешно проходят процедуру проверки личности клиента. Таким образом, пользователи инструментов получают возможность удаленно открывать счета в финансовых организациях — банках, криптообменниках, платежных системах и так далее.
В дальнейшем эти счета используются для различной преступной деятельности — в первую очередь непосредственно для финансового мошенничества, а также отмывания доходов, полученных от каких-либо нелегальных операций.
Магазин цифровых клонов
Также недавно журналисты из издания 404 Media рассказали о подпольном сайте, торгующем фотографиями и видеозаписями людей, которые предназначены для обхода KYC. По словам журналистов, торговцы цифровыми двойниками собирают целые коллекции подобного контента. Они находят добровольцев в неблагополучных странах и платят им сравнительно небольшие деньги ($5–20) за съемку.
Далее полученный контент продается всем желающим. Коллекции достаточно обширны и включают людей разного возраста, пола и расы. Стоят услуги сайта достаточно недорого: к примеру, журналисты приобрели один из наборов всего за $30. В наборы входят фото и видео в разной одежде, а также снимки с белой карточкой и пустым листом бумаги в руках, которые можно заменить на ID или как-то иной документ.
Все чрезвычайно клиентоориентированно. На сайте есть отзывы благодарных покупателей и даже предусмотрена специальная отметка для тех фото и видео, которые были куплены наименьшее количество раз. Такие «свежие клоны» с повышенной вероятностью позволят успешно пройти проверки антифрод-систем.
Помимо готовых цифровых личностей, администраторы сайта предлагают эксклюзивные наборы контента, созданные персонально под покупателя — по запросу и, вероятно, за более серьезные деньги.
Поддельные документы, сгенерированные ИИ
Также журналисты того же издания обнаружили еще один сайт, который специализируется на продаже реалистично выглядящих фотографий фальшивых документов, изготовленных с помощью ИИ.
По словам эксперта из компании, которая занимается борьбой с подобным мошенничеством, некоторые сервисы такого рода продают полностью готовые к использованию наборы, в которые входят как поддельные документы, так и фото и видео их фейковых обладателей.
Таким образом, ИИ-инструменты и подобные коллекции контента значительно облегчают задачу для мошенников. Еще несколько лет назад денежные мулы — то есть живые люди, которые непосредственно взаимодействуют с грязными деньгами, открывая счета и делая переводы или снятия наличных — были самым слабым звеном в преступных операциях.
Теперь необходимость в «физических» мулах быстро снижается. Преступникам больше не требуется взаимодействовать с ненадежными и уязвимыми для правоохранительных органов «кожаными мешками». Достаточно завести для тех же целей некоторое количество цифровых клонов — и работать с теми финансовыми сервисами, которые позволяют открывать счета и проводить операции полностью удаленно.
ИИ что в итоге?
Вероятно, в перспективе такая простота обхода текущих процедур KYC приведет к двум последствиям. С одной стороны, финансовые организации будут вводить дополнительные механизмы проверки фото и видео, предоставленных удаленными клиентами, которые основаны на обнаружении признаков ИИ-подделок.
С другой стороны, регуляторы, вероятно, будут ужесточать требования к полностью удаленным финансовым операциям. Так что вовсе не исключено, что простота и удобство онлайн-финансов, к которым мы уже успели привыкнуть, будут поставлены под угрозу искусственным интеллектом.
Увы, проблема на самом деле даже шире. Как отмечают эксперты, повсеместная доступность ИИ-инструментов для генерации фото-, видео- и аудиоконтента в принципе подрывает доверие к цифровому взаимодействию людей. Чем более качественными становятся творения ИИ, тем сложнее становится верить тому, что мы видим на экране смартфона или компьютера.