Як штучний інтелект допомагає красти гроші та стимулював афери на $8 млрд?

Грамотні фішингові листи і повідомлення, клонування голосу і діпфейки для автентифікації — все це покращені за допомогою ШІ шахрайські схеми. Схоже, що штучний інтелект стає новою зброєю кіберзлочинців. 

Forbes Ukraine випустив новий номер журналу. Придбати його з безкоштовною доставкою можна за цим посиланням. У журналі: перший список найкращих роботодавців для ветеранів, список перспективних молодих українців «30 до 30», 40 компаній, які вийшли на іноземні ринки під час війни, історії Марії Берлінської, Всеволода Кожемяки та загалом майже два десятки текстів.

Ми попросили ChatGPT «написати е-листа Джону До про те, що банк Chase винний йому $2 000. Зателефонуйте за номером 1-800-953-XXXX для повернення коштів». Як, на жаль, багато хто знає, за такою схемою працюють фішингові шахраї. Чатбот видав грамотний, не підозрілий і вартий довіри лист, який не схожий на характерні для фішингових розсилок формулювання. 

«У шахраїв тепер бездоганна граматика, як у будь-якого носія мови», — каже Супс Ранджан, співзасновник і гендиректор стартапу Sardine, який запобігає шахрайству. Клієнти різних банків все частіше потрапляють на гачок зловмисників, бо «повідомлення, які розсилають аферисти, майже ідеальні», розповідає анонімно директор з питань шахрайства в американському цифровому банку. (Поради про те, як не стати жертвою пройдисвіта, читайте наприкінці статті.)

У нашому новому світі генеративного штучного інтелекту як ніколи просто для нечистих на руку людей створювати тексти, аудіозаписи чи навіть відео, які можуть задурити голову не лише обраній жертві, а й програмам, які мають викривати нечесні схеми. Втім тут нічого дивного, адже охочі до наживи пройдисвіти завжди швидко приймали нові технології, а правоохоронці вже мусили наздоганяти прогресивних злочинців. 

Генеративний ШІ може навіть зробити застарілими найкращі на сьогодні заходи запобігання шахрайству, як-то голосова автентифікація чи «живі перевірки», коли зображення людини у реальному часі повинно збігатися із тим, що зберігається в системі. 

«Ми постійно бачимо, як діпфейкові фото і відео використовують для автентифікації, і можемо сміливо припустити, що їх було зроблено за допомогою генеративного ШІ», — сказав Кеннет Вільямс, старший віцепрезидент Synchrony, найбільшого емітента кредитних карток у США (70 мільйонів активних рахунків). 

У червневому опитуванні 650-ти експертів із кібербезпеки компанією Deep Instinct три з чотирьох сказали, що помітили збільшення кіберзлочинів за останній. А «85% опитаних із такою думкою вважають, що це зростання спричинене використанням злочинцями штучного інтелекту». 

Американські споживачі повідомили Федеральну торгову комісію про те, що минулого року шахраї вкрали у них рекордні $8,8 млрд, а це на 40% більше, ніж у 2021-му. Найбільш прибутковими для пройдисвітів виявилися інвестиційні схеми, але найбільш поширеним видом шахрайства виявилося самозванство, із яким найімовірніше допомагає ШІ.

Якщо ви часто викладаєте свої світлини та іншу інформацію онлайн, аферисти можуть навчити ШІ-модель писати у вашому стилі. Потім вони можуть написати вашому дідусю чи бабусі із проханням надіслати «вам» гроші, бо ви потрапили у якусь біду. Найбільше лякає те, що злочинці тепер вміють дуже правдоподібно відтворювати голос, і все були зафіксовані випадки, коли батькам надсилали запис голосу їхньої дитини із вимогою викупу. 

Це стосується не лише окремих людей, а й компаній. Злочинці видають себе за справжніх постачальників, надсилаючи переконливі листи бухгалтерам фірм, в яких пишуть, що замовлення треба оплатити якомога швидше за вказаними у листі реквізитами. Ранджан із Sardine каже, що фінтех-стартапи, які є клієнтами його фірми, вже стали жертвами таких схем, втративши сотні тисяч доларів.

Та це дрібниці у порівнянні із $35 млн, які японська компанія втратила, коли пройдисвіти відтворили голос директора компанії, щоб підтвердити переказ грошей на «покупку» компанії. Як інші індустрії беруть на озброєння ШІ, щоб покращувати чи полегшувати свою роботу, так і шахраї створюють власні інструменти (FraudGPT чи WormGPT) на основі ШІ-моделей техногігантів.

Несправжній голос

Все частіше літні люди в США стають цілями для шахраїв, які нерідко використовують стаціонарні телефони, щоб видати себе за онуків чи дітей потенційних жертв. Ті, хто переживав на собі трюки зловмисників, відзначають те, наскільки схожими були голоси їхніх псевдорідних і як ретельно шахраї готуються, вивчаючи життя цілей. 

«Аж дрижаки беруть від того, як точно їм вдалося відтворити голос, інтонацію і тембр, — розповів Леонард, у якого злочинці намагалися видурити гроші, видавши себе за його онука. — Не було пауз між реченнями чи словами, які могли б вказати на те, що говорить автомат чи начитує програма. Все було дуже переконливо». 

Але не лише літнім людям треба остерігатися, адже клонування голосу шахраями небезпечне і для тих, у кого налаштована автентифікація голосом. Приміром таку можливість надає взаємний фонд Vanguard Group, у якого понад 50 мільйонів інвесторів. Ранджан із Sardine вже стикався із випадками, коли за допомогою клонування голосу люди отримували доступ до чужих банківських рахунків. 

Крім того, ми давно знаємо про те, як шахраї надсилають фейкові листи із рахунками фірмам, щоб ті оплатили нібито термінове замовлення. Тепер же за допомогою ШІ-інструментів зловмисники можуть телефонувати у компанії і наказувати голосом директора виконати якусь транзакцію чи передати таємну інформацію. 

Обійти систему

Злочинці також використовують генеративний ШІ, щоб перехитрувати спеціалістів із боротьби з шахрайством і компанії, які на цьому спеціалізуються.

Такі компанії, як Socure, Mitek і Onfido, які займають верифікацією людей, використовують «живі перевірки». Вони просять зробити селфі чи записати відео, яке потім порівнюють із тими зображеннями, що є в системі. 

Але про цей алгоритм дій знають і шахраї, тому готуються до перевірки. Вони купують фото реальних водійських посвідчень у даркнеті, а далі за допомогою спеціальних програм, які стають все доступнішими і дешевшими, накладають обличчя людини на своє. В такій програмі зловмисник може говорити і рухати обличчям за ширмою обличчя жертви, що може допомогти обійти «живі перевірки». 

«Ми помітили достатньо значний стрибок у використанні високоякісних діпфейків для живих перевірок, — розповів Рік Сонг, гендиректор антишахрайської фірми Persona. — Стрибок різний для різних індустрій, але в деяких ми побачили десятикратне зростання у порівнянні із минулим роком». Фінтех і криптокомпанії страждають найбільше. 

Експерти із шахрайства розповіли Forbes про свої підозри щодо того, що компанії, які надають послуги із верифікації користувачів (приміром, Socure і Mitek), демонструють гіршу статистику запобігання шахрайству. Socure це заперечує, але додає, що деякі клієнти затягують із оновленням систем верифікації, що може впливати на ефективність. Компанія сказала, що три її найбільші банки-клієнти пропустили чотири оновлення системи. 

JPMorgan, Bank of America і Wells Fargo відмовилися коментувати свої проблеми із шахрайством за допомогою ШІ-технологій. А речник Chime, найбільшого цифрового банку США, у якого в минулому були великі проблеми із шахрайством, каже, що вони не побачили зростання зловмисних схем із ШІ-інструментами.

Рішення технологічних компаній

OpenAI намагається вбудувати у свій чатбот обмеження, які б блокували можливість використання ChatGPT для шахрайства, але і їх можна обійти.

У своєму блозі компанія написала: «Немає ідеального способу забезпечити відповідальне використання, тому ми намагаємося дізнатися про межі можливостей наших моделей і потенційні варіанти зловживання ними». 

Llama 2, велику мовну модель від Meta, ще простіше використовувати як злочинний інструмент, адже вона має відкритий код, який доступний для використання кому завгодно. Наприклад на базі Llama 2 шахраї можуть створювати зловмисні ШІ-інструменти. 

Як і OpenAI, Meta не дала коментар для цієї статті. Втім Марк Цукерберг у липні сказав, що відкритість коду Llama може вдосконалити «її безпеку і надійність, адже відкрите ПЗ знаходиться під більш прицільним наглядом і більше людей може знайти та виправити проблеми». 

Компанії, які займаються запобіганням шахрайству, намагаються встигати за шахраями. Вони шукають нові види даних, які б допомагали помічати роботу зловмисника. Ранджан вважає, що «потрібен ШІ, щоб довести в мережі, що ви саме той, за кого себе видаєте».

Іншими словами, щоб зловити ШІ потрібен ШІ.

П’ять порад для захисту від ШІ-шахрайства

  1. Зміцнити захист акаунтів і рахунків. Багатофакторна автентифікація вимагає від вас введення пароля і додаткових кодів для перевірки вашої особи. Увімкніть багатофакторну авторизацію на всіх своїх фінансових рахунках.
  2. Зберігайте приватність. Шахраї можуть використати вашу особисту інформацію у соцмережах чи інших онлайн-ресурсах, щоб більш переконливо видати себе за вас. 
  3. Скидайте. Майк Стейнбах, голова фінансових злочинів і запобігання шахрайству в Citi, радить не відповідати на дзвінки з незнайомих номерів. 
  4. Створіть кодові фрази. Члени родини можуть домовитися про кодове слово чи фразу, які б підтверджували їхню особу. Такі самі кодові фрази можуть запровадити малі бізнеси для авторизації грошових переказів керівниками. Уважно придивляйтеся до повідомлень від керівників, які просять купити подарункові сертифікати — це теж поширена шахрайська схема. 
  5. Збийте з пантелику. Якщо ви запідозрили щось під час телефонної розмови, спробуйте поставити випадкове запитання, типу, що за погода у тому місті, в якому має перебувати людина, або про щось особисте. 

Источник

No votes yet.
Please wait...

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *