Symantec: хакери підробляють голос гендиректорів компаній і крадуть мільйони доларів
Symantec: хакери підробляють голос гендиректорів компаній і крадуть мільйони доларів
Підробка голосів із застосуванням штучного інтелекту стала основою нової шахрайської технології для крадіжки фінансів, персональних та корпоративних даних.
Сучасні технології штучного інтелекту можуть бути використані для машинного навчання систем, які згодом можуть використовуватися для повноцінної імітації мови будь-якої людини, включаючи топ-менеджерів і навіть гендиректора будь-якої компанії.
Про це заявили представники компанії Symantec за підсумками власного розслідування низки кіберзлочинів із використанням підроблених голосів низки топ-менеджерів низки компаній. На думку аналітиків Symantec, такі системи можуть використовуватися кібершахраями для розкрадання різних активів, включаючи фінанси, корпоративну та приватну інформацію.
За За даними Symantec, технології вже використовувалися для розкрадання «мільйонів доларів». Аналітики компанії повідомили про щонайменше три випадки, коли підроблені голоси гендиректорів були застосовані для обманів глав фінансових відділів компаній з метою шахрайського виведення коштів. Назви постраждалих компаній у Symantec не назвали.
Нова кібершахрайська технологія отримала у аналітиків Symantec назву Deepfaked Audio, тобто «підробка аудіо на основі машинного навчання».
Вперше англомовний термін Deepfake, синтезований з виразів «глибинне навчання» (Deep Learning) і «підробка» (Fake), з'явився кілька років тому стосовно технології, де штучний інтелект застосовується для тренінгу систем із застосуванням реальних зображень та відео людини для синтезу підробленого відео.
Жертвами «Глибокого підроблення відео» вже неодноразово ставали багато публічних осіб і глави компаній. Одним із найгучніших скандалів стала поява в соцмережах підробленого відео з Марком Цукербергом (Mark Zuckerberg), главою Facebook. Також відомий випадок реалістичної підробки відео з виступом Барака Обами (Barack Obama), колишнього президента США.
Все, що потрібно для «тренінгу» технології «глибокого підробленого аудіо» – це «достатня кількість» аудіозаписів передбачуваної жертви, зазначають у Symantec. Далі штучний інтелект використовує аудіо для тренінгу двох так званих "генеративних змагальних мереж" (GAN). У процесі навчання дві нейромережі такого типу «конкурують» одна з одною: одна генерує підробки, інша намагається відрізнити підробку від цього зразка даних, і в процесі обидві мережі навчаються на своїх помилках.
У разі злочинів проти голів компаній джерелами аудіо для ІІ-тренінгу можуть виступати численні записи голосу у відкритому доступі – корпоративні відео, аудіозаписи квартальних конференцій для інвесторів, публічні виступи, доповіді на конференціях, презентації тощо.
За словами доктора головного технічного директора Symantec, технології моделювання та підробки голосу в даний час можуть бути дуже близькими до досконалості.
За його словами, у процесі імітації голосу кібершахраї використовують найрізноманітніші хитрощі. Наприклад, специфічні фонові шуми дозволяють замаскувати манеру вимови складів та слів у найменш переконливих місцях. Для таких цілей використовується імітація переривчастого стільникового зв'язку або фоновий шум у жвавому людному місці.
На думку фахівця за даними при ІІ-підрозділі Symantec, для виробництва дійсно якісних підробок аудіо потрібні значні тимчасові та фінансові ресурси.
«Тренінг моделей може коштувати тисячі доларів, оскільки для цього необхідні значні обчислювальні потужності. Людський слух дуже чутливий у широкому частотному діапазоні, так що на моделювання справді реалістичного звучання піде чимало часу».
З його слів, у деяких випадках на створення достатньо реалістичного голосового профілю може знадобитися лише 20 хвилин аудіозаписів. Проте, для повноцінної імітації реалістичних ритмів та живих інтонацій мовних патернів підробленого аудіо знадобиться годинник вихідних записів із гарною якістю.
На відміну від підробленого відео, технологія імітації голосу має значно більший потенціал для шахрайських махінацій. Так, на відміну від підробки відео, де «натренована модель» має замістити собою вихідне відео для підробки особи, підроблений аудіо профіль може використовуватися навіть із давно відомою технологією перетворення тексту в голос.
На думку фахівців Symantec, керівній ланці компаній, яка має доступ до розпорядження фінансами, слід серйозно проаналізувати аудіозаписи своїх виступів у публічному доступі. Відтепер зловмисники можуть отримати необхідні зразки голосу навіть у телефонній розмові або в особистій розмові.
Фінансовим відділам компаній аналітики Symantec радять переосмислити рівень загроз від кіберзлочинів із використанням підробленого аудіо, і серйозніше ставиться до захисту доступу до конфіденційних даних та фінансів компанії.
У Symantec заявили, що зараз розробляють методи аналізу аудіо, які дозволили б перевіряти телефонні дзвінки та оцінювати ймовірність їхньої справжності. Існуючі технології для запобігання кібератакам із застосуванням підробленого аудіо, на думку аналітиків компанії, поки що надто дорогі.
Одним із можливих способів вирішення проблеми у Symantec називають використання сертифікованих систем зв'язку для комунікацій між компаніями. Іншим потенційно перспективним способом є впровадження технології блокчейну для IP-телефонії з обов'язковою аутентифікацією абонента, що викликає.
Захист від підробленого аудіо не скасовує використання інших технологій захисту корпоративних даних, підкреслюють у Symantec – таких як системи фільтрації та автентифікації для електронної пошти, платіжні протоколи з багатофакторною аутентифікацією, зворотний дзвінок тощо.