Чи є успішні афери DeepFake більш поширені, ніж ми усвідомлюємо?

Чи є успішні афери DeepFake більш поширені, ніж ми усвідомлюємо?

Багато разів на день у всьому світі, начальник просить одного з членів своєї команди виконати завдання під час відеодзвінка. Але чи людина, яка насправді присвоює завдання, хто вони кажуть? Або це Deepfake? Замість того, щоб сліпо виконувати замовлення, працівники повинні зараз запитати себе, чи стають вони жертвами шахрайства.

На початку цього року фінансовий працівник опинився, розмовляючи на відео -зустрічі з тим, хто виглядав і звучав так само, як їхній фінансовий директор. Після закінчення зустрічі вони тоді покірно дотримувались вказівок свого начальника, щоб надіслати 200 мільйонів доларів на гонконгські долари, що становить 25 мільйонів доларів.

Але насправді це не був їхній начальник – просто представлення відео AI під назвою Deepfake. Пізніше того ж дня працівник зрозумів свою жахливу помилку після перевірки з корпоративними офісами своєї багатонаціональної фірми. Вони стали жертвою схеми Deepfake, яка обдурила організацію з 25 мільйонів доларів.

Підприємства часто є цілями Deepfake

Термін DeEpFake відноситься до створеного AI вмістом-відео, зображення, аудіо або текст-що містить помилкову або змінену інформацію, наприклад Тейлор Свіфт, що сприяє посуду і сумнозвісний фальшивий Том Круз. Навіть нещодавні урагани, що потрапили до США, призвели до декількох зображень Deepfake, включаючи фальшиві заточені фотографії Діснея та серцебиті AI-генерації фотографій людей зі своїми домашніми тваринами в повені.

У той час як Deepfakes, які також називаються синтетичними ЗМІ, націлені на людей, які зазвичай служать для маніпулювання людьми, кіберзлочинці, орієнтовані на бізнес, шукають грошові вигоди. Відповідно до контекстування загроз DeepFake для інформаційного аркуша організацій, загрози, спрямовані на підприємства, як правило, потрапляють до однієї з трьох категорій: представлення виконавців за маніпулювання брендом, видання за фінансову вигоду або видання для отримання себе.

Але нещодавній інцидент у Гонконзі не був лише одним працівником, який помилявся. Схеми DeelFake стають все більш поширеними для бізнесу. Нещодавнє опитування MEDUS показало, що більшість (53%) фахівців з фінансів були націлені на спроби схем DeelFake. Ще більше стосується того, що понад 43% визнали, що в кінцевому підсумку стали жертвою нападу.

Дивіться, як розкручуйте Deepfake

Чи недооцінені атаки DeepFake?

Ключове слово з досліджень Medus – “визнано”. І це викликає велике питання. Чи не в змозі люди не повідомляти про те, щоб стати жертвою нападу Deepfake, оскільки вони збентежені? Відповідь, мабуть,. Після цього здається очевидним, що це було підробкою для інших людей. І важко визнати, що ти впав на образ, що генерується AI. Але недооцінка лише додає сорому і полегшує кіберзлочинцям уникати цього.

Більшість людей припускають, що вони можуть помітити Deepfake. Але це не так. Центр людей та машин та віросповідання знайшли широкий розрив між впевненістю людей у ​​виявленні заглибленої та фактичної роботи. Оскільки багато людей переоцінюють свою здатність ідентифікувати заглиблену, це додає сорому, коли хтось стає жертвою, що, ймовірно, призводить до недооцінки.

Чому люди падають на схеми DeepFake

Співробітник, який був обдурований Deepfake фінансового директора на суму 25 мільйонів доларів пізніше, зізнався, що коли вони вперше отримали електронний лист із його фінансового директора, згадка про таємну транзакцію змусила їх замислюватися, чи електронний лист насправді є фішингом. Але як тільки він потрапив на відео, вони впізнали інших членів його відділу у відео і вирішили, що це справжнє. Однак пізніше працівник дізнався, що відеозображення членів його департаменту також були заглибленими.

Багато людей, які є жертвами, не помічають своїх проблем, питань та сумнівів. Але що змушує людей, навіть тих, хто навчався на Deepfakes, підштовхує свої занепокоєння на бік і вирішить повірити, що образ справжній? Це 1 мільйон доларів – або 25 мільйонів доларів – питання, на яке нам потрібно відповісти, щоб запобігти дорогим та пошкодженню схем Deepfake в майбутньому.

Журнали Sage задали питання про те, хто, швидше за все, потрапить на Deepfakes, і не знайшов жодної картини близько віку чи статі. Однак люди похилого віку можуть бути більш вразливими до схеми і важко виявити її. Крім того, дослідники виявили, що, хоча усвідомлення є хорошою відправною точкою, схоже, вона має обмежену ефективність у запобіганні людей падати на Deepfakes.

Однак обчислювальний нейрознавець Tijl Grootswagers із Університету Західного Сіднея, ймовірно, потрапив у цвях по голові щодо виклику виявити депозитну вигадку: це абсолютно нова майстерність для кожного з нас. Ми навчилися скептично ставитися до новин та упередженості, але ставити під сумнів справжність образу, який ми бачимо, суперечить нашим мисленнєвим процесам. Grootswagers сказав науковому журналі: «У нашому житті ми ніколи не повинні думати про те, хто є справжньою чи фальшивою людиною. Це не завдання, на яке ми навчали ».

Цікаво, що Grootswagers виявив, що наші мозки краще виявляють без нашого втручання. Він виявив, що коли люди дивилися на картину Deepfake, зображення призвело до іншого електричного сигналу на зорову кору мозку, ніж законне зображення чи відео. На запитання чому він не був впевнений – можливо, сигнал ніколи не досяг нашого свідомості через втручання інших регіонів мозку, а може, люди не визнають сигналів про те, що зображення є фальшивим, оскільки це нове завдання.

Це означає, що кожен з нас повинен почати навчати наш мозок вважати, що будь -яке зображення чи відео, яке ми бачимо, можливо, може бути заглибленою. Задаючи це питання кожен раз, коли ми починаємо діяти на зміст, ми можемо почати виявляти наші мозкові сигнали, які помічають підробки, перш ніж ми зможемо. І найголовніше, якщо ми станемо жертвою Deepfake, особливо на роботі, це ключове, що кожен з нас повідомляє про всі випадки. Тільки тоді можуть експерти та влада почати стримувати створення та розповсюдження.