Випередження кібератаків на керовані AI: стратегії для сучасних захисників

Випередження кібератаків на керовані AI: стратегії для сучасних захисників

Кібербезпека сьогодні стоїть на захоплюючому перехресті, з штучним інтелектом (AI) революціонізує поле, діючи як потужний союзник, так і грізний противник. Такі інструменти, як Copilot та Deepseek AI, можуть принести користь організаціям, але вони також дають можливість кіберзлочинці розпочати більш досконалі та невловимі напади.

Очікується, що австралійські організації витратить майже 6,2 мільярда доларів на продукти та послуги з управління інформацією та послуги з управління ризиками у 2025 році, що на 14,4% порівняно з 2024 року (Gartner) – чітка ознака критичної важливості кібербезпеки у захисті цифрових активів та підтримці безперервності бізнесу у все більш цифровому світі.

Річард Аддіскотт з Gartner зазначає, що “AI суттєво вплине на стратегії безпеки, вимагаючи, щоб лідери адаптувались до загроз, що розвиваються, талантів та регуляторних проблем”. Таким чином, лідери безпеки повинні розуміти роль AI у ландшафті загрози розробити розумні, адаптаційні стратегії та залишатися попереду складних атак.

Розуміння нападів ідентичності та ролі хмари

Інструменти AI не лише дозволяють зловмисникам створювати шкідливий код, але й прискорити весь їхній процес нападу. Зловмисники тепер можуть збирати інформацію з автоматизованою розвідкою та обхідними захисними заходами набагато швидше, ніж раніше. Це очевидно в атаках ідентичності та транскордонних ризиках AI.

Дослідження Push Security підкреслює новий метод обхідного контролю автентифікації ідентичності-перехресного представлення. Цей метод дозволяє зловмисникам експлуатувати програми SAAS та постачальників ідентичності (ВПО), представляючи себе користувачами без запуску сповіщення про безпеку.

Це питання особливо поширене в хмарних середовищах, де зловмисники можуть імітувати домени, обхід багатофакторної автентифікації (MFA) та доступу до чутливих систем. Ці напади є неймовірно складними для виявлення, з традиційними та навіть сучасними інструментами безпеки CNAP, які часто не змогли забрати організації, що не знають, що сталося порушення.

Це підкреслює необхідність надійних систем управління ідентичністю та доступом, особливо для хмарних організацій. Як захисники, ми повинні залишатися пильними та постійно переоцінювати наш контроль безпеки для вирішення виникаючих загроз. Чим більше хмарна компанія, тим більший ризик, що робить важливим для постійного адаптації та зміцнення заходів безпеки.

Зростаюча стурбованість транскордонних ризиків AI

Інші лідери з питань повинні бути обізнані,-це ризики, пов'язані з транскордонними даними та використанням інструментів AI. Оскільки генеративний AI (Genai) інтегрується в бізнес -операції, занепокоєння щодо порушення даних та збалансування регуляторних вимог та етичного використання зростає.

Уряди, особливо в ЄС, розробляють правила AI, при цьому інші країни, такі як США, Австралія та Нова Зеландія, можуть дотримуватися. Завдання полягає в управлінні юрисдикцією та проживанням даних, оскільки інструменти AI часто працюють через кордони без чітких меж.

Організації потребують контролю, таких як маскування даних та політика, які захищають дані у правильних регіонах. Однак лише положення не вирішать цю проблему. Освіта та обізнаність мають важливе значення для забезпечення безпечного управління цими інструментами організаціями та їх працівниками.

Підйом тіні AI і що це означає для організацій

Подібно, піднесення інструментів Genai, таких як DeepSeek AI, також представляє унікальний виклик “Shadow AI”. Багато компаній стикаються з тим, як ефективно керувати цими інструментами, враховуючи ризики, які вони створюють. Незважаючи на те, що заборона цих інструментів відверто може здатися рішенням, це часто призводить до їх використання “тіньової АІ” без відома організації.

Ми бачили цю гру в Австралії, де інструменти Genai спонукали переосмислення безпечного та етичного використання. Завдання полягає не лише в самій технології, а в тому, як люди її користуються. Лідери безпеки та бізнесу повинні навчати персоналу щодо вигод та ризиків Genai, подібно до того, як в минулому наближалися до освіти про фішинг – люди повинні бути обізнані про ризики та як їх відповідально використовувати, а не просто видавати заборону ковдри.

Крім обізнаності, організації повинні проявляти активність у розробці безпечних рамок AI для забезпечення захисту даних, утримання та безпечного обміну.

Розуміння ландшафту загрози: що потрібно знати CISO

Враховуючи зростання атак, що працюють на AI, важливо для головних співробітників інформаційної безпеки (CISO) відповідно адаптувати свої стратегії. Ключовим фактором захисту від цих загроз є розуміння того, як діють зловмисники. AI – це просто ще один інструмент, який зловмисники використовують для прискорення своїх зусиль. Якщо ваш середній час до виправлення (MTTR) все ще сидить у дні, у вас є проблема.

Реальність полягає в тому, що зловмисники все ще після одного і того ж – дані чи зриви. AI не змінює свою мету – це просто наближає ворота. Визначення загроз рано та зупинення їх до того, як вони завдають шкоди, ставить вас у найсильнішу позицію, щоб захистити лінію цілей.

Один з найкращих способів випередити ці загрози – це зосередження уваги на ранньому виявленні. Постійне тестування середовища безпеки є потужною відправною точкою – будь то через сканування вразливості, червоне об'єднання чи імітовані атаки. Йдеться про виявлення векторів атаки та закриття їх якомога швидше. Чим швидше ви закриваєте шляхи атаки, тим краще покращиться ваша безпека.

Майбутнє ШІ в кібербезпеці: автоматизація та етичні міркування

Автоматизація, орієнтована на AI, все частіше посилить виявлення та реагування загрози, але багато організацій вагаються повністю прийняти його через занепокоєння щодо помилок та перебоїв. Автоматизовані відповіді можуть бути потужними, але ризик припинення бізнес-критичних процесів або викликаючи помилкові позитиви.

Genai має неймовірний потенціал для вдосконалення прийняття рішень, і коли AI стає більш досконалим, автоматизовані відповіді на загрозу будуть надійнішими. Але побудова довіри до систем AI та забезпечення того, що вони не порушують основні ділові операції, потребує часу, і ми повинні здійснити.

Безперечно, перетин AI та кібербезпеки переробляє стратегії оборони, що пропонує як можливості, так і ризики. Орієнтуючись на освіту, співпрацю, постійному тестуванні та ранньому виявленні, організації можуть зміцнити захисні сили проти ландшафту, що розвивається.