Співбесіда Перш ніж AI стане звичним явищем у підприємствах, корпоративні лідери повинні взяти на себе постійний режим тестування безпеки, налаштований на нюанси моделей AI.
Це вид генерального директора Chatterbox Labs Денні Коулмена та CTO Stuart Battersby, який розмовляв Реєстр Звернувшись про те, чому компанії повільно переходять від пілотних тестів AI до виробничого розгортання.
“Прийняття підприємств сьогодні лише на 10 відсотків”, – сказав Коулман. “МакКінсі каже, що це ринок чотирьох трильйонів доларів. Як ти насправді коли -небудь збираєшся рухатись цим, якщо ти продовжуєш випускати речі, які люди не знають, безпечно використовувати, або вони навіть не знають не лише впливу підприємства, а суспільний вплив?”
Він додав: “Люди на підприємстві, вони не зовсім готові до цієї технології, не керуючи її та безпекою”.
У січні консалтингова фірма McKinsey опублікувала звіт, що вивчає нереалізований потенціал штучного інтелекту (AI) на робочому місці.
У звіті “Суперагенція на робочому місці: надання можливості людям розблокувати повний потенціал AI”, виявив зростаючий інтерес та інвестиції в технологію ШІ, але повільне прийняття.
… Що вам потрібно зробити, це не довіряти риториці ні постачальника моделі, ні постачальнику Guardrail, тому що всі скажуть вам, що це дуже безпечно та безпечно.
“Лідери хочуть збільшити інвестиції в АІ та прискорити розвиток, але вони борються з тим, як зробити AI безпечним на робочому місці”, – йдеться у звіті.
Коулман стверджує, що традиційна кібербезпека та безпека AI стикаються, але більшість команд Infosec не наздогнали, не маючи передумови, щоб зрозуміти унікальні атаки AI. Він вказав на придбання Cisco надійного інтелекту та придбання Palo Alto Networks Protect AI як прикладів деяких гравців, які застосували правильний підхід.
Баттерсбі сказав, що ключовим для організацій, які хочуть розгорнути AI в масштабі, є прийняття режиму безперервного тестування на основі того, що насправді робить послуга AI.
“Отже, перше – подумати про те, що є безпечним та безпечним для вашого використання”, – пояснив він. “І тоді те, що вам потрібно зробити, – це не довіряти риториці ні постачальника моделі, ні постачальнику Guardrail, тому що всі скажуть вам, що це дуже безпечно і безпечно”.
Це критично, стверджує Баттерсбі, оскільки навіть уповноважені користувачі системи AI можуть змусити її пошкодити речі.
“Те, що ми намагаємося перейти до вас, – це те, що фільтри безпеки вмісту, огородження недостатньо хороші”, – сказав Коулман. “І це не зміниться найближчим часом. Це повинно бути набагато більш шаруватим”.
Незважаючи на те, що це може спричинити певну вартість, Баттерсбі стверджує, що постійне тестування може допомогти знизити витрати – наприклад, показавши, що менші, більш доступні моделі настільки ж безпечні для конкретних випадків використання.
Повне інтерв'ю випливає…