Інноваційна технологія вимагає належного регулювання

Інноваційна технологія вимагає належного регулювання

Незважаючи на те, що зростання штучного інтелекту (AI) з 2000 року було надзвичайним, технологічна зміна ігор була його генеративними моделями. Якщо основні AI обробляють дані та роблять прогнози, генеративний AI (GAI) виробляє інтелектуальні системи, які створюють новий вміст. Він включає алгоритми та моделі глибокого навчання та охоплює текст, зображення, відео та інші форми даних.

Не дивно, що Гай є знахідкою для ділового світу, особливо для тих, хто хоче автоматизувати свої процеси. Це неоціненно, наприклад, для створення контенту, дизайну продуктів та розробки веб -сайтів.

innovaczijna tehnologiya vymagaye nalezhnogo regulyuvannya Інноваційна технологія вимагає належного регулювання

Відповідно до звіту Китайського інтернет -мережевого центру (CNNIC) за 2024 рік, база користувачів GAI продуктів у Китаї становила 230 мільйонів до червня минулого року. Директор CNNIC, Лю Юлін, заявив, що збільшення тяги GAI серед користувачів Інтернету суттєво вплинуло на їх повсякденне життя. Більше того, екосистема промисловості AI країни була відносно комплексною, а понад 4500 компаній, пов'язаних з нею.

Нещодавнє опитування Finastra показало, що 38 відсотків установи Гонконгу почали впроваджувати GAI. Це був найвищий показник серед усіх опитаних ринків і значно вище середнього середнього глобального – 26 відсотків.

У липні минулого року у своєму банківському звіті KPMG взагалі переглянув технологічний прогрес, підкреслюючи появу GAI. Він все частіше використовувався для таких завдань, як аналіз даних та служба працівників за допомогою складних чатів.

Хоча GAI підвищує продуктивність і розширює горизонти, він повинен працювати в межах безпечних параметрів. Для ділового світу це передбачає дотримання найкращих практик, причому гарантії точно сформульовані. Необхідна рамка, яка є ефективною, але не задушує інновації, саморегуляція галузі відіграє свою роль.

У 2022 році уряд Гонконгу SAR опублікував свій план інновацій та технологій, який визначив вісім стратегій технологічного розвитку протягом наступних 5 – 10 років. Він передбачав переміщення “повної пари до бачення міжнародного центру I&T”, яке включало побудову “безпечного кібер -середовища”. Таке середовище обов'язково включає належним чином керований AI, і це зараз стає реальністю.

15 квітня на Всесвітній Інтернет-конференції в Азіатсько-Тихоокеанському саміті (у Гонконзі) Комісар з цифрової політики Тоні Вонг Чі-Квонг підняв речі на наступний рівень, оголосивши про публікацію нових вказівок щодо інструментів GAI. Це було після того, як Гонконгський генеративний Центр досліджень та розробок AI вивчав моделі в інших місцях та консультувався з інноваційною та технологічною індустрією. Вказівки визнали, що інструменти AI, які можуть бути використані для незаконної діяльності, повинні бути заборонені. У найгірших сценаріях вони можуть включати, наприклад, створення вибухонебезпечних пристроїв, генерування нецензурного матеріалу та створення маніпульованого або помилкового вмісту для обману або порушення громадського порядку.

Вонг сподівався, що нові вказівки завдяки чотирирівневій системі класифікації “полегшить галузь та громадськість у розробці та застосуванні генеративних ШІ безпечно та відповідально, при цьому заохочуючи інноваційне застосування ШІ, зменшуючи ризик та сприяючи широкому прийняттю покоління в Гонгконг”.

Окремо Гонконгська грошова влада (HKMA) планує регуляторну пісочницю для тестування нового програмного забезпечення. Потрапивши на місце, це дозволить фінансовим установам безпечно випробувати свої технології GAI. Це також дозволить HKMA контролювати розвиток GAI, забезпечуючи надійну практику управління ризиками до повного розгортання ринку.

У чужих руках Гай представляє величезні загрози, у тому числі на національну безпеку, і його можливе зловживання повинні тривожити всіх.

Хоча складні, ефективні основні правила мають важливе значення для мінімізації (якщо не усунення) ризиків. Якщо немає належного нагляду, інструменти GAI можуть створити середовище Дикого Заходу, в якому “все йде”.

На щорічних двох сесіях Китаю в Пекіні, які завершилися 11 березня, було велике фокус на ШІ, частково спровокуючи зростання DeepSeek. Цьогорічний урядовий звіт про роботу вказував на розширену роль ШІ в галузі промислового розвитку, включаючи використання “втіленого” ШІ, таких як роботи. Дискусії також звернулися до зловживання АІ, і були заклики до вдосконалених правил.

Ці дзвінки резонували в Гонконгському SAR, не в останню чергу з уповноваженим з питань конфіденційності з персональних даних, Ада Чунг Лай-Лінг. З моменту призначення в 2020 році вона піонерувала гарантії AI у своєму портфелі, визнаючи загрозу AI для конфіденційності та інших прав. За відсутності регулювання тренер та коні можуть бути проведені за допомогою постанови персональних даних (конфіденційності) (CAP 486), занепокоєння, яке сприяло послідовними ініціативами.

У серпні 2021 року Чунг опублікував “вказівки щодо етичного розвитку та використання ШІ”. Він рекомендував організаціям прийняти принципи управління даними щодо поважних, вигідних та справедливих. Він також запропонував дотримуватися міжнародно визнаних етичних принципів AI, включаючи контроль за людьми, конфіденційність даних, прозорість, надійність та безпеку.

Після цього, у червні 2024 року, Чунг підняв анте з публікацією орієнтира “Штучний інтелект: модель рамки захисту особистих даних”. Він надав організаціям поради щодо досягнення найкращої практики в закупівлі та впровадженні ШІ та таким чином, що сприяло дотриманню вимог закону про персональні дані.

Нарешті, 31 березня 2025 року Чунг опублікував “Керівні принципи щодо використання генеративних ШІ працівників” (Керівні принципи). Відгукаючи про “два сеанси”, вона сказала, що необхідно “постійно просунути ініціативу” AI Plus “, щоб розкрити творчість цифрової економіки”.

Керівні принципи зосереджені на управлінні ризиками та надають детальний контрольний список “DOS” та “Donts”, які роботодавці повинні виконувати на своїх робочих місцях. Вони розроблені для полегшення безпечного та здорового розвитку ШІ, і, крім розгляду захисту персональних даних, порушень та засобів захисту, вони також переглядають практичне застосування інструментів AI. Вони вказують, що перед тим, як працівники вводять особисті дані в системи GAI, вони повинні спочатку анонімізувати їх. Роботодавців закликають забезпечити відповідні наслідки, якщо працівники порушують вказівки.

Керівні принципи допоможуть організаціям у розробці внутрішньої політики GAI, яка дотримується закону про персональні дані. Хоча один розмір не відповідає всім, вони забезпечують рамку, в якій роботодавці можуть забезпечити відповідальність своїх працівників.

Розглядаючи більшу картину, Чунг зауважив, що Китай робив рівний акцент на розвитку та безпеці. Іншими словами, AI потрібно розглядати цілісно, ​​а не у вакуумі. Вона пояснила, що “безпека AI – це один з найважливіших аспектів національної безпеки”, який був непереборним. Хоча GAI може бути силою для добра, він також може становити унікальні небезпеки в різних сценаріях. Наприклад, злоякісні актори можуть використовувати його для розробки, а потім продовження антидержавних заходів.

По мірі розповсюдження Гая різні агенції будуть вивчати його прогрес і, безсумнівно, вступатимуть у те, якщо виникають загрози. Хоча всі визнають переваги, які можуть принести GAI, його розвиток не може бути, наприклад, за рахунок громадської безпеки, особистих прав чи безпеки на ринку. У той же час, Гонконг повинен здійснювати те, що Комісія з цифрових офісів називає “стратегією прагматичного балансу” при формулюванні регуляторних заходів. Тому занепокоєння потрібно вирішити таким чином, що не засмучує законний технологічний прогрес міста. Якщо це буде досягнуто, Гонконг, безсумнівно, стане регіональним трейлблейзером.

Автор є старшим радником та професором юридичного факультету, а раніше був директором з питань публічного переслідування Гонконгського SAR. Погляди не обов'язково відображають погляди Китаю щодня.