Представлення інструментів технології штучного інтелекту повинно пройти ретельний процес перевірки, який розглядає проблему, яку вони допоможуть вирішити, та люди, які використовуватимуть їх, згідно з новим звітом про стратегію для уряду.
“Знайте свого народу. Знайте свою організацію. І будьте вагайтеся, щоб впровадити штучний інтелект”,-сказав Натан Макніз, засновник Університетського центру з питань взаємодії, співпраці та команди.
Макніс, автор нового звіту, Стратегії інтеграції AI у прийняття рішень державного та місцевого самоврядування: швидкі консультації експертів Національними академіями наук, інженерії та медицини, обговорювали це під час вебінару 21 серпня.
“Дійсно знайте, яка мета для реалізації, і дуже, дуже глибоко подумайте про те, як це буде сприйматися, як це буде використовувати ваш народ”, – сказав він, повторюючи звіт. “Тому що наприкінці дня штучний інтелект-це технологія, але це перетворюється на найбільш технологію, яку ми коли-небудь бачили”.
Співавтор доповіді Суреш Венкатасубраманян, професор з інформатики з університету Браун, де він керує Центром технологічної відповідальності, переосмислення та перепроектування, описав його як “конструктивне керівництво”, орієнтуючись на консультації агентств державного сектору про те, щоб мати внутрішню політику управління та ветеринару технології та систем для вимірювання ефективності інструментів.
Венкатасубраманіан запропонував застережливі поради щодо перегляду систем AI як “потенційно корисних і досить часто, ненадійних”.
“Існує великий тиск, часто надходить зверху вниз, щоб запровадити системи AI. Я думаю, що найбільш обнадійливі речі викликали люди на місцях, працюючи з проблемами, намагаються вирішити проблеми для людей і уважно думаючи про те, як включити використання”, – сказав Венкатасубраман під час вебінару.
Вміння вимірювати та контролювати та оцінювати є критично важливим, сказав він.
“Тут етос експериментів повертається до гри”, – сказав він. “Нам потрібно спробувати речі. Нам потрібно виміряти. Нам потрібно зрозуміти, що нам говорять вимірювання. І нам потрібно адаптуватися та переорієнтуватися за потребою”.
Цей доляційний етос керує мисленням у таких містах, як Сан -Хосе, де інструменти AI оцінюються проти таких факторів, як ризик, і як вони можуть служити суспільному блага, – сказала Лейла Доті, конфіденційність та AI аналітик міста.
Сан-Хосе представив інструмент перекладу мови, що працює на AI, на засіданнях міської ради, який доповнив службу інтерпретації людини.
“Це дозволяє нам надати переклад у режимі реального часу на десятках більше мов, ніж ми зазвичай мали б”,-сказала Доті під час панелі. “І результат цього – надання більшої доступності для наших мешканців”.
Інструмент перекладу мови розглядається як відносно технологічна допомога з низьким рівнем ризику, оскільки це обробка даних, які вже оприлюднюються для громадськості. Технологічний інструмент AI, який, ймовірно, отримає більш високу оцінку ризику та збільшення перевірки, може бути камерами, які використовуються поліцією, якими користуються поліція.
“Це речі, які ми зараз бачимо на місцях, що ми знаємо, що агенції зацікавлені у використанні”, – сказала Доті, вказуючи на те, що Сан -Хосе проводить “триаж для ризику”, коли міський департамент хоче розгорнути інструмент AI.
“Ми намагаємось оцінити, чи є ця система низьким, середнім або високим ризиком”, – сказала Доті, проходячи деякі фактори, які вважає команда міської технології, такі як мета технологічного інструменту, потенційні наслідки конфіденційності, тип даних, які він потребує, і скільки перегляду людини матиме система.
Це таке керівництво, запропоноване звітом Національних академій, та групами, такими як Коаліція Гувая, мережа з 850 державних установ та 2500 членів, включаючи працівників державного та приватного сектору.
Сан -Хосе був одним із засновницьких агентств коаліції, коли він був створений у 2023 році, щоб допомогти державному сектору розробити політику та практику закупівель для ефективного перевірок та розгортання таких інструменти. Коаліція створила великий набір ресурсів управління AI, від політики високого рівня AI та процесів, які повинні бути створені, пов'язані з управлінням, використання справ та посібників для впровадження.
“Ми відчували, що було багато сенсу зібратися як колектив, – сказала Доті, – і вимагати більше відповідальності у постачальників AI, з якими ми працюємо”.