

Вебінар: опитування виявило, що підвищений інтерес до генеративного ШІ та інтелектуального штучного інтелекту з прогнозуванням, а також потреба підтримувати традиційні аналітичні робочі навантаження призводять до значного збільшення розповсюдження даних у галузях.
Майже кожен бізнес звертається до штучного інтелекту та розширеної аналітики, щоб підвищити свою конкурентоспроможність, і, відповідно, переглядає свої дані та хмарні стратегії. Ця перебудова була предметом нещодавнього вебінару, проведеного RTInsights у партнерстві з Ocient, який спеціалізується на допомозі компаніям використовувати великі та складні робочі навантаження.
Завдання утримання та використання даних, що масово розповсюджуються, «робить речі дорогими та складними, оскільки підприємства готують інструменти для своїх подорожей ШІ», — сказав Шантан Кетіредді, співзасновник і віце-президент із рішень для клієнтів компанії Ocient. Під час вебінару він поділився результатами останнього опитування 500 лідерів у галузі ІТ та обробки даних, проведеного компанією Ocient, яке дало п’ять ключових висновків:
1) Інвестиції в штучний інтелект – і виклики – створюють розповсюдження даних
2) Збільшення уваги до швидкості передачі даних, безпеки та сталого використання енергії
3) Лідери не можуть точно передбачити витрати на аналітику
4) Лідери переосмислюють свої інфраструктури даних і аналітики, що містять лише хмару
5) Енергоспоживання та доступність змінюють масштабну аналітику даних
«Усі ці теми переплетені», — сказав Кетіредді. «Вони вказують на розповсюдження та дублювання даних у системах, які з часом дійсно зростають».
Багатьом із сучасних організацій, зазначив він, бракує «належних глосаріїв даних або розуміння походження даних, а також належного контролю за тим, як окремі робочі навантаження для різних бізнес-підрозділів спричиняють щомісячні витрати».
Зі збільшенням інтересу до генеративного штучного інтелекту та інтелектуального інтелекту з прогнозуванням, а також до підтримки традиційних аналітичних робочих навантажень, «ми спостерігаємо досить значне збільшення розповсюдження даних у галузях», — зазначив він. «Вони відслідковують усвідомлення багатьма нашими клієнтами того, що вони створили багато різних версій правдивих і силосних даних, які мають різні системи, як локальні, так і в хмарі».
Серед багатьох клієнтів, з якими працює Kethireddy, «100% говорять, що їхні дані зростають. Я чую про необхідність консолідації для виконання все більш складних пріоритетів із даними. Їм потрібно зрозуміти походження даних, зменшити затримку чи застарілість даних і зменшити керування системами, на виконання яких найважливіші люди в їхніх технічних командах витрачають непропорційно багато часу».
Опитування також виявило скорочення використання хмари для обробки штучного інтелекту або аналітичних навантажень. «Відсутність моделей повернення платежів, а також можливість використання самообслуговування, а також цей непередбачений ріст даних, про який ми щойно говорили, справді неочікувано збільшили витрати на хмару», — сказав Кетіредді. «Хмара стимулює величезні інновації, але що стосується масштабування бізнесу в рекламних технологіях або телекомунікаційних компаніях, найбільш інтенсивних обчислювальних навантажень, локальний все ще є найбільш життєздатним варіантом. Лідери засвоїли це на важкому шляху».
Зростаючі витрати на хмару та додатки часто стають несподіванкою як для керівників компаній, так і для ІТ-керівників, оскільки понад дві третини респондентів, тобто 68%, зазнали несподіваних витрат на аналітику. Шістдесят чотири відсотки помітили, що витрати на хмару зросли більше, ніж планувалося, а 57% сказали, що витрати на інтеграцію систем вищі, ніж очікувалося. Ще 54% вказали, що вони зазнали непередбачених витрат на переміщення даних. «Кожен зацікавлений у продуктивності та масштабі, але для клієнтів, які потребують дуже великомасштабної аналітики з інтенсивними обчисленнями, все повертається до вартості», — сказав Кетіредді.
Неочікувані витрати, пов’язані з цими ініціативами, «є серйозною проблемою в хмарі, де є вимірювання обчислень, з витратами щомісяця», – сказав він. Елемент несподіваних витрат доповнюється тим, що керівники та менеджери часто бувають засліплені несподіваними витратами на системи та дані. «Часто бізнес-підрозділи в межах підприємства мають доступ лише до своїх систем, чи своїх віртуальних машин, чи до своїх баз даних без будь-якої реальної спостережливості, керування чи керування використанням», — пояснив він. Як правило, інфраструктурні команди дотримуються реактивної стратегії, ставлячи запитання на кшталт «Хто проводив це гігантське тестове навантаження минулого місяця?» без можливості прогнозувати попит.
Перш ніж компанії зможуть успішно використовувати штучний інтелект і розширену аналітику, необхідно терміново вирішити «проблеми безперервного руху даних і конвеєрів даних, які так часто зустрічаються на підприємствах», зазначив він. «Якщо ви думаєте про переміщення даних і конвеєри даних, більшість клієнтів мають транзакційні системи або застарілі середовища, які потім передають дані в подальші системи. Або вони отримують масу даних із різноманітних джерел, які надходять із хмари, і це можуть бути пакетні чи потокові дані».
Що відбувається, так це те, що ці організації «беруть ці дані та перетворюють або споживають їх кількома бізнес-підрозділами, використовуючи власні рішення для вилучення, трансформації та завантаження (ETL),» — проілюстрував він. «Це можуть бути абсолютно різні типи даних. Зазвичай це перший вид відхилення або втрати єдиного джерела істини для даних». Рішення ETL, якими керує кожна група, «мають власне середовище для тестування прийнятності для користувачів або робоче середовище, що означає більше копій даних», зазначив він. «Потім ці дані передаються в декілька систем, можливо, для інформаційних панелей або для аналітики з меншою затримкою. Але він також надходить до їхніх систем, наприклад систем OLAP або озер даних».
Якщо команда обробки даних «не може отримати дані туди, куди їм потрібно, вони не зможуть проаналізувати їх ефективним і безпечним способом», — сказав він. «Лідерам потрібно думати про масштаб по-новому. Існує дуже багато систем, які споживають дані. Масштабування цих середовищ, оскільки дані з кожним роком у багатьох випадках зростають майже на двозначні відсотки, стає громіздким».
Проактивний підхід полягає у вирішенні цих витрат і розривів шляхом оптимізації та спрощення на єдиній загальній платформі, закликав Кетіредді, відзначаючи підхід Ocient, який полягає в тому, щоб «зменшити кількість екземплярів обладнання та хмари, необхідних для аналізу інтенсивних обчислювальних навантажень». Ми зосереджуємось на мінімізації витрат, пов’язаних із площею системи та споживанням енергії».
Крім того, оптимальним підходом до ціноутворення є «кількість ядер процесора або вузлів, а не кількість споживаного обчислювального ресурсу», що є стандартною практикою для хмарної інфраструктури та постачальників додатків у всій галузі, пояснив він. «Оскільки робочі навантаження стають складнішими, а фінансовим директорам потрібні передбачувані ціни для бюджету, ви побачите, що більше лідерів шукатимуть такі рішення».
Залишити відповідь