Категорія: Обчислення в Хмарі

  • Постачальники рішень об’єднуються для працівників і клієнтів серед лісових пожеж у Лос-Анджелесі

    Постачальники рішень об’єднуються для працівників і клієнтів серед лісових пожеж у Лос-Анджелесі

    «Це момент, коли людяність справді починає справляти на вас враження, коли ви бачите в нас хороше», — сказала генеральний директор SADA Дана Берг.

    media 1e335c1e74bbc46387aafe6d3b910a48aff1cdcf7 Постачальники рішень об’єднуються для працівників і клієнтів серед лісових пожеж у Лос-Анджелесі

    На тлі руйнувань, спричинених лісовими пожежами в районі Лос-Анджелеса цього місяця, місцеві постачальники рішень активізуються для співробітників і клієнтів.

    Дана Берг, генеральний директор SADA в Лос-Анджелесі, член рейтингу CRN 2024 MSP 500, сказав CRN в інтерв’ю, що його співробітники запропонували своїм колегам їжу та притулок, а SADA спілкувалася з постраждалими працівниками щодо програм охорони здоров’я та фінансової допомоги. доступний через компанію та її материнську компанію – Чендлер, штат Аризона, Insight (№ 17 у списку постачальників рішень CRN за 2024 рік 500).

    «Тоді людяність справді починає справляти на вас враження, коли ви бачите в нас хороше», — сказав Берг (на фото). «У нас є товариші по команді, які живуть для інших товаришів по команді. У нас є люди з гостьовими будинками, які, знаєте, пропонують. У нас є люди, які мають будиночки для відпочинку в місцевих горах, які пропонують людям».

    [Related: ‘We’ve Got To Rebuild’: The Channel Steps Up In Aftermath Of Hurricane Helene As Threat Of Hurricane Milton Looms]

    LA Wildfires

    Станом на понеділок у другій половині дня лісові пожежі в районі Лос-Анджелеса забрали життя 24 людей, повідомляє Департамент медичної експертизи округу Лос-Анджелес.

    Згідно з даними Каліфорнійського департаменту лісового господарства та пожежної охорони (Cal Fire), пожежі знищили понад 12 000 будівель і спалили понад 40 000 акрів. Пожежу площею понад 23 000 акрів локалізовано лише на 14 відсотків. Пожежу в Ітоні площею понад 14 000 акрів локалізовано на 33 відсотки. А пожежу Херста площею 799 акрів локалізовано на 95 відсотків.

    За попередньою оцінкою AccuWeather загальні збитки та економічні втрати становлять від 250 до 275 мільярдів доларів. У грудні компанія, що займається прогнозуванням погоди, оцінила, що збитки від урагану Хелен склали від 225 до 250 мільярдів доларів.

    PowerOutage.us показав понад 17 000 клієнтів Департаменту водопостачання та енергетики Лос-Анджелеса, які на той момент були без електроенергії.

    Кіт Нельсон, генеральний директор і головний спеціаліст з інформаційної безпеки компанії Vistem Solutions, розташованої в Ірвіні, Каліфорнія, яка є членом 2024 MSP 500 CRN, не знаходиться в зоні, ураженій лісовими пожежами, але має клієнтів у постраждалій зоні, включаючи жвавий порт Лос-Анджелеса.

    В інтерв’ю CRN Нельсон розповів, що порт перевірив свої генераторні системи наприкінці листопада, щоб запобігти миттєвому відключенню, хоча він не передбачив, що спалах пожеж стане тим, проти чого порт загартовується. За його словами, менші компанії в області, з якою працює Vistem, втратили потужність і покладаються на ручні процеси, які він переглядав з ними принаймні раз на квартал як їхній довірений ІТ-консультант.

    «Одна з помилок, яку ми робимо як технологічні партнери, полягає в тому, що ми думаємо, що це все технічна відповідь», — сказав Нельсон. «Здебільшого це залежить від процедурної політики та того, як клієнт готується. … У таких ситуаціях ми повинні зробити так, щоб наші клієнти, наші співробітники були справді впевнені в тому, що є план, ми рухаємося вперед, не час панікувати та кидати рушник».

    Нельсон наголосив на зусиллях міст, округів та організацій за межами охоплених пожежами зон, які доставляють їжу та ресурси до Лос-Анджелеса. Коли його запитали про організації, куди люди можуть пожертвувати ресурси, Нельсон сказав, що варто розглянути такі групи, як Nehemiah Project LA, які працюють з молодими людьми в системі прийомної сім’ї, які можуть бути витіснені через пожежі.

    Берг із SADA сказав, що інвестиції його постачальника рішень у хмарні технології та велике поширення в усьому світі призвели до мінімального впливу пожеж на ІТ клієнтів. Берг також згадав про те, що під час пандемії COVID-19 світ запровадить більше технологій віддаленої роботи, щоб зменшити збої, які можуть виникнути внаслідок екстремальних погодних умов та інших катаклізмів.

    Берг сказав, що готовий допомогти будь-кому, хто потребує допомоги в Південній Каліфорнії. «Ми просто хочемо, щоб усі знали, що бути членом цієї спільноти означає, що ми зобов’язані допомагати», — сказав він. «Ви можете бути клієнтом, ви можете бути конкурентом, ви можете бути партнером. Це не важливо. Це час, коли ми збираємося разом».

    Незважаючи на те, що зараз компанія зосереджена на безпеці співробітників і клієнтів, Берг очікує, що після ліквідації пожежі SADA разом зі своїми клієнтами ознайомиться з отриманими уроками та допоможе краще підготуватися на випадок майбутніх пожеж або інших катастроф, таких як сильний землетрус. або кібератака.

    «На жаль, реальність така, що ці ризики зростають», — сказав Берг. «Ми можемо бути поруч із клієнтами, які хочуть зрозуміти, як зміцнити та захистити свої корпоративні інтереси».

    Хоча жоден клієнт Westlake Technologies не втратив свої центри обробки даних, багато з них втратили свої будинки, сказав Білл Аллен, консультант і головний технічний директор постачальника рішень у Вест-Лейк-Віллідж, штат Каліфорнія.

    «Ніхто не очікував, що пожежі розширяться так швидко, як це сталося», — сказав Аллен CRN. Це був жахливий кошмар. У цьому місці багато людей. Ніхто з моїх клієнтів не загинув, але деякі з моїх клієнтів втратили домівки. І ви знаєте, коли ви втрачаєте дім, це більше, ніж просто бути переміщеним і намагатися зрозуміти, куди ви збираєтеся піти. Усі їхні спогади, все, що складало їхнє життя, життя їхніх дітей, їхнє соціальне середовище, усе це зникло. Усі ці спогади, усі фотографії, документи, усе, що фіксувало історію їхнього життя в тому будинку».

    За словами Аллена, Westlake Technologies має двох основних клієнтів у зоні пожежі: CalTech (Каліфорнійський технологічний інститут) і JPL (Лабораторія реактивного руху NASA). За його словами, обидва припинили свою діяльність, але ще не постраждали безпосередньо від пожеж.

    За словами Аллена, Westlake Technologies не вперше стикається з лісовими пожежами в районі Лос-Анджелеса.

    «Років 10 чи 12 тому вогонь буквально підійшов до моєї огорожі», — сказав він. «Я залишився в будинку і намагався боротися з цим своєю водою. У нас на моїй вулиці були пожежні машини. Літаки налітали й скидали вогнезахисні засоби. Нам усім у тому кварталі пощастило. Ретардант про все подбав. Він буквально підійшов до моєї лінії паркану. Але цього разу було не так».

    З огляду на те, наскільки близько Westlake Technologies до пожежі, Аллен сказав, що готовий піти, якщо буде потрібно.

    «У нас було повідомлення про евакуацію, і воно було скасовано, а потім ми отримали повідомлення, яке потрібно підготувати», — сказав він. «Тож усі в домі зібрані та готові, якщо нам доведеться йти».

    Старший редактор Джозеф Ф. Ковар зробив внесок у цю історію.

  • Технологічні тенденції: хмарні рішення можуть прискорити впровадження штучного інтелекту

    Технологічні тенденції: хмарні рішення можуть прискорити впровадження штучного інтелекту

    в чат з StateTech, Роджер Хейні, головний архітектор програмно-визначеної інфраструктури CDW, каже, що організації державного та приватного секторів стикаються з однаковими проблемами при підготовці хмарних рішень для впровадження ШІ.

    «Вони дізнаються про це, вивчають нові підходи до проблеми, а потім намагаються з’ясувати, як штучний інтелект може допомогти їх вирішити», — каже він.

    У всіх галузях респонденти опитування CDW назвали «необхідність забезпечення якості даних для додатків ШІ» як свою найбільшу проблему.

    Агентства можуть забезпечити цілісність даних за допомогою хмарного керування

    в “Розробка та впровадження надійного ШІ в уряді”, Deloitte підкреслює важливість цілісності даних для рішень ШІ. Успішні додатки AI потребують надійних і надійних даних для правильної роботи.

    «Здатність організації вміло працювати з даними має вирішальне значення для якості ШІ та зрозумілості. Ефективні системи управління даними можуть допомогти підвищити довіру до штучного інтелекту та готовність керівників керувати його етичними наслідками», — йдеться у звіті.

    ДИВИТИСЯ: ІТ-директори штатів обговорюють ключові проблеми штучного інтелекту та рішення на NASCIO 2024.

    У короткому випуску під назвою «Побудова цілісності даних у державному секторі”, Центр цифрового урядування зазначає, що державні установи знову можуть звернутися до хмари для підвищення надійності даних. Агентства можуть перевіряти дані на кожному етапі їх подорожі. Надійне програмне забезпечення цілісності даних може покладатися на рішення з низьким кодом/без коду для встановлення регулярних процедур тестування даних.

    Протягом багатьох років державні установи перейшли до гібридної хмари для досягнення цих цілей. Вони вирішують зберігати дані локально, а потім розширювати можливості хмарних служб за допомогою цих даних. Завдяки надійному управлінню даними, яке частково забезпечується хмарними рішеннями, державні та місцеві органи влади можуть розгортати штучний інтелект для розширення послуг для громадян.

    Хмара закладає основу для зростаючого використання ШІ

    Google Cloud та інші великі постачальники хмарних послуг, які надають урядам набір інструментів ШІякі вони можуть вмикати та вимикати за потреби. Вони підтримують платформи для створення та масштабування моделей машинного навчання, спрощення керування даними в різних середовищах і захисту ІТ-активів від кіберзагроз.

    Google наводить приклад Департаменту транспорту Гаваїв, який використовував штучний інтелект «для інтеграції різноманітних наборів даних, у тому числі моделей прогнозування клімату, у комплексне уявлення про потенційні загрози та вразливі місця». Завдяки цій ініціативі Гаваї можуть визначити пріоритетність інвестицій в інфраструктуру, покращити планування технічного обслуговування та швидко змінити напрямок перед обличчям нових подій.

    Хмарна підтримка ряд варіантів використаннявключно з чотирма найпопулярнішими способами використання урядом штатів, визначеними Національною асоціацією керівників інформаційних систем штатів на її останній щорічній конференції: транскрипція нарад, операції з кібербезпеки, створення та керування документами та створення програмного коду.

    З хмарою уряди штатів можуть бути готові до майбутнього.

  • Спеціальна організаційна політика Kartik Kaipa, що змінює правила гри

    Спеціальна організаційна політика Kartik Kaipa, що змінює правила гри

    Оскільки світ стає все більш залежним від хмари, постає одне ключове питання: наскільки безпечне наше цифрове життя? Картік Кайпа, досвідчений експерт із хмарної безпеки та розподілених систем, витратив понад дванадцять років на розробку трансформаційних рішень безпеки програмного забезпечення для таких гігантів, як Google і Uber, переосмислюючи, що означає захист хмарних середовищ у великих масштабах.

    Досягнення успіху завдяки любові до комп’ютерів

    Любов Картика до комп’ютерів почалася рано. Коли він ріс, у його родині вдома був персональний комп’ютер із доступом до Інтернету. Він грав в ігри, як і більшість дітей, але також створював різні HTML-сайти. Коли Google був випущений, він був у захваті.

    «Я міг би шукати що завгодно та живити свою цікавість майже будь-якою темою», Картик згадує.

    Після закінчення середньої школи Картік вступив до Індійського технологічного інституту (IIT) у Канпурі, Індія, щоб вивчати комп’ютерні науки та інженерію, де отримав міцну технічну основу для своєї кар’єри. Після отримання ступенів бакалавра та магістра пристрасть Картика до комп’ютерів і побудови систем надихнула його шукати роботу в технологічній фірмі замість того, щоб шукати докторську чи дослідницьку роботу.

    «Я був у захваті, коли отримав пропозицію про роботу в Google India», каже він.

    Перші дні роботи над великомасштабними білінговими системами

    На новій посаді Картік працював над системою передплати Google Apps for Business. У його обов’язки входило забезпечення того, щоб з клієнтів щомісяця стягувалася належна плата за використання Google Apps for Business, щоб їхній статус підписки був швидко доступним і щоб вони отримували точні електронні листи.

    Коли Картік перейшов до Google US, він продовжив працювати над великомасштабними білінговими системами, перш ніж перейти до роботи з іншого боку платежів. Він працював над системами авторизації платежів, які перевіряли, що користувачі авторизовані та мають доступ до правильної інформації. Система авторизації також гарантувала, що внутрішній доступ відбувався лише в разі крайньої необхідності та контролювався.

    «Інший побічний проект, який я робив у той час, був абсолютно не пов’язаний із платежами, але мав вплив на Google. Ми розробили інтелектуальну систему групування для списків змін (змін, внесених у проект) у Google, зменшивши витрати на тестування в 10 разів», Картик пояснює.

    Картік залишив Google і перейшов на посаду в Uber, де він працював над оплатою водіїв, забезпечуючи, щоб водії в 70 країнах і 10 000 міст отримували оплату вчасно. Платіжна система водіїв обробляє мільярди доларів платежів на рік.

    Картік зіткнувся з ще більшою проблемою, коли Uber серйозно поставився до IPO (первинного публічного розміщення акцій) і потребував перевірки своєї платіжної системи. Це означало, що всю систему потрібно було перебудувати, суттєво переписати грошову систему.

    «Я працював над важливими частинами архітектури. Я думаю, що я все ще можу мати найбільшу кількість коду, написаного в ядрі системи. Я розробив прості способи тестування системи, щоб переконатися в її надійності та точності», Картик каже.

    У 2018 році Картік повернувся в Google, щоб працювати над Google Pay. Завдання полягало в тому, щоб змусити його працювати в різних браузерах і операційних системах, завдання, яке Картік і його команда змогли подолати, розробивши “Оплата через Google” і автоматичне тестування в різних браузерах у різних середовищах.

    Завдання безпеки хмарних робочих навантажень

    Нещодавно команда Kartik працювала над спеціальними політиками організації, які надають клієнтам послідовний досвід обробки помилок, порушень і симуляції та дозволяють підприємствам визначати власні політики безпеки. Спеціальні організаційні політики значно спрощують процес налаштування безпеки.

    Робота в Google Cloud над безпекою та забезпеченням безпеки та захисту даних була для Картика дуже корисним досвідом і підтримує його мотивацію в роботі.

    «Потужність, якою володіють комп’ютери, вражає мене навіть після стільки часу. Наприклад, щось на кшталт Microsoft Excel дозволяє бухгалтерам вести бухгалтерський облік із неймовірною швидкістю. Ми можемо надсилати інформацію по всьому світу зі швидкістю світла. Ми можемо зв’язатися з ким завгодно. .Вся інформація у світі доступна з портативного пристрою. Тому багато з цих досягнень є просто науковою фантастикою, і навіть 30 років тому їх було неможливо уявити». каже Картик.

    Хоча Картік досяг багатьох успіхів у своїй кар’єрі, йому все одно довелося зіткнутися з зупинкою.

    «Мені довелося вирішити свідомо зосередитися на тому, щоб доручена мені робота відповідала критеріям просування по службі. Мені також довелося працювати над м’якими навичками, такими як презентація роботи та переконання, що будь-які проекти, які я візьму, приведуть до наступного рівня», каже він.

    Роль у розробці індивідуальної політики організації

    Пропрацювавши більшу частину своєї кар’єри над великомасштабними білінговими системами, Картік скористався шансом працювати технічним керівником команди Org Policy. Він очолював розробку спеціальних організаційних політик у Google Security і керував впровадженням 50 продуктів Google Cloud Platform (GCP) у спеціальні організаційні політики.

    «Політики організацій – це спосіб, за допомогою якого клієнти можуть захистити свої робочі навантаження», Картик пояснює. «Хорошим прикладом є витоки, які ви спостерігаєте навколо надзвичайно конфіденційних даних. Одна конкретна організаційна політика робить так, що дані ніколи не можуть бути оприлюдненими у відрах. Існують організаційні політики для багатьох сценаріїв, які допомагають підприємствам дотримуватися вимог і залишатися в безпеці».

    Майбутнє хмарної безпеки та Kartik

    Картік зачарований впливом хмари на трансформацію інфраструктури. Він зазначає, що веб-сайти можна створювати та розміщувати по всьому світу кількома клацаннями миші, тоді як раніше їх потрібно було фізично встановлювати в центрі обробки даних.

    Оскільки технології продовжують розвиватися, Kartik планує продовжувати розширювати межі хмарної безпеки, щоб протистояти виникаючим кіберзагрозам і сприяти вдосконаленню галузевих стандартів безпечних хмарних обчислень. У майбутньому Kartik також бачить використання штучного інтелекту для автоматичного створення позицій безпеки.

    Для нього штучний інтелект зможе зрозуміти намір користувача, з’ясувати базові деталі, які відповідають намірам високого рівня, і відповідно захистити робочі навантаження клієнта. Крім того, штучний інтелект може постійно відстежувати журнали та показники, створені робочими навантаженнями клієнтів, і інтелектуально виявляти, коли можуть статися порушення безпеки. Штучний інтелект також може аналізувати існуючий стан безпеки системи та рекомендувати налаштування, які зроблять систему безпечною, забезпечуючи роботу клієнта без збоїв.

    Картік присвятив себе тому, щоб стати всебічним технічним лідером, зосередившись на більш стратегічному відборі та виконанні проектів. Хоча він був чудовим технологом, він визнав, що йому потрібно попрацювати над своїми навичками міжособистісного спілкування, особливо коли представляє складні технічні концепції. Він також зосередився на узгодженні технічної роботи з ширшими цілями організації.

    Ставши ефективним лідером, Картік зміг реалізовувати більші та ефективніші ініціативи та надихнув його бути наставником майбутніх технічних лідерів.

  • Серія NVIDIA Blackwell GeForce RTX 50 відкриває новий світ комп’ютерної графіки штучного інтелекту

    Серія NVIDIA Blackwell GeForce RTX 50 відкриває новий світ комп’ютерної графіки штучного інтелекту

    NVIDIA Blackwell GeForce RTX 50 відкриває новий світ компютерної Серія NVIDIA Blackwell GeForce RTX 50 відкриває новий світ комп’ютерної графіки штучного інтелекту
    Для користувачів настільних комп’ютерів відеокарта GeForce RTX 5090 з 3352 AI TOPS і GeForce RTX 5080 GPU з 1801 AI TOPS будуть доступні 30 січня за 1999 і 999 доларів відповідно.

    Нове покоління графічних процесорів GeForce RTX забезпечує приголомшливий візуальний реалізм і 2-кратне підвищення продуктивності завдяки ШІ, нейрошейдерам і DLSS 4

    Дубай — NVIDIA представила найсучасніші споживчі графічні процесори для геймерів, творців і розробників — відеокарти серії GeForce RTX 50 для настільних комп’ютерів і ноутбуків.

    Завдяки архітектурі NVIDIA Blackwell, тензорним ядрам п’ятого покоління та ядрам RT четвертого покоління відеокарти серії GeForce RTX 50 забезпечують прорив у рендерингу на основі штучного інтелекту, включаючи нейронні шейдери, цифрові людські технології, геометрію та освітлення.

    «Blackwell, двигун штучного інтелекту, з’явився для геймерів, розробників і творчих людей», — сказав Дженсен Хуанг, засновник і генеральний директор NVIDIA. «Поєднання нейронного рендерингу на основі штучного інтелекту та трасування променів, Blackwell є найважливішою інновацією комп’ютерної графіки з тих пір, як ми представили програмоване затінення 25 років тому».

    Графічний процесор GeForce RTX 5090 — найшвидший на сьогоднішній день графічний процесор GeForce RTX — містить 92 мільярди транзисторів, що забезпечує понад 3352 трильйони операцій ШІ в секунду (TOPS) обчислювальної потужності. Інновації в архітектурі Blackwell і DLSS 4 означають, що графічний процесор GeForce RTX 5090 перевершує графічний процесор GeForce RTX 4090 майже вдвічі.

    GeForce Blackwell постачається на ноутбуки з усіма функціями настільних моделей, забезпечуючи значне оновлення портативних комп’ютерів, включаючи надзвичайні графічні можливості та надзвичайну ефективність. Технологія NVIDIA Max-Q покоління Blackwell подовжує термін служби батареї до 40% і дозволяє створювати тонкі та легкі ноутбуки, які зберігають елегантний дизайн без шкоди для потужності та продуктивності.

    NVIDIA DLSS 4 підвищує продуктивність до 8 разів DLSS 4 дебютує з генерацією кількох кадрів, щоб підвищити частоту кадрів за допомогою штучного інтелекту для створення до трьох кадрів на візуалізований кадр. Він працює в унісон з набором технологій DLSS, щоб підвищити продуктивність до 8 разів у порівнянні з традиційним рендерингом, зберігаючи при цьому швидкість відгуку завдяки технології NVIDIA Reflex.

    DLSS 4 також представляє перше в графічній індустрії застосування в реальному часі архітектури трансформаторної моделі. Моделі DLSS Ray Reconstruction і Super Resolution на основі трансформатора використовують у 2 рази більше параметрів і в 4 рази більше обчислень для забезпечення більшої стабільності, зменшення ореолів, більшої деталізації та покращеного згладжування в ігрових сценах. DLSS 4 підтримуватиметься графічними процесорами серії GeForce RTX 50 у понад 75 іграх і програмах на день запуску.

    NVIDIA Reflex 2 представляє Frame Warp, інноваційну техніку для зменшення затримки в іграх шляхом оновлення візуалізованого кадру на основі останнього введення мишею безпосередньо перед його надсиланням на дисплей. Reflex 2 може зменшити затримку до 75%, надаючи гравцям конкурентну перевагу в багатокористувацьких іграх і покращуючи реакцію одиночних ігор.

    Blackwell привносить ШІ в шейдери

    Двадцять п’ять років тому NVIDIA представила GeForce 3 і програмовані шейдери, які заклали основу для двох десятиліть графічних інновацій, від затінення пікселів до обчислювального затінення та трасування променів у реальному часі. Поряд із графічними процесорами серії GeForce RTX 50 NVIDIA представляє нейронні шейдери RTX, які об’єднують невеликі мережі штучного інтелекту в програмовані шейдери, розблоковуючи матеріали плівкової якості, освітлення та багато іншого в іграх у реальному часі.

    Візуалізація ігрових персонажів є одним із найскладніших завдань у графіці в реальному часі, оскільки люди схильні помічати найменші помилки чи артефакти у цифрових людей. RTX Neural Faces використовує просте растеризоване обличчя та дані 3D-пози як вхідні дані, а також використовує генеративний штучний інтелект для візуалізації тимчасово стабільного високоякісного цифрового обличчя в режимі реального часу.

    RTX Neural Faces доповнюється новими технологіями RTX для волосся та шкіри з трасуванням променів. Разом із новою RTX Mega Geometry, яка дозволяє до 100 разів збільшити кількість трикутників із трасуванням променів у сцені, ці вдосконалення готові забезпечити величезний стрибок у реалістичності ігрових персонажів та середовища.

    Потужність нейронного рендерингу, DLSS 4 і нова модель трансформатора DLSS демонструються на графічних процесорах серії GeForce RTX 50 із Zorah, новаторською демонстрацією нової технології від NVIDIA.

    Автономні ігрові персонажі
    Графічні процесори серії GeForce RTX 50 пропонують провідні в галузі AI TOPS для роботи автономних ігрових персонажів паралельно з рендерингом ігор.

    NVIDIA представляє набір нових технологій NVIDIA ACE, які дозволяють персонажам гри сприймати, планувати та діяти як люди. Автономні персонажі на базі ACE інтегруються в PUBG: BATTLEGROUNDS і InZOI від KRAFTON, майбутню гру-симулятор життя від видавця, а також у MIR5 від Wemade Next.

    У PUBG компаньйони на базі NVIDIA ACE планують і виконують стратегічні дії, динамічно співпрацюючи з гравцями, щоб забезпечити виживання. InZOI містить персонажів Smart Zoi, які самостійно коригують поведінку на основі життєвих цілей і подій у грі. У MIR5 керовані великою мовною моделлю (LLM) рейдові боси адаптують тактику на основі поведінки гравця, створюючи більш динамічні та складні сутички.

    Основні моделі AI для ПК RTX AI
    Варіанти використання охоплюють LLMs, моделі мови бачення, генерацію зображень, мовлення, моделі вбудовування для генерації з доповненим пошуком, вилучення PDF-файлів і комп’ютерне бачення. Мікросервіси NIM містять усі необхідні компоненти для роботи ШІ на ПК та оптимізовані для розгортання на всіх графічних процесорах NVIDIA.

    Демонструючи, як ентузіасти та розробники RTX можуть використовувати мікросервіси NIM для створення агентів і помічників штучного інтелекту, NVIDIA випустить низку мікросервісів NVIDIA NIM і схем штучного інтелекту для комп’ютерів RTX AI від провідних розробників моделей, таких як Black Forest Labs, Meta, Mistral і Stability.AI. . Щоб продемонструвати, як ентузіасти та розробники можуть використовувати NIM для створення агентів і помічників штучного інтелекту, NVIDIA сьогодні попередньо представила Project R2X, аватар для комп’ютера з підтримкою зору, який може надавати інформацію під рукою користувача, допомагати з настільними програмами та відеоконференц-дзвінками, читати та узагальнювати документи і багато іншого.

    Інструменти на основі ШІ для творців
    Графічні процесори серії GeForce RTX 50 забезпечують творчі робочі процеси. Графічні процесори серії RTX 50 — це перші споживчі графічні процесори, які підтримують точність FP4, підвищуючи продуктивність створення зображень штучного інтелекту для таких моделей, як FLUX, у 2 рази та дозволяючи генеративним моделям штучного інтелекту працювати локально з меншим обсягом пам’яті порівняно з апаратним забезпеченням попереднього покоління.

    Додаток NVIDIA Broadcast отримав дві бета-функції на базі штучного інтелекту для прямих трансляцій: Studio Voice, яка оновлює аудіо мікрофона, і Virtual Key Light, яка повторно підсвічує обличчя для відточених потоків. Streamlabs представляє Intelligent Streaming Assistant на базі NVIDIA ACE та Inworld AI, який діє як співорганізатор, продюсер і технічний помічник для покращення прямих трансляцій.

    Доступність
    Для користувачів настільних комп’ютерів відеокарта GeForce RTX 5090 з 3352 AI TOPS і GeForce RTX 5080 GPU з 1801 AI TOPS будуть доступні 30 січня за 1999 і 999 доларів відповідно. Графічний процесор GeForce RTX 5070 Ti з 1406 AI TOPS і GeForce RTX 5070 GPU з 988 AI TOPS будуть доступні з лютого за ціною 749 і 549 доларів відповідно. Видання NVIDIA Founders для графічних процесорів GeForce RTX 5090, RTX 5080 і RTX 5070 будуть доступні безпосередньо на nvidia.com і в деяких роздрібних магазинах по всьому світу.

    Моделі зі стандартним і заводським розгоном будуть доступні від провідних постачальників додаткових плат, таких як ASUS, Colorful, Gainward, GALAX, GIGABYTE, INNO3D, KFA2, MSI, Palit, PNY і ZOTAC, а також у настільних ПК від розробників систем, включаючи Falcon. Northwest, Infiniarc, MAINGEAR, Mifcom, ORIGIN PC, PC Specialist і Scan Computers.

    Ноутбуки з графічними процесорами GeForce RTX 5090, RTX 5080 і RTX 5070 Ti Laptop будуть доступні з березня, а графічні процесори RTX 5070 для ноутбуків будуть доступні з квітня від провідних світових виробників, зокрема Acer, ASUS, Dell, GIGABYTE, HP, Lenovo. , MECHREVO, MSI та Razer.

  • OPPO представляє інноваційні рішення ШІ на саміті Google Cloud у Шеньчжені 2025 року для підвищення продуктивності та безпеки смартфонів

    OPPO представляє інноваційні рішення ШІ на саміті Google Cloud у Шеньчжені 2025 року для підвищення продуктивності та безпеки смартфонів


    OPPO представляє інноваційні рішення ШІ на саміті Google Cloud у Шеньчжені 2025 року для підвищення продуктивності та безпеки смартфонів



    Дата


    (MENAFNEditorial) Дубай, ОАЕ, 10 січня 2025 р.: провідний світовий бренд смарт-пристроїв OPPO дебютував на 2025 google Cloud Shenzhen Summit, оголосивши про подальше розширення співпраці з Google Cloud у програмах для підвищення продуктивності штучного інтелекту та хмарній безпеці, оприлюднивши низку нових функцій .

    Кай Тан, президент програмного забезпечення OPPO, сказав: «OPPO співпрацює з провідними світовими технологічними компаніями з відкритим мисленням, прагнучи інтегрувати передову технологію штучного інтелекту в наші продукти. Google є одним із лідерів у сфері штучного інтелекту в усьому світі, і я вірю, що партнерство між OPPO та Google забезпечить користувачам більш ефективний і безпечний досвід ШІ нового покоління».
    OPPO та Google розширюють співпрацю в продуктивності ШІ

    У серії Find X8, запущеній на міжнародних ринках, OPPO використала модель Gemini від Google у кількох ефективних інструментах продуктивності:

    • Підсумок запису штучного інтелекту: підтримує розпізнавання кількох доповідачів, автоматично ідентифікуючи та вилучаючи ключову інформацію для зведення тривалих зустрічей у стислі підсумки.
    • AI Assistant for Notes: редагування за допомогою штучного інтелекту, написання продовження та інтелектуальне форматування забезпечують плавне та ефективне редагування.

    Базуючись на довгостроковій співпраці з Google у сфері штучного інтелекту, OPPO оголошує, що в майбутньому запровадить можливості Google AI у нові сценарії застосування, зокрема:

    • AI Live Call Translation: він може здійснювати голосовий переклад у реальному часі та дозволяє користувачам візуально бачити вміст спілкування в текстовій формі, усуваючи мовні бар’єри.
    • ШІ-пошук: користувачі можуть здійснювати пошук природною мовою або навіть зображеннями. Він може шукати імена файлів, а також певний вміст у файлах, допомагаючи користувачам швидко знайти саме те, що їм потрібно.
    • Інструменти AI Writing Tools: інтегрований як допоміжний інструмент для спільної роботи в операційну систему, він працює в різних програмах і допомагає користувачам інтелектуально генерувати необхідний текст.

    OPPO співпрацює з Google Cloud над архітектурою Mobile Cloud Security

    Хоча штучний інтелект може принести користувачам значну зручність, багато потужних програм штучного інтелекту все ще покладаються на потужність хмарних обчислень. Забезпечення безпечної обробки інформації користувача в хмарі стало серйозним викликом для галузі. OPPO вважає, що виробники смартфонів повинні співпрацювати з постачальниками хмарних послуг та іншими партнерами, щоб створювати наскрізні засоби безпеки та захисту конфіденційності, забезпечуючи оптимальний захист інформації користувачів. OPPO оголосила, що співпрацюватиме з Google Cloud над архітектурою мобільної хмарної безпеки та розробить технологію Private Computing Cloud, щоб забезпечити користувачам безпечніший досвід штучного інтелекту.

    OPPO прагне зробити телефони зі штучним інтелектом доступними для всіх. Розробляючи власні технології штучного інтелекту та співпрацюючи з провідними галузевими партнерами, такими як Google, OPPO прагне забезпечити найкращий досвід штучного інтелекту на своїх смартфонах.

    MENAFN11012025000070016599ID1109078548


    Редакція MENAFN




    Юридична відмова від відповідальності:
    MENAFN надає інформацію «як є» без будь-яких гарантій. Ми не несемо жодної відповідальності за точність, зміст, зображення, відео, ліцензії, повноту, законність або надійність інформації, що міститься в цій статті. Якщо у вас є скарги або проблеми з авторським правом, пов’язані з цією статтею, будь ласка, зв’яжіться з постачальником вище.

  • Китайська хмарна компанія Unisplendour прагне залучити 1 мільярд доларів – звіт

    Китайська хмарна компанія Unisplendour прагне залучити 1 мільярд доларів – звіт

    Китайська компанія з хмарних обчислень та ІТ-інфраструктури Unisplendour Corporation розглядає можливість вийти на біржу в Гонконзі, щоб залучити близько 1 мільярда доларів.

    Як повідомляє Bloomberg, повідомляється, що Unisplendour запросив різні банки для участі в лістингу, за словами людей, знайомих з планами.

    Unisplendour наразі котирується в Шеньчжені, Китай, хоча, здається, є однією з багатьох материкових компаній, які також хочуть вийти на біржу Гонконгу. Наразі компанію оцінюють приблизно в 9,7 мільярда доларів, оскільки за останній рік її акції зросли на 45 відсотків.

    Гонконг надав звільнення деяким компаніям, що торгують на материку, що дозволить їм випустити принаймні 15 відсотків своїх акцій через лістинг у Гонконзі. Обмін також веде дискусії щодо зниження бар’єру для цього.

    За даними джерел Bloomberg, дискусії щодо другого лістингу тривають, у тому числі щодо розміру лістингу та його часу.

    Unisplendour була заснована в 1999 році і є частково державною компанією, частиною Tsinghua Unigroup. Компанія пропонує послуги хмарних обчислень, розробку програмного забезпечення, а також виготовляє сервери та обчислювальні системи зберігання.

    У 2021 році компанія Tsinghua Unigroup опинилася перед банкрутством. До 2022 року вона завершила процедури реєстрації та стала власністю Beijing Zhiguangxin Holding.

    Компанія володіє контрольною часткою китайського бізнесу Hewlett Packard, що займається виробництвом серверів, систем зберігання даних і технологій – H3C.

    Фондова біржа Гонконгу розширює свої відносини з біржами материкового Китаю. У квітні 2024 року Fortune повідомляв, що Комісія з регулювання цінних паперів Китаю оголосила про нові заходи, які поглиблять зв’язки між фондовими ринками Гонконгу, Шеньчженя та Шанхаю.

    Серед цих заходів була програма Shanghai–Shenzhen–Hong Kong Stock Connect, яка зв’язує інвесторів із Гонконгу з фондовими ринками материкового Китаю та навпаки. CSRC також заявив, що буде заохочувати китайські компанії до лістингу в Гонконзі.

    Серед причин для цього – надання можливості китайським компаніям отримати доступ до міжнародного капіталу.

    Незважаючи на це заохочення, триваюча напруженість між США та Китаєм змусила компанії з обережністю ставитися до лістингу на Гонконзькій біржі, а Fortune зазначає, що 2024 рік був найгіршим для фондової біржі.

  • У звіті CISA рекламується сплеск реєстрації в організаціях критичної інфраструктури щодо кібергігієни

    У звіті CISA рекламується сплеск реєстрації в організаціях критичної інфраструктури щодо кібергігієни

    Протягом двох років Агентство з кібербезпеки та безпеки інфраструктури відзначило сплеск кількості залучених до послуг Cyber ​​Hygiene (CyHy) організацій критичної інфраструктури, причому найбільший стрибок був у секторі зв’язку.

    У звіті, опублікованому в п’ятницю, CISA стверджує, що аналіз 7791 організації критичної інфраструктури, зареєстрованої в службі сканування вразливостей агентства з 1 серпня 2022 року по 31 серпня 2024 року, показав збільшення кількості учасників CyHy на 201%, на чолі з зв’язку (300%), екстрених служб (268%), критичного виробництва (243%) і водопостачання та системи водовідведення (242%) промисловості.

    У результаті цього буму реєстрації CISA заявила, що знайшла покращення у своїх шести цілях ефективності кібербезпеки, або CPG: пом’якшення відомих уразливостей, відсутність служб в Інтернеті, які можна використовувати, надійне та гнучке шифрування, обмеження OT-з’єднань у загальнодоступному Інтернеті, розгортання файл security.txt і захист електронної пошти.

    Однією з сфер покращення, на яку посилається CISA, є постійне зменшення кількості придатних для експлуатації служб, які регулярно контролюються за допомогою сканування вразливостей агентства, з 12 послуг на кожного користувача CyHy у серпні 2022 року до приблизно восьми служб через два роки.

    За ці два роки також зменшилася кількість відомих заявок про використання вразливостей: KEV критичної серйозності впало на 50%, а KEV високої серйозності – на 25%. Час усунення вразливостей протоколу Secure Sockets Layer (SSL) також скоротився: станом на серпень 2022 року запити вирішувалися приблизно через 200 днів, а через кілька місяців скоротилися до менш ніж 50 днів.

    Також у звіті CISA було наголошено на даних про найбільшу кількість операційних технологічних протоколів, відкритих для загальнодоступного Інтернету, привертаючи особливу увагу до 63% рівня впливу, виявленого в секторі державних послуг і установ. ІТ (10%), енергетика (10%), охорона здоров’я (5%) і фінансові послуги (4%) також були названі.

    «Загалом ініціативи, програми та продукти CISA безпосередньо впливають на реєстрацію послуг у секторі критичної інфраструктури та впровадження CPG», — йдеться у звіті. «Загальний аналіз даних CISA показує помірний вплив впровадження CPG у секторах критичної інфраструктури».

    Метт Брекен

    Автор: Метт Брекен

    Метт Брекен є керуючим редактором FedScoop і CyberScoop, який контролює висвітлення політики федерального уряду в області технологій і кібербезпеки. До того як приєднатися до Scoop News Group у 2023 році, Метт був старшим редактором у Morning Consult, ведучи висвітлення технологій, фінансів, здоров’я та енергетики на основі даних. Раніше він працював на різних посадах редактора в The Baltimore Sun і Arizona Daily Star. Ви можете зв’язатися з ним за адресою matt.bracken@scoopnewsgroup.com.

  • Стійкість, суперхмара та перехід за край

    Стійкість, суперхмара та перехід за край

    За багатьма параметрами екосистема хмарних обчислень не зазнала значних змін за останні роки. Різні типи хмарних архітектур — єдина хмара, багатохмарна та гібридна хмара — на даний момент добре зарекомендували себе. Те саме “Велика трійка” Хмарні провайдери домінували на ринку протягом тривалого часу, без жодних ознак того, що це зміниться найближчим часом. Основи хмарне адміністрування і хмарна безпека сьогодні нічим не відрізняються від тих, що були півдесятка років тому.

    Тим не менш, хмара продовжує розвиватися більш тонкими способами. Щоб бути в курсі того, що буде далі, ось огляд п’яти ключових тенденцій хмарних обчислень, які слід відстежувати у 2025 році.

    1. Стійкість хмарних технологій стає більш піддається кількісному виміру

    Сталий розвиток хмари був гарячою темою протягом деякого часу. Але традиційно було важко кількісно визначити, наскільки стабільною є дана хмарна платформа чи архітектура. Хмарні провайдери запропонували обмежену прозорість щодо таких тем, як джерело енергії або енергоефективність їхніх центрів обробки даних.

    Ми підозрюємо, що це почне змінюватися в 2025 році, оскільки хмарні клієнти вимагатимуть більш конкретного статистика стійкості від постачальників хмарних послуг. Поки підприємства не зможуть вимірювати такі дані, як ефективність використання енергії (PUE) і ефективність використання води (WUE), неможливо буде точно визначити, наскільки стійкими є їхні хмари.

    пов'язані:10 найкращих історій про хмарні обчислення 2024 року

    Наразі відстежувати такі дані є складним завданням, оскільки хмарні провайдери все ще не повідомляють про це, особливо не для кожного центру обробки даних. Але зростаючі очікування щодо звітності про сталий розвиток у новому році — у поєднанні зі збільшенням зацікавленості регуляторів у вимогах щодо прозорості сталого розвитку та запобігання «зеленого відмивання» — можуть змінити це.

    2. Ажіотаж передових обчислень спадає

    Граничні обчислення — тип архітектури, який розміщує деякі робочі навантаження біля «крайньої межі» мережі, а не в центральних центрах обробки даних — був модною темою протягом багатьох років. Загальна думка полягає в тому, що якщо ви хочете оптимізувати продуктивність (і, можливо, безпеку), вам потрібно стратегічно підійти до використання переваги.

    Однак наближається до 2025 року периферійні обчислення, здається, можуть втрачати частину свого блиску. Як зазначив Gartner, край має намагався дозріти. І в той час як деякі люди просувають те, що вони вважають новим, бере крайовий тренд, наприклад розгортання робочих навантажень штучного інтелекту на периферійних пристроях — ці ідеї здаються більш ніж трохи химерними. Вашому типовому периферійному пристрою, як-от смартфону, не вистачає апаратної потужності, щоб служити високопродуктивним механізмом штучного інтелекту.

    пов'язані:Хмарні обчислення у 2024 році: штучний інтелект, оптимізація витрат формують ландшафт

    Граничні обчислення не зникнуть повністю. Але в 2025 році і далі він, швидше за все, буде здаватися дедалі менш гострим.

    3. Зростаючий інтерес до Supercloud

    За останні два-три роки, суперхмара — концепція хмарної архітектури, яка передбачає абстрагування базових хмарних платформ та інфраструктури таким чином, щоб уможливити уніфікований рівень керування, який працює на всіх публічних, приватних і гібридних хмарних платформах — повільно, але впевнено зростає популярність.

    Наразі суперхмара залишається більше концепцією, ніж реальністю, і малоймовірно, що вона стане мейнстрімом у 2025 році. Однак суперхмара цілком може стати дедалі важливішим трендом у новому році, оскільки компанії шукають більш гнучких підходів до розгортання та керування хмарними робочими навантаженнями.

    4. Багатохмарність стає очікуванням

    Коли близько п’яти років тому ідея використання кількох хмар одночасно стала популярною, багатохмарні архітектури здебільшого розглядалися як щось, що приємно мати, а не як необхідність.

    Але це змінюється, оскільки мультихмарність стає нормою. Підприємства все частіше розуміють, що використання лише однієї хмари ставить їх у невигідне становище. Можливо, вони втрачають важливі можливості оптимізації витрат або позбавляють свої команди та відділи можливості використовувати ті хмарні платформи та інструменти, які вони вважають найбільш корисними.

    З цих причин очікуйте, що 2025 рік стане роком, коли мультихмарність стане очікуванням, а не винятком.

    5. Інтенсифікація викликів хмарної відповідності

    Відповідність у хмарі ніколи не була простою, але у 2025 році вона стане ще складнішою.

    Основна причина цього полягає в тому, що цілий ряд нових правил відповідності, особливо тих, які спрямовані на регулювання штучного інтелекту або підвищення стійкості кібербезпеки, знаходяться в розпалі появи в мережі. різноманітність Правила ШІ знаходяться в розробці, а нові правила кібербезпеки, такі як DORA та NIS 2, або нещодавно набули чинності, або набудуть чинності в новому році.

    Здебільшого ці правила не включають конкретні норми, спрямовані конкретно на хмарні обчислення. Але вони містять нові вимоги щодо безпеки та конфіденційності даних. Це означає, що організаціям, які використовують хмару, доведеться більше працювати, щоб гарантувати, що їхнє хмарне середовище відповідає новим нормам, а також продовжувати відповідати іншим стандартам, які не такі вже й нові, як-от GDPR та CPRA.

  • ІТ-директор Неаполя (Флорида) передбачає міцне ІТ-середовище міста

    ІТ-директор Неаполя (Флорида) передбачає міцне ІТ-середовище міста

    STATETECH: Які поточні ІТ-пріоритети та найближчі віхи для Неаполя, коли йдеться про технологічну інфраструктуру міста?

    ХАНТЕР: Ми дійсно на тему стійкість і резервуванняпрагнучи спочатку замінити частину нашого застарілого обладнання на сучасні технології. Ми також хочемо забезпечити фінансування програм на майбутнє, щоб підтримувати їх життєздатність. Ми вбудовуємо резервування даних у наш підхід до центру обробки даних. Ми встановлюємо дзеркало нашого основного центру обробки даних. Знову ж таки, відмовостійкість залежить від кількох пріоритетів, які ми маємо в телекомунікаціях у нашій волоконно-оптичній мережі та, загалом, у нашому підході до центру обробки даних, включаючи аж до системи кондиціонування повітря в центрі обробки даних.

    STATETECH: Враховуючи, що Неаполь стикається з загрозами ураганів, чи впливає це на ваші рішення щодо стійкості?

    ХАНТЕР: Перш ніж приєднатися до цього дзвінка, я дивився на прогноз для наступної системи в Мексиканській затоці. Я не хочу зосереджуватися на теми, пов'язані з ураганамиале це правда про те, де ми є. Коли я приїхав сюди, одна з речей, яку ми помітили, це те, що протягом тривалого часу не було значних інвестицій в ІТ-простір. Мало того, що обладнання було старішим, ми не мали належних процесів резервного копіювання. У нас не було відповіді на те, що станеться з нашим головним центром обробки даних і тому подібне в надзвичайних ситуаціях. Отже, стійкість – це набагато більше, ніж засіб підготовки до урагану. Ми можемо зіткнутися з проблемою, створеною людиною. Це може бути просто несправність комп’ютера. Це може бути подія кібербезпеки. З точки зору ІТ-технологій, вбудовувати резервування у свої рішення є розумною практикою.

    ПИНРАЙТЕ ГЛИБШЕ: Сильна кіберстійкість є ключем до успіху організації.

    STATETECH: Чи означало це більше інвестицій у хмару?

    ХАНТЕР: Як і багато інших міст, ми гібридні. Ми зберігаємо локально дані, які потребують великої кількості даних. Коли ми дивимося на вартість хмари для нас, це вартість доставки великих обсягів даних до та з хмари. Ми підтримуємо наші основні файлові сховища, наприклад, на місці. А потім, якщо це має сенс, ми оцінюємо рішення, щоб перенести їх у хмару. Коли з’являються можливості, ми зважуємо всі плюси та мінуси збереження чогось локального та перенесення в хмару. Ми починаємо переносити все більше речей у хмару; Я думаю, що це природний розвиток.

    Ми переходимо в хмару для збільшення кількості послуг. Переміщуючи програму в хмару, ми отримуємо досвід компанії, яка підтримує цю програму, і отримуємо масштабовану інфраструктуру для її підтримки.

    Хмарні програми не захищені від кібератакзвичайно. Їх весь час б'ють. Але хороша новина полягає в тому, що ви можете інвестувати в декілька хмарних середовищ. Атака може не зруйнувати всю вашу інфраструктуру. Ви розподіляєте свій ризик між кількома хмарами.

    Ми вирішуємо зберігати деякі речі локально, наприклад записи камер спостереження. Ми тримаємо це ближче, тому що пов’язані з цим витрати на зберігання та передачу даних дуже високі. Ми також зберігаємо деякі важливі дані, включно з плановою документацією, яку вимагає міський секретар, з міркувань близькості.

  • Що потрібно знати про Microsoft Azure, платформу хмарних обчислень

    Що потрібно знати про Microsoft Azure, платформу хмарних обчислень

    • Microsoft Azure — це хвалена платформа хмарних обчислень Microsoft.
    • Azure пропонує ряд хмарних рішень для створення програм і керування ними.
    • У більшості продуктів Azure використовується розрахована модель ціноутворення, але деякі продукти також можна використовувати безкоштовно.

    Microsoft Azure — це платформа хмарних обчислень Microsoft, яка пропонує низку хмарних обчислень, мереж і послуг зберігання даних.

    Microsoft Azure може похвалитися «рішеннями, які дозволяють організаціям створювати, розгортати та керувати програмами та службами через глобальну мережу центрів обробки даних Microsoft».

    Кришталево чистий, правда? Не хвилюйтеся, ми розберемо це для вас, але спочатку просто для уточнення: Azure справді є обчислювальною платформою, а не просто платформою зберігання.

    Коротше кажучи, Azure дозволяє вам робити речі, які вимагають набагато більшої обчислювальної потужності, ніж ваш комп’ютер, оскільки обчислення виконуються далеко від вашого столу, дивана чи столика в кафе. Тепер для довшого огляду.

    Коли було створено Microsoft Azure?

    Та сама компанія, яка принесла вам PowerPoint, Word тощо, запустила Azure як Windows Azure ще в 2010 році, змінивши його на Microsoft Azure у 2014 році. Із запуском інтерфейсу штучного інтелекту компанії Copilot у 2023 році користуватися Azure стало легше, ніж будь-коли, оскільки розумний інтерфейс чату може допомогти користувачам, які не розуміються в техніці, скористатися перевагами багатьох застосувань Azure.

    Зараз Azure використовується великою кількістю малих і великих підприємств і організацій. Дійсно, Azure стала настільки цінною платформою та набором послуг, що Microsoft пропонує сертифікацію десятків різних функцій і програмного забезпечення Azure, щоб допомогти ІТ-фахівцям, розробникам та інженерам вивчити тонкощі.

    Azure стала критично важливим компонентом бізнес-моделі Microsoft після її запуску в 2010 році, і керівники часто хваляться доходами Azure у дзвінках про прибутки.

    Однак Azure не була застрахована від турбулентності в технологічній індустрії в епоху після пандемії. Великі раунди звільнень у корпорації Майкрософт — це, як правило, питання «коли», а не «якщо», тому навряд чи було великим шоком, коли сотні співробітників Azure були звільнені на початку літа 2024 року.

    Велика серія скорочень робочих місць стосувалася спеціально працівників відділів Azure for Operators і Mission Engineering і була частиною плану звільнень, розпочатих у 2023 році та розширених у 2024 році.

    Служби Microsoft Azure

    Azure дозволяє вам використовувати вже величезний і постійно зростаючий каталог послуг; було б занадто важко охопити їх усі тут, тому ми продемонструємо кілька речей, які ви можете робити за допомогою цієї платформи хмарних обчислень.

    ШІ-пошук Azure: ця послуга дає змогу виконувати розширений інтелектуальний пошук і створювати векторизовану базу даних відповідної отриманої інформації.

    Відкриті набори даних Azure: розміщуйте та діліться підібраними наборами даних, які вдосконалюються за допомогою машинного навчання та з часом стають точнішими.

    Розпізнавання мовця: ця послуга дозволяє постійно вдосконалювати розпізнавання мовлення та інтегрує вимовлені слова в програму, документи тощо. Звичайно, він багатомовний.

    Безпека вмісту штучного інтелекту Azure: Azure може автоматично стежити за зображеннями, текстом і відеоконтентом, які можуть бути неприйнятними — або просто нерелевантними — і фільтрувати їх із вашого вмісту.

    Скільки коштує Microsoft Azure?

    Більшість продуктів Azure використовують модель оплати за використання, а не фіксовані ставки для різних продуктів або фіксовану щомісячну плату. Ваші витрати можуть сягати найменших копійок щомісяця на базове хмарне сховище чи керований хостинг простого веб-сайту або досягати тисяч доларів за використання безлічі продуктів із підтримкою ШІ на рівні підприємства.

    Багато продуктів Azure також можна використовувати безкоштовно. Нові користувачі можуть користуватися 25 послугами безкоштовно протягом 12 місяців, тоді як інші залишаються безкоштовними в будь-який час для всіх людей. До них належать керування API, служба Azure AI Bot Service і Azure AI Metrics Advisor, щоб назвати лише деякі.

    Microsoft Azure проти AWS і Google Cloud

    Amazon Web Services (AWS) є лідером у хмарних обчисленнях і сховищах, можливо, лідирує в мережах, хмарних сховищах, мобільних розробках і кібербезпеці.

    Google Cloud Platform GCP займається аналізом даних і, мабуть, забезпечує найпростіший користувацький досвід і бездоганну взаємодію з продуктами, створеними іншими брендами.

    Microsoft Azure, зі свого боку, надає широкомасштабовані та ефективні програмні продукти, і це зазвичай дешевше, ніж Google Cloud або AWS.