Категорія: Обчислення в Хмарі

  • Як Workers VPC Services підключається до ваших регіональних приватних мереж з будь-якої точки світу

    Як Workers VPC Services підключається до ваших регіональних приватних мереж з будь-якої точки світу

    У квітні ми поділилися нашим баченням щодо a глобальна віртуальна приватна хмара на Cloudflareспосіб розблокувати ваші програми від регіонально обмежених хмар і локальних мереж, що дає змогу створювати справді міжхмарні програми.

    Сьогодні ми оголошуємо про першу віху нашої ініціативи Workers VPC: послуги VPC. Служби VPC дозволяють підключатися до ваших API, контейнерів, віртуальних машин, безсерверних функцій, баз даних та інших служб у регіональних приватних мережах через Тунелі Cloudflare від вашого Робітники бігати в будь-якій точці світу.

    Налаштувавши тунель у вашій бажаній мережі, ви можете зареєструвати кожну службу, яку бажаєте відкрити для Workers, налаштувавши її хост або IP-адресу. Після цього ви зможете отримати доступ до служби VPC, як і будь-якої іншої Службова прив'язка працівників — Мережа Cloudflare автоматично спрямовуватиметься до служби VPC через мережу Cloudflare, незалежно від того, де виконується ваш Worker:

    export default {
      async fetch(request, env, ctx) {
        // Perform application logic in Workers here	
    
        // Call an external API running in a ECS in AWS when needed using the binding
        const response = await env.AWS_VPC_ECS_API.fetch("http://internal-host.com");
    
        // Additional application logic in Workers
        return new Response();
      },
    };

    Workers VPC тепер доступний для всіх, хто використовує Workers, без додаткових витрат протягом бета-версії, як і Cloudflare Tunnels. Спробуйте зараз. І читайте далі, щоб дізнатися більше про те, як це працює під капотом.

    Безпечне підключення мереж, яким ви довіряєте

    Ваші програми охоплюють кілька мереж, незалежно від того, чи є вони локальними чи зовнішніми хмарами. Але було важко підключитися від Workers до ваших API і баз даних, заблокованих за приватними мережами.

    Ми маємо описані раніше як традиційні віртуальні приватні хмари та мережі закріплюють вас у традиційних хмарах. Незважаючи на те, що вони забезпечують ізоляцію робочого навантаження та безпеку, традиційні віртуальні приватні хмари ускладнюють створення між хмарами, доступ до власних програм і вибір правильної технології для вашого стеку.

    Значною частиною прив’язки до хмари є невід’ємна складність створення безпечних, розподілених робочих навантажень. Піринг VPC вимагає від вас налаштування таблиць маршрутизації, груп безпеки та списків контролю доступу до мережі, оскільки він покладається на роботу в хмарах для забезпечення підключення. У багатьох організаціях це означає тижні обговорень і залучення багатьох команд для отримання схвалень. Ця прив’язаність також відображена в рішеннях, винайдених для вирішення цієї складності: кожен постачальник хмарних послуг має власну спеціальну версію «Приватного посилання» для полегшення з’єднання між мережами, ще більше обмежуючи вас цією хмарою та постачальниками, які її інтегрували.

    З Workers VPC ми значно спрощуємо це. Ви налаштовуєте тунель Cloudflare один раз і маєте необхідні дозволи для доступу до вашої приватної мережі. Потім ви можете налаштувати Workers VPC Services із тунелем і ім’ям хоста (або IP-адресою та портом) служби, яку ви хочете надати Workers. Будь-який запит, зроблений до цієї служби VPC, використовуватиме цю конфігурацію для маршрутизації до зазначеної служби в мережі.

    {
      "type": "http",
      "name": "vpc-service-name",
      "http_port": 80,
      "https_port": 443,
      "host": {
        "hostname": "internally-resolvable-hostname.com",
        "resolver_network": {
          "tunnel_id": "0191dce4-9ab4-7fce-b660-8e5dec5172da"
        }
      }
    }

    Це гарантує, що після представлення служби Workers VPC служба у вашій приватній мережі захищена так само, як інші прив’язки Cloudflare за допомогою моделі прив’язки Workers. Давайте розглянемо простий приклад зв’язування служби VPC:

    {
      "name": "WORKER-NAME",
      "main": "./src/index.js",
      "vpc_services": [
        {
          "binding": "AWS_VPC2_ECS_API",
          "service_id": "5634563546"
        }
      ]
    }

    Як і інші прив’язки Worker, коли ви розгортаєте проект Worker, який намагається підключитися до служби VPC, дозволи на доступ перевіряються під час розгортання, щоб гарантувати, що Worker має доступ до відповідної служби. Після розгортання Worker може використовувати прив’язку служби VPC, щоб надсилати запити до цієї служби VPC — і лише до цієї служби в мережі.

    Це важливо: замість того, щоб відкривати всю мережу для Worker, Worker може отримати доступ лише до певної служби VPC. Цей доступ перевіряється під час розгортання, щоб забезпечити більш чіткий і прозорий контроль доступу до послуг, ніж традиційні мережі та списки контролю доступу.

    Це ключовий фактор у розробці прив’язок Workers: фактична безпека зі спрощеним керуванням і створення імунітету Workers до атак підробки запитів на стороні сервера (SSRF). Раніше ми глибоко вивчали модель обов’язкової безпекиі це стає набагато критичнішим під час доступу до ваших приватних мереж.

    Примітно, що модель зв’язування також важлива, якщо розглядати, що таке Workers: сценарії, що працюють у глобальній мережі Cloudflare. На відміну від традиційних хмар, вони не є окремими машинами з IP-адресами і не існують у мережах. Прив’язки забезпечують безпечний доступ до інших ресурсів у вашому обліковому записі Cloudflare – і те саме стосується служб Workers VPC.

    Отже, як служби VPC та їхні прив’язки направляють мережеві запити від Workers будь-де в глобальній мережі Cloudflare до регіональних мереж за допомогою тунелів? Давайте подивимося на життєвий цикл зразка HTTP-запиту, зробленого з виділеної служби VPC вибірка() запит представлений тут:


    Все починається в коді Worker, де .fetch() функція потрібної служби VPC викликається стандартним JavaScript запит (як показано на кроці 1). Середа виконання Workers використовуватиме a Капітан Прото remote-procedure-call, щоб надіслати оригінальний HTTP-запит разом із додатковим контекстом, як це робиться для багатьох інших прив’язок Workers.

    Працівник зв’язування системи обслуговування VPC отримує HTTP-запит разом із контекстом зв’язування, у цьому випадку це ідентифікатор служби VPC, що викликається. Binding Worker надсилатиме цю інформацію до служби Iris через підключення HTTP CONNECT, стандартний шаблон у прив’язках Cloudflare для розміщення логіки підключення до крайових служб Cloudflare у коді Worker, а не в самому середовищі виконання Workers (Крок 2).

    Служба Iris є основною послугою для Workers VPC. Його відповідальність полягає в тому, щоб приймати запити на послугу VPC і направляти їх до мережі, у якій знаходиться ваша служба VPC. Це робиться шляхом інтеграції з Аполлонвнутрішня служба Cloudflare One. Apollo надає уніфікований інтерфейс, який усуває складність безпечного підключення до мереж і тунелів, на різних рівнях мережі.

    Щоб інтегруватися з Apollo, Iris має виконати два завдання. Спочатку Iris розбере ідентифікатор служби VPC із метаданих і отримає інформацію про тунель, пов’язаний із ним, із нашого сховища конфігурацій. Це включає ідентифікатор тунелю та тип зі сховища конфігурації (Крок 3), що є інформацією, яка потрібна Iris для надсилання вихідних запитів до потрібного тунелю.

    По-друге, Iris створить дейтаграми UDP, що містять запитання DNS для записів A та AAAA імені хоста служби VPC. Ці дейтаграми будуть надіслані спочатку через Apollo. Після завершення вирішення DNS оригінальний запит надсилається разом із дозволеною IP-адресою та портом (Крок 4). Це означає, що кроки з 4 по 7 виконуються послідовно двічі для першого запиту: один раз для вирішення DNS і другий раз для вихідного запиту HTTP. Подальші запити отримують користь від кешування Iris інформації про вирішення DNS, мінімізуючи затримку запиту.

    На кроці 5 Apollo отримує метадані тунелю Cloudflare, до якого потрібно отримати доступ, а також UDP-дейтаграми розв’язання DNS або пакети TCP-запиту HTTP. Використовуючи ідентифікатор тунелю, він визначає, який центр обробки даних підключено до тунелю Cloudflare. Цей центр обробки даних знаходиться в регіоні поблизу тунелю Cloudflare, і тому Apollo направлятиме повідомлення DNS-розв’язання та вихідний запит до служби з’єднувача тунелю, що працює в цьому центрі обробки даних (Крок 5).


    Служба Tunnel Connector відповідає за надання доступу до тунелю Cloudflare решті мережі Cloudflare. Він передаватиме запити вирішення DNS, а згодом і вихідний запит до тунелю через протокол QUIC (Крок 6).

    Нарешті, Cloudflare Tunnel надішле запити про розв’язання DNS до розв’язувача DNS мережі, до якої він належить. Потім він надішле оригінальний HTTP-запит зі своєї власної IP-адреси на IP-адресу призначення та порт (Крок 7). Результати запиту потім передаються назад до початкового Worker, від центру обробки даних, найближчого до тунелю, аж до оригінального центру обробки даних Cloudflare, який виконує запит Worker.

    Що сервіс VPC дозволяє створювати

    Це відкриває цілу нову серію програм, які ви можете створювати на Cloudflare. Протягом багатьох років Workers досягали успіху на краю, але вони здебільшого залишалися поза межами вашої основної інфраструктури. Вони могли викликати лише загальнодоступні кінцеві точки, обмежуючи їхню здатність взаємодіяти з найбільш критичними частинами вашого стеку, такими як API приватних облікових записів або внутрішня база даних інвентаризації. Тепер, завдяки службам VPC, працівники можуть безпечно отримувати доступ до цих приватних API, баз даних і служб, докорінно змінюючи те, що можливо.


    Це миттєво вмикає справжні міжхмарні програми, які охоплюють Cloudflare Workers і будь-яку іншу хмару, як-от AWS, GCP або Azure. Ми бачили, як багато клієнтів прийняли цей шаблон під час нашої приватної бета-версії, встановлюючи приватне з’єднання між їхніми зовнішніми хмарами та Cloudflare Workers. Ми навіть зробили це самі, підключивши наших робочих до служб Kubernetes у наших основних центрах обробки даних, щоб забезпечити роботу API рівня керування для багатьох наших служб. Тепер ви можете створювати таку саму потужну розподілену архітектуру, використовуючи Workers для глобального масштабу, зберігаючи при цьому інформаційні сервери в мережі, якій ви вже довіряєте.

    Це також означає, що ви можете підключатися до своїх локальних мереж із Workers, дозволяючи модернізувати застарілі програми за допомогою продуктивності та нескінченного масштабу Workers. Ще більш цікавими є деякі випадки використання для робочих процесів розробників. Ми бачили, як розробники біжать cloudflared на своїх ноутбуках, щоб підключити розгорнутий Worker до локальної машини для налагодження в реальному часі. Повна гнучкість Cloudflare Tunnels тепер є програмованим примітивом, доступним безпосередньо з вашого Worker, що відкриває цілий світ можливостей.

    Послуги VPC – це перша віха в масштабній ініціативі Workers VPC, але ми тільки починаємо. Наша мета — зробити підключення до будь-якої служби та будь-якої мережі в будь-якій точці світу безперебійною частиною роботи Workers. Ось над чим ми працюємо далі:

    Глибша мережева інтеграція. Почати з Cloudflare Tunnels було свідомим вибором. Це надзвичайно доступне, гнучке та знайоме рішення, що робить його ідеальною основою для розвитку. Щоб надати більше можливостей для корпоративних мереж, ми додамо підтримку стандартних тунелів IPsec, Cloudflare Network Interconnect (CNI) і AWS Transit Gateway, надаючи вам і вашим командам більше можливостей вибору та потенційної оптимізації. Важливо те, що ці з’єднання також стануть справді двонаправленими, дозволяючи вашим приватним службам ініціювати з’єднання з ресурсами Cloudflare, наприклад надсилати події в черги або отримувати з R2.

    Розширена підтримка протоколів і сервісів. Наступним кроком після HTTP є надання доступу до служб TCP. Спочатку це буде досягнуто шляхом інтеграції з Hyperdrive. Ми розвиваємо попередню підтримку Hyperdrive для приватних баз даних, щоб її було спрощено за допомогою конфігурації VPC Services, уникаючи необхідності додавати Cloudflare Access і керувати маркерами безпеки. Це створює більш нативний досвід разом із потужним пулом з’єднань Hyperdrive. Після цього ми додамо ширшу підтримку необроблених TCP-з’єднань, відкриваючи пряме підключення до таких служб, як кеш Redis і черги повідомлень з Workers ‘connect()’.

    Сумісність екосистем. Ми хочемо, щоб підключення до приватної служби було таким же природним, як підключення до публічної. Для цього ми надамо унікальне автоматично згенероване ім’я хоста для кожної служби Workers VPC, подібне до Рядки підключення Hyperdrive. Це спростить використання Workers VPC з існуючими бібліотеками та бібліотеками об’єктно-реляційного відображення, які можуть потребувати імені хоста (наприклад, у глобальному 'fetch()' виклик або рядок підключення MongoDB). Ім’я хоста служби Workers VPC автоматично розпізнається та спрямовується до правильної служби VPC, так само, як “fetch()' робить команда.

    Почніть роботу з Workers VPC

    Сьогодні ми раді запустити відкриту бета-версію Workers VPC Services. Ми витратили місяці на створення та тестування нашої першої віхи для доступу працівників до приватної мережі. І ми вдосконалили його на основі відгуків внутрішніх команд і клієнтів під час закритого бета-тестування.

    Тепер ми з нетерпінням чекаємо можливості кожному створювати кросхмарні програми на Workers with Workers VPC, доступні безкоштовно під час відкритого бета-тестування. За допомогою Workers VPC ви можете наблизити свої програми в приватних мережах до регіону Земля, наблизити їх до своїх користувачів і зробити їх доступними для Workers у всьому світі.

    Почніть користуватися Workers VPC Services безкоштовно зараз.

  • SonicWall представляє єдину платформу для боротьби зі складними кіберзагрозами

    SonicWall представляє єдину платформу для боротьби зі складними кіберзагрозами

    Компанія SonicWall детально розповіла про свої зусилля, спрямовані на надання комплексних рішень безпеки, розроблених для боротьби зі все більш складними середовищами кіберзагроз.

    Маючи тридцятилітній досвід у сфері кібербезпеки, SonicWall описав стратегічну еволюцію від свого походження як постачальника брандмауера до ширшої платформи кібербезпеки, визнаючи, що мінливий ландшафт загроз потребує постійної адаптації.

    Підхід компанії тепер включає уніфіковану платформу безпеки, яка охоплює розширений захист від загроз, керовані служби безпеки (MSS), кероване виявлення та реагування (MDR) через SonicSentry та хмарну безпеку через продукт Cloud Secure Edge. Цей уніфікований підхід має на меті запропонувати кращу видимість і контроль над кінцевими точками, мережами та хмарними робочими навантаженнями, узгоджуючи з операційними потребами постачальників послуг та їхніх клієнтів.

    «Ми зосереджені на забезпеченні тісно інтегрованої екосистеми безпеки, яка включає розширений захист від загроз, керовані служби безпеки (MSS), кероване виявлення та реагування (MDR) через SonicSentry, хмарну безпеку через Cloud Secure Edge та уніфіковану видимість між кінцевими точками, мережами та хмарними робочими навантаженнями. Поєднуючи наші інновації з операційними потребами постачальників послуг, ми дозволяємо їм ефективніше масштабуватися, швидше реагувати на загрози та забезпечувати вимірну цінність для своїх клієнтів».

    SonicWall працює як компанія, яка на 100% керується партнерами, і працює з більш ніж 17 000 партнерами по всьому світу. За словами компанії, ця партнерська мережа має фундаментальне значення для її захисту бізнесу клієнтів і сприяє збільшенню її частки ринку. Трансформація компанії спрямована на те, щоб її платформа безпеки стала кращим вибором для постачальників керованих послуг (MSP) і постачальників керованих послуг безпеки (MSSP), забезпечуючи масштабований захист на рівні підприємства без додаткової складності.

    «Будучи компанією, яка на 100% керується партнерами, з понад 17 000 сильних і активних партнерів по всьому світу, наші партнери є подовженою рукою в захисті бізнесу клієнтів щодня. Завдяки їм наша частка ринку продовжує збільшуватися в ключових цінових брендах і сегментах ринку. Тому дуже важливо, щоб наше позиціонування трансформації стало платформою вибору для MSP і MSSP, дозволяючи їм забезпечувати масштабований захист корпоративного рівня своїм клієнтам. без додаткової складності. Для наших клієнтів у всьому світі це означає, що вони можуть розраховувати на SonicWall не лише на точкові продукти, але й на інтегроване рішення, орієнтоване на партнерів, яке адаптується до їхніх потреб у безпеці, що розвиваються».

    Компанія також виявила поточні проблеми в середньому ринковому сегменті в Азіатсько-Тихоокеанському регіоні (APAC) та Індії, особливо для організацій, яким не вистачає спеціалістів із кібербезпеки. Цей дефіцит кваліфікованого персоналу може затримати реагування на інциденти та ускладнити для компаній боротьбу зі складними та новими загрозами. Крім того, багато організацій у цих регіонах використовують застарілі або фрагментовані системи безпеки, що призводить до ускладнення операцій і зниження захисних можливостей.

    «Ми виявили, що сьогодні середній ринковий сегмент Азіатсько-Тихоокеанського регіону та Індії стикається з кількома критичними проблемами в досягненні надійної кібербезпеки. Ці прогалини створюють значні ризики та перешкоджають здатності організацій ефективно захищатися від загроз, що розвиваються. Багатьом організаціям у цих регіонах не вистачає спеціалістів із кібербезпеки або команд, які мають необхідний досвід для боротьби зі складними загрозами. Через брак кваліфікованих ресурсів підприємствам важко керувати операціями безпеки, оперативно реагувати на інциденти та випереджати нові ризики. Крім того, інфраструктури безпеки часто покладаються на безліч різноманітних і застарілих інструментів, що створює сліпі зони та ускладнює управління, знижуючи загальну ефективність системи безпеки та ускладнюючи роботу».

    Щоб усунути ці прогалини, SonicWall пропонує уніфіковану платформу керування та рішення з нульовою довірою, розроблені для покращення видимості, контролю та захисту для всіх пристроїв у межах підприємства. У компанії кажуть, що такі заходи допомагають організаціям раніше виявляти загрози, зменшувати їхній ризик і спрощувати операції безпеки, особливо на ринках, що розвиваються, де ресурси можуть бути обмеженими.

    «Уніфікована платформа управління SonicWall і рішення з нульовою довірою покращують видимість, контроль і захист усіх пристроїв, якими керують, так і іншим чином, на підприємстві. Цей підхід допомагає організаціям завчасно виявляти загрози, зменшувати ризик і спрощувати операції безпеки, особливо на ринках, що розвиваються, таких як Індія, шляхом скорочення часу реагування та забезпечення централізованого контролю».

    Компанія SonicWall заявила, що зосереджуватиметься на задоволенні потреб організацій у кібербезпеці, незалежно від їхнього розміру, співпрацюючи зі своєю партнерською спільнотою для надання низки послуг. Компанія відзначає свою відданість дослідженню як органічних, так і неорганічних можливостей для вирішення нових і нових проблем кібербезпеки з урахуванням інтересів своїх партнерів і клієнтів.

    «SonicWall продовжуватиме пропонувати рішення, націлені на допомогу організаціям у вирішенні проблем кібербезпеки, незалежно від їхнього розміру — ММСП, малого та середнього бізнесу чи великого підприємства. Компанія продовжуватиме співпрацювати зі своєю величезною партнерською спільнотою, щоб надавати низку комплексних послуг. Крім того, SonicWall також прагне досліджувати нові можливості, як органічні, так і неорганічні, для вирішення нових проблем кібербезпеки, враховуючи потреби партнерів та Наша мета — надавати ефективніші та ефективніші продукти та послуги, прості у використанні та впровадженні».

  • Fortune Tech: OpenAI x Amazon, Palantir перевищує прогнози, Франція загрожує забороною Шеїну

    Fortune Tech: OpenAI x Amazon, Palantir перевищує прогнози, Франція загрожує забороною Шеїну

    доброго ранку Дикі новини в Financial Times сьогодні вранці, в якому повідомляється, що Китай суттєво збільшив енергетичні субсидії для деяких зі своїх найбільших центрів обробки даних, намагаючись зміцнити свої позиції в глобальній гонці ШІ.

    Цей крок міг би «скоротити рахунки за електроенергію майже вдвічі» — значущий крок для таких компаній, як Alibaba, ByteDance і Tencent, оскільки витрати на електроенергію зростають через використання мікросхем власного виробництва Huawei і Cambricon, які менш ефективні, ніж ті, які виробляє каліфорнійська Nvidia.

    (І ні, центри обробки даних, які використовують іноземні мікросхеми, не мають права на знижки.)

    США, безумовно, роблять свій внесок, щоб допомогти своїм компаніям конкурувати з Китаєм. Різні штати надавали Big Tech податкові пільги для будівництва нових центрів обробки даних, а оператори об’єктів лобіювали адміністрацію Трампа, щоб зберегти податкові кредити на чисту енергію епохи Байдена, замість того, щоб прискорити їх загибель, щоб залишатися конкурентоспроможними у всьому світі.

    Чи діють у США великі, красиві енергетичні субсидії, що забезпечують штучний інтелект? Побачимо. Сьогоднішні технічні новини нижче. — Ендрю Нуска

    Хочете надіслати думки чи пропозиції Fortune Tech? Додайте рядок тут.

    OpenAI і AWS уклали угоду з хмарних обчислень на 38 мільярдів доларів

    Генеральний директор Amazon Web Services Метт Гарман у Кенджу, Південна Корея, 29 жовтня 2025 р. (Фото: SeongJoon Cho/Bloomberg/Getty Images)
    Генеральний директор Amazon Web Services Метт Гарман у Кенджу, Південна Корея, 29 жовтня 2025 р. (Фото: SeongJoon Cho/Bloomberg/Getty Images)

    SeongJoon Cho/Bloomberg/Getty Images

    Втомився: ще один день, ще одна нова модель ШІ.

    Wired: ще один день, ще одна нова угода щодо обчислень штучного інтелекту.

    OpenAI і Amazon оголошено в понеділок що перший заплатить другому 38 мільярдів доларів протягом семи років за обчислювальну потужність, щоб підживлювати свої мрії про штучний інтелект.

    OpenAI каже, що навчатиме нові моделі ШІ та оброблятиме запити ChatGPT за допомогою засобів Amazon.

    (Звучить знайомо? Нещодавно OpenAI уклав набагато більші — додайте цифру — хмарні угоди з Microsoft і Oracle.)

    Amazon каже, що його відділ веб-сервісів зможе надати все, що потрібно OpenAI, до кінця наступного року. Після цієї новини акції більшої компанії зросли на 5%.

    Як я писав у п’ятничному випуску цього інформаційного бюлетеня, AWS становить менше однієї п’ятої від загального доходу Amazon, але здається, що інвестори бачать у 99% випадків можливість зростання компанії.

    Це вже найбільший постачальник хмарних обчислень на планеті (приблизно з третиною ринку), але змагання за залучення нового бізнесу від клієнтів штучного інтелекту не можуть бути більш конкурентоспроможними, протиставляючи Amazon постійним конкурентам Microsoft, Google та іншим.

    Говорячи про конкуренцію: одним із головних проектів Amazon є багатомільярдний кампус хмарних обчислень для Anthropic, від Puma до Adidas OpenAI.

    Незручно? Не у взаємопов’язаному світі, який є бумом ШІ. —АН

    Palantir публікує «найкращі результати, які коли-небудь досягала будь-яка компанія-виробник програмного забезпечення»

    У понеділок у третьому кварталі компанія Palantir показала грандіозний прибуток, який перевищив оцінки аналітиків, і викликав бурхливе захоплення торговою маркою генерального директора Алекса Карпа.

    “Ці цифри підтверджують, що ми були праві. Будь ласка, навчіться у нас. Ось що означають ці цифри”, – Карп розповів Фортуна.

    Він був ще сміливішим під час наступного дзвінка про прибутки компанії. “Це не нормальні результати. Це навіть не сильні результати. Це не надзвичайні результати”, – сказав Карп. «Це, мабуть, найкращі результати, які коли-небудь досягала будь-яка компанія, що займається програмним забезпеченням».

    Дохід Palantir у третьому кварталі склав приблизно 1,2 мільярда доларів, що на 63% більше, ніж за період минулого року, і вище середніх очікувань аналітиків у 1,09 мільярда доларів.

    Чистий прибуток компанії в розмірі 476 мільйонів доларів збільшився на 40% порівняно з аналогічним періодом минулого року.

    У той час як державні контракти Palantir залишаються сильними, бізнес від комерційних клієнтів США сприяв зростанню компанії в третьому кварталі, збільшившись на 121% за рік до 397 мільйонів доларів США.

    Показники доходу Palantir все ще досить невеликі порівняно з аналогами з подібною ринковою капіталізацією. А висока оцінка компанії викликала скептицизм у деяких інвесторів, стурбованих бульбашкою штучного інтелекту.

    Регуляторні документи від понеділка показують, що Майкл Беррі, шановний продавець коротких позицій, відомий своєю великою ставкою проти ринку субстандартних іпотечних кредитів у 2008 році, взяв коротку позицію як у Palantir, так і в Nvidia. (Компанії нещодавно уклали партнерство.)

    У листі до інвесторів Карп, здається, не був стурбований: «Деякі з наших недоброзичливців були залишені в якомусь божевільному та саморуйнівному заплутанні». — Джессіка Метьюз

    Франція погрожує заборонити Шеїну через скандал із секс-ляльками

    О так так.

    Заснований у Китаї роздрібний продавець Shein оголосив у понеділок, що ввів «повну заборону» на продаж секс-ляльок на своїх сайтах після того, як французька влада погрожував заблокувати підприємство з ринку.

    Що сталося, запитаєте ви? Все почалося з того, що прокуратура Парижа виявила, що почала розслідування проти Shein та інших роздрібних торговців щодо продажу секс-ляльок, зокрема «дитячих» товарів. що з'явилося на своїх ринках.

    «Ці жахливі предмети є незаконними», — заявив міністр фінансів Франції Ролан Лескюр місцевому ЗМІ, додавши, що він би вигнав компанію з Франції, якщо ці предмети не будуть негайно викорінені.

    Shein — світовий виробник швидкої моди зі штаб-квартирою в Сінгапурі — був лише за кілька днів до відкриття свого першого магазину в Парижі, всередині універмагу BHV Marais, коли про це стало відомо.

    Не добре.

    Шейн заявив, що видалив усі існуючі списки та зображення, пов’язані з такими продуктами в усьому світі, на додаток до заборони. Роздрібний продавець також заявив, що розпочав внутрішнє розслідування та створив спеціальну команду із забезпечення якості, щоб розібратися в ситуації.

    Але це серйозна помилка для компанії, яка витримала нескінченну критику та штрафи за своє походження (китайське), продукцію (екологічно небезпечну), маркетинг (введення в оману) та трудову практику (виснажлива).

    «Ці [products] надійшли від сторонніх постачальників», — як повідомляється, заявив виконавчий директор Shein Дональд Танг, «але я беру особисту відповідальність». —АН

    Більше техніки

    Microsoft і IREN підписали угоду на суму 9,7 мільярда доларів для обчислень AI.

    Генеральний директор MongoDB йде у відставку. Дева Іттічерію замінить ветеран Cloudflare Чирантан Десаї.

    Трамп про Changpeng “CZ” Zhao з Binanceякого він помилував: «Я не знаю, хто він».

    Apple випускає «тоноване» рідке скло для всіх операційних систем.

    Deel називає CFO. Колишній генеральний директор Credit Karma Джо Кауфман стає фінансовим директором стартапу, який збирається на IPO.

    Xanadu стане публічним через SPAC. Подвійний канадсько-американський план оцінює об’єднаний бізнес квантових обчислень у ~3,6 мільярда доларів.

    Заперечення CODA Sora 2. Японська торгова асоціація, яка представляє Studio Ghibli і Square Enix, вимагає від OpenAI припинити використання захищеного авторським правом вмісту учасників.

    Це веб-версія Fortune Tech, щоденного інформаційного бюлетеня, у якому розбираються найбільші гравці та історії, які формують майбутнє. Зареєструйтеся, щоб отримати його безкоштовно на вашу поштову скриньку.
  • Доступний новий офіційний документ – ШІ ​​для безпеки та Безпека для ШІ: навігаційні можливості та виклики

    Доступний новий офіційний документ – ШІ ​​для безпеки та Безпека для ШІ: навігаційні можливості та виклики

    Поява ШІ як трансформаційної сили змінює підхід організацій до безпеки. Незважаючи на те, що технології штучного інтелекту можуть розширити людський досвід і підвищити ефективність операцій безпеки, вони також створюють ризики, починаючи від зниження технічних бар’єрів для суб’єктів загрози до неточних результатів.

    Оскільки впровадження штучного інтелекту прискорюється разом із кіберзагрозами та зростаючою різноманітністю правил, адаптація стратегій безпеки та відповідності є критично важливою.

    Глобальна перспектива кібербезпеки Всесвітнього економічного форуму 2025 показує, що 66% організацій очікують, що штучний інтелект значно вплине на кібербезпеку.

    Ми раді поділитися технічним документом, який ми нещодавно написали спільно з SANS Institute під назвою AI for Security і Security for AI: Navigation Opportunities and Challenges. Офіційний документ досліджує використання систем штучного інтелекту через три взаємопов’язані лінзи: захист генеративних програм ШІ, використання генеративного ШІ для посилення загальної безпеки в хмарі та захист від генеративних загроз ШІ. Основні міркування включають наступне:

    • Розуміння генеративного ШІ та агентів ШІ
    • Огляд генеративних випадків використання ШІ
    • Використання ключових концепцій для розробки генеративних рішень ШІ
    • Перевірка виходів великої мовної моделі (LLM) за допомогою автоматизованих міркувань
    • Впровадження відповідальних практик ШІ протягом усього життєвого циклу ШІ
    • Найкращі методи безпеки масштабування
    • Баланс між автоматизацією штучного інтелекту та людським наглядом

    Ефективне використання генеративних технологій штучного інтелекту для покращення вашої безпеки при одночасному зниженні пов’язаних ризиків — це повторюваний процес, який відрізняється для кожної організації. У технічному документі детально описано основні дії, які можуть допомогти налаштувати вас на правильний шлях. Ми рекомендуємо вам завантажити його та отримати уявлення про те, як ви можете вирішити генеративну безпеку штучного інтелекту за допомогою багаторівневої стратегії, яка суттєво покращує ваші технічні та бізнес-результати. Чекаємо на ваші відгуки та на продовження спільної подорожі.

    Завантажте ШІ для безпеки та Безпека для ШІ: навігаційні можливості та виклики.


    Якщо у вас є відгуки про цю публікацію, надішліть коментарі в розділі коментарів нижче. Якщо у вас є запитання щодо цієї публікації, зверніться до служби підтримки AWS.

    Дас Дебаші

    Дас Дебаші

    Дебашіс є керівником офісу CISO в AWS, де він допомагає розширити вплив AWS CISO через залучення виконавчих клієнтів до клієнтів та охоплення громадської політики. Він також надає внутрішнє керівництво командам обслуговування AWS щодо рішень щодо архітектури безпеки, дотримуючись стандартів безпеки AWS і задовольняючи вимоги клієнтів, чутливих до безпеки. Останнім часом його зусилля були зосереджені на безпеці генеративного штучного інтелекту, вдосконаленні добре архітектурної структури AWS, зміцненні безпеки ланцюжка поставок програмного забезпечення та вдосконаленні стратегії безпеки з відкритим кодом.

    Ріггс Гудмен

    Ріггс Гудмен

    Ріггс є головним партнером-архітектором рішень в AWS. Зараз він зосереджений на безпеці штучного інтелекту, надає технічні рекомендації, шаблони архітектури та лідерство для клієнтів і партнерів щодо створення робочих навантажень штучного інтелекту на AWS. Внутрішньо Riggs зосереджується на просуванні загальної технічної стратегії та інновацій у командах обслуговування AWS для вирішення проблем клієнтів і партнерів.

    Доктор Пол Віксі

    Доктор Пол Віксі

    Пол є віце-президентом, заслуженим інженером і заступником керівника CISO в AWS. Він приєднався до AWS Security після 29-річної кар’єри як засновник і генеральний директор п’яти стартап-компаній, які охоплюють сфери DNS, захисту від спаму, інтернет-обміну, інтернет-пересилання та хостингу, а також безпеки в Інтернеті. У 2011 році він отримав ступінь доктора філософії з комп’ютерних наук в Університеті Кейо, а в 2014 році його включили до Зали слави Інтернету. Пол також відомий як автор програмного забезпечення з відкритим кодом, зокрема Cron. Пол і його команда в Офісі CISO використовують керівництво та технічний досвід, щоб надавати рекомендації та співпрацювати з розробки та впровадження передових стратегій безпеки та управління ризиками.

    Енн Гран

    Енн Гран

    Енн є старшим світовим спеціалістом з GTM в AWS, що базується в Чикаго. Вона має 15-річний досвід роботи в індустрії безпеки та зосереджена на ефективному інформуванні про ризики кібербезпеки. Вона має сертифікат сертифікованого спеціаліста з безпеки інформаційних систем (CISSP).

  • Сторінка не знайдена | interest.co.nz

    Сторінка не знайдена | interest.co.nz

    404

    Ой! Сторінка не знайдена

    Вибачте, але здається, що потрібної сторінки з такою URL-адресою не існує.

    Можливо, його переміщено або ви використали неправильну URL-адресу.

    Будь ласка, використовуйте рядок меню вище, щоб продовжити перегляд нашого веб-сайту.

    Якщо ви вважаєте, що ми неправі, будь ласка, повідомте нам про це, надіславши нам електронний лист на webmaster@interest.co.nz або скориставшись контактною формою внизу цієї сторінки.

  • Next Yacht Group запускає «Next AI-Integrated System» — першого місцевого помічника зі штучним інтелектом для розкішних яхт.

    Next Yacht Group запускає «Next AI-Integrated System» — першого місцевого помічника зі штучним інтелектом для розкішних яхт.

    Цифровий консьєрж, який знає кожну деталь яхти, підтримує як власника, так і екіпаж у повсякденних операціях, забезпечуючи безпеку, конфіденційність і повну надійність завдяки безперервній функціональності навіть без підключення до Інтернету чи хмари — це остання інновація в області штучного інтелекту, застосованого до яхтингу, яку Next Yacht Group — італійська досконалість, що стоїть за брендами AB Yachts і MAIORA — представить на борту своєї AB. 110, який дебютує на ринку на міжнародній виставці човнів у Форт-Лодердейлі (FLIBS) з 29 жовтня по 2 листопада 2025 року.

    next yacht group zapuskaye next ai integrated system — pershogo misczevogo Next Yacht Group запускає «Next AI-Integrated System» — першого місцевого помічника зі штучним інтелектом для розкішних яхт.

    за замовчуванням

    Next AI-Integrated System — це перша запатентована локальна інтегрована платформа AI, встановлена ​​безпосередньо на борту.

    Розроблений у партнерстві з AI Technologies, провідною італійською компанією зі штучного інтелекту та машинного навчання, та інтегрований із бортовими системами YES Group, системним інтегратором із багаторічним досвідом роботи в морському секторі, AI Assistant забезпечує керування всіма функціями яхти — освітленням, кліматом, сценаріями, розвагами — а також доступ до системних даних, таких як рівень палива та води, споживання енергії, тривоги та графіки технічного обслуговування.

    Він працює повністю в автономному режимі, забезпечуючи захист даних і постійний швидкий час відгуку.

    Це передове рішення продовжує шлях Групи до цифрової трансформації та інновацій.

    Сучасні яхти містять десятки різнорідних систем, кожна з яких має власне програмне забезпечення та інтерфейс — від автоматизації до безпеки, розваг і моніторингу — що часто призводить до фрагментованих команд і розосереджених даних. На відміну від хмарних систем, які залежать від підключення та можуть поставити під загрозу конфіденційність технічних даних, Next AI-Integrated System представляє нову парадигму: локальний цифровий мозок, який функціонує незалежно та автономно.

    Завдяки системі Next AI-Integrated System конфіденційність власника повністю захищена: усі дані та розмови залишаються на борту. Основні функції обробляються локально; З’єднання 5G/WAN є необов’язковим і використовується лише для віддаленого доступу лише для читання.

    Перший випуск — дебютний на FLIBS з живими демонстраціями та реальними прикладами використання на моделі AB 110 — представляє помічника в режимі текстового чату, інтегрованого в нові фірмові програми My AB і My Maiora, основні інтерфейси для керування системою ШІ.

    «Завдяки цьому надзвичайно інноваційному проекту ми переосмислюємо досвід роботи на борту», сказав Джорджіо Маттеї, заступник голови Next Yacht Group. “Для власника розкіш означає простоту та контроль. Ми пропонуємо помічника, який працює в будь-який час, будь-де — навіть посеред океану, без Інтернету — безпечно, безперервно та надійно. Це штучний інтелект, який належить яхті та її сім’ї, а не хмарі. Наш підхід насамперед локальний: дані, моделі та рішення залишаються на борту. ШІ надає відповіді, які можна перевірити, безпечно команди та глибока інтеграція з системами яхти. У нашому плані розвитку ми плануємо запровадити нові функції та послуги, такі як постійна голосова активація зі спеціальним словом пробудження та прогнозне обслуговування».

    Next AI-Integrated System є власним проектом Next Yacht Group і буде доступний для всього асортименту верфі, починаючи з 2026 року.

    Відвідайте www.nextyachtgroup.com


  • Vodafone укладає угоду про придбання хмари

    Vodafone укладає угоду про придбання хмари

    Vodafone укладає угоду про придбання спеціаліста з хмарних технологій Skaylink

    Vodafone Group уклала зобов’язуючу угоду про придбання 100 відсотків Skaylink GmbH (Skaylink) за загальну суму 175 мільйонів євро. Придбання буде здійснено в основному за рахунок коштів, якими керує Waterland Private Equity. У Vodafone заявили, що це придбання розширить його можливості в наданні керованих і цифрових послуг корпоративним і державним клієнтам. Угода є частиною плану Vodafone Business щодо розширення в таких сферах, як хмара, кібербезпека та керовані ІТ-послуги.

    Скайлінк є провідним фахівцем із повного спектру хмарних послуг, цифрової трансформації та безпеки з офісами по всій Німеччині та Європі. Команда з понад 500 професіоналів є визнаними експертами в управлінні хмарними розгортаннями та міграціями серед середовищ Microsoft і Amazon Web Services і впровадженні рішень ШІ для бізнес-клієнтів.

    Орієнтована на клієнта бізнес-модель Skaylink, можливості та присутність на ринку забезпечать бізнес-клієнтам і клієнтам державного сектору Vodafone доступ до розширеного набору цифрових послуг і підтримки. Угода є частиною прагнення Vodafone Business прискорити зростання в таких ключових сферах, як безпека, керовані послуги та хмара.

    Завершення операції очікується до кінця березня 2026 року за умови отримання необхідних дозволів регуляторних органів.

    Наразі Vodafone обслуговує понад 355 мільйонів клієнтів мобільного та широкосмугового зв’язку, керуючи мережами в 15 країнах з інвестиціями ще в п’яти та партнерствами на понад 40 додаткових ринках.

  • Заощадьте понад 1000 доларів США на 4 ТБ довічного хмарного сховища з FolderFort

    Заощадьте понад 1000 доларів США на 4 ТБ довічного хмарного сховища з FolderFort

    TL: DR: володійте своїм хмарним сховищем за допомогою плану FolderFort Cloud Storage Pro на 4 ТБ, який уже продається за 249,99 доларів США (стандартна вартість – 1299,99 доларів США).

    Які дані ви зберігаєте в хмарі? Ймовірно, це ваші найцінніші спогади та інформація, які заслуговують більше, ніж орендоване приміщення. Володійте своїм хмарним сховищем за допомогою FolderFort — безпечного постійного місця для зберігання ваших даних.

    Прямо зараз ви можете придбати тарифний план Cloud Storage Pro на 4 ТБ із FolderFort лише за 249,99 доларів США (стандартне значення 1299,99 доларів США).

    Візьміть під контроль свої дані, володіючи 4 ТБ хмарного сховища на все життя

    Настав час перестати платити ці смішні комісії за хмарне зберігання щомісяця. За допомогою FolderFort ви можете заплатити один раз і зберігати свій найважливіший вміст на все життя, припиняючи підписки. Встановлювати не потрібно, і ви можете отримати доступ до нього з будь-якого сучасного браузера на ПК, Mac або смартфоні.

    Зберігайте ваші фотографії, відео, документи та інші важливі файли в безпеці за цією угодою 4 ТБ від FolderFort. Він пропонує зашифрований захист, високошвидкісний доступ, швидкі передачі та гарантований час безвідмовної роботи 99,99%.

    Незважаючи на те, що FolderFort швидкий і високотехнологічний, він неймовірно зручний. Потрібно поділитися файлом? FolderFort дозволяє легко створювати посилання для папок і файлів, якими можна ділитися, незалежно від того, надсилаєте ви їх приватно чи публічно.

    Вам потрібне більше пам’яті? Це не проблема – просто оновіть свій обліковий запис FolderFort, і ви миттєво збільшите обсяг пам’яті.

    Зробіть хмарне сховище доступнішим і безпечнішим за допомогою плану FolderFort Cloud Storage Pro на 4 ТБ, який уже продається за 249,99 доларів США (стандартна вартість – 1299,99 доларів США).

    StackSocial ціни можуть бути змінені.

    Ця стаття спочатку опублікована на Заощадьте понад 1000 доларів США на 4 ТБ довічного хмарного сховища з FolderFort.

  • Користувача GitHub скомпрометовано невидимим шкідливим програмним забезпеченням

    Не так давно ми виявили скомпрометовані розширення на Open VSX. Зараз з’являється нова хвиля атак, і всі ознаки вказують на того самого суб’єкта загрози.

    Техніка звучатиме знайомо: прихований шкідливий код, доданий невидимими символами Unicode Private Use Area (PUA). Ми вперше побачили цей трюк ще в березні, коли пакети npm використовували PUA для приховування корисних навантажень. Потім з’явився Open VSX. Тепер зловмисники, схоже, звернули увагу на GitHub, і їхні методи розвиваються. Доставка стає розумнішою, прихованою та набагато оманливішою.

    Хронологія кампанії Invisible Code

    • березень – Aikido вперше виявляє шкідливі пакети npm, які приховують корисні дані за допомогою символів Unicode PUA
    • травня – Ми публікуємо блог, у якому докладно розповідаємо про ризики невидимого Unicode та про те, як ним можна зловживати під час атак на ланцюги поставок.
    • 17 жовтня – Ми виявляємо скомпрометовані розширення на Open VSX за допомогою тієї самої техніки;
    • 18 жовтня – Koi Security аналізує зловмисне програмне забезпечення та корисне навантаження, називаючи їх Скляний черв'як
    • 31 жовтня – Ми виявили, що зловмисники перемістили фокус на сховища GitHub

    Стелс за дизайном

    Ми вперше повідомили про цю нову хвилю, коли розробник звернувся до нас, помітивши щось дивне: кілька його власних репозиторіїв GitHub були оновлені ним, принаймні згідно з історією комітів. Коміти виглядали законними. Вони містили реалістичні оновлення функцій, невеликі рефактори та навіть виправлення помилок, які відповідали стилю кодування проекту та повідомленням комітів. За винятком однієї відмінності, електронна адреса комітера була встановлена ​​на null. Але в кінці цих комітів кожне з них мало єдине ідентичне доповнення:

    const d=s=>[...s].map(c=>(c=c.codePointAt(0),c>=0xFE00&&c=0xE0100&&cb!==null);eval(Buffer.from(d(``)).toString('utf-8'));

    Чи можете ви помітити зловмисне програмне забезпечення? На перший погляд важко зрозуміти, що відбувається, але те, що стирчить, це те eval виклик, який часто використовується для динамічного виконання коду. Тільки вхід до eval виглядає порожнім. Однак порожній рядок перейшов до d() в eval зовсім не порожній. Він містить невидимі символи Unicode, прихований код, закодований за допомогою символів Private Use Area, як і в попередніх інцидентах npm і Open VSX.

    korystuvacha github skomprometovano nevydymym shkidlyvym programnym zabezpechennyam Користувача GitHub скомпрометовано невидимим шкідливим програмним забезпеченням

    Цього разу, однак, доставка набагато тонша. Все було згорнуто в одну лінію, майже не залишивши візуальної підказки. Шкідливий код заховано всередині того, що виглядає як звичайна діяльність проекту, прихованого в законних комітах.

    Цілком можливо, що доброякісні на вигляд зміни були створені ШІ, щоб зробити коміти більш переконливими. Оскільки ці коміти стосувалися конкретного проекту, можна припустити, що зловмисник міг використовувати великі мовні моделі для створення реалістичних контекстно-залежних змін коду, ефективно використовуючи штучний інтелект для маскування свого корисного навантаження в рамках звичайної діяльності розробки.

    Розшифровані символи PUA призводять до сценарію, який виглядає дуже схожим на зразки Open VSX, що свідчить про те, що ми, ймовірно, маємо справу з тим самим загрозою. Схоже, що декодований сценарій використовує Solana як канал доставки, отримує та виконує корисне навантаження з блокчейну. Виходячи з інцидентів Open VSX, ці корисні навантаження здатні викрадати токени та інші секрети. Якщо облікові дані або токени CI зібрано, їх можна буде повторно використати для передачі того самого корисного навантаження в інші сховища, що, у свою чергу, може забезпечити розповсюдження, схоже на черв’яка, як ми бачили під час попередніх атак.

    Ознаки більшої атаки

    Визначивши зловмисний шаблон, ми почали шукати, чи не з’явилося таке ж корисне навантаження деінде. Швидкий пошук шаблону на GitHub швидко виявив інші сховища, які показують той самий підозрілий рядок.

    1761935492 94 korystuvacha github skomprometovano nevydymym shkidlyvym programnym zabezpechennyam Користувача GitHub скомпрометовано невидимим шкідливим програмним забезпеченням

    У цих проектах було створено новий комміт, який на перший погляд виглядав цілком законним. Коміти містили звичайні зміни, такі як оновлення документації, збільшення версії та невеликі покращення коду, але кожне з них також включало те саме приховане корисне навантаження, додане в кінці файлу.

    Наразі ця кампанія, схоже, обмежена проектами JavaScript, розміщеними на GitHub. Ми не помітили жодних ознак подібного зламу в npm чи інших екосистемах, хоча ми уважно стежимо за цим, оскільки той самий зловмисник може спробувати розширити свій охоплення.

    Еволюція загроз, розумніший захист

    Ці інциденти підкреслюють необхідність кращої обізнаності про неправильне використання Unicode, особливо про небезпеку невидимих ​​символів приватної зони використання. Розробники можуть захищатися лише від того, що вони бачать, і зараз більшість інструментів не показують їм достатньо. Ні веб-інтерфейс GitHub, ні код VS не відображали жодних ознак того, що щось не так. У попередніх випадках, таких як атаки Open VSX, деякі IDE справді відображали непомітні індикатори поруч із прихованими символами, але тут ці засоби захисту були відсутні.

    Хоча ця техніка не є новою, вона явно розвивається. Попередні загрози, такі як Shai Hulud, просто впроваджували шкідливі сценарії після інсталяції, завдяки чому їх було відносно легко виявити. Тепер зловмисники поєднують шкідливий код із реалістичними комітами та вдосконаленнями для конкретного проекту, можливо, за допомогою ШІ, щоб їхні зміни виглядали природними. Це ознака того, куди прямує ландшафт загроз.

    В Айкідо ми адаптуємося до тієї самої еволюції. Ми використовуємо великі мовні моделі серед інших систем виявлення, щоб виявити ці дедалі непомітніші загрози. Оскільки зловмисники використовують штучний інтелект, щоб приховати свої наміри, наш захист має стати настільки ж розумним, щоб розкрити його.

  • Google витрачає на сервери більше, ніж увесь світ

    Google витрачає на сервери більше, ніж увесь світ

    google vytrachaye na servery bilshe nizh uves svit Google витрачає на сервери більше, ніж увесь світ

    Ось смішна цифра, яку варто розжувати. Десь на початку 2026 року, якщо поточні тенденції збережуться, Google матиме рівень витрат на сервери, який перевищить рівні витрат з поправкою на інфляцію, встановлені в усьому світі після краху Dot Com. І невдовзі рівень витрат Google на сервери – за своєю сутністю – зрівняється з рівнем витрат під час буму Dot Com.

    Наразі, враховуючи всі цифри, оприлюднені Google, ми прогнозуємо, що у 2025 році компанія витратить 55,2 мільярда доларів на сервери, і це перевершить анемічні 51,5 мільярда доларів, які світ витратив на сервери у 2009 році, коли Велика рецесія спричинила 20-відсоткове зниження витрат на сервери (ці цифри виражено в доларах США 2021 року), і це майже відповідає витраченим 57,7 мільярдам доларів. у всьому світі на всі види заліза в наступному році.

    Такий рівень витрат від Google відбувається, коли всі гіпермасштабувальники, розробники хмарних технологій, а тепер і розробники моделей, мають витратити 3 мільйони доларів, або 4 мільйони доларів, або навіть 5 мільйонів доларів США на прискорений комп’ютер, який має узгоджену пам’ять у центральних і графічних процесорах, щоб запускати навчання штучного інтелекту та робити висновок, щоб ми могли збільшити (багато хто вважає, що краще слово замінити) частини людського мислення, пов’язані з пошуком і синтезом даних для багатьох порядків. значно більше енергії (145 кіловат на стійку порівняно з 20 Вт для людського мозку), але з набагато більшою швидкістю та, мабуть, набагато менше нарікань.

    У кварталі, який завершився у вересні, керівництво Google повідомило, що компанія, яка включає компанію-оболонку Alphabet і деяких майстрів, які не займаються розміщенням реклами, відео та хмарними обчисленнями, витратила 23,95 мільярда доларів на капітальні витрати, причому 60 відсотків із них припало на сервери, а решта суми – на центри обробки даних та інше обладнання, наприклад мережеве обладнання. (Для Google, схоже, сервер налаштований для зберігання, але не окремо, що ми отримуємо.) Якщо ви підрахуєте це, ви отримаєте 14,37 мільярда доларів, витрачених на сервери в третьому кварталі 2025 року. Якщо ви візьмете середину нової (і вищої) оцінки капітальних витрат на 2025 рік, яка становить від 91 до 93 мільярдів доларів, і помножте на те саме співвідношення, ви отримаєте 55,2 мільярда доларів. фігура. І якщо ви спрогнозуєте витрати з тією ж послідовністю щоквартальних темпів, що, на нашу думку, є, ймовірно, низькою оцінкою для зростання в наступному році, якщо бульбашка GenAI не лопне, неважко побачити, що Google витратить понад 80 мільярдів доларів на сервери, причому основну частину цього становлять прискорені системи з використанням власних TPU або графічних процесорів Nvidia або іноді AMD.

    Ми настільки звикли до того, що люди кидають такі великі числа, що не можемо відчути, яка це вражаюча кількість обладнання та скільки це сукупних обчислень.

    «Хоча ми наполегливо працювали над збільшенням потужності та покращили темпи розгортання серверів і будівництва центрів обробки даних, ми все ще очікуємо, що в четвертому кварталі та 2026 році ми залишимося в умовах жорсткого попиту/пропозиції», — пояснив Анат Ашкеназі, головний фінансовий директор Google, під час телефонної розмови з аналітиками Уолл-стріт, переглядаючи цифри за третій квартал. «Перехід до інвестицій: ми продовжуємо активно інвестувати через попит, який ми відчуваємо з боку хмарних клієнтів, а також можливості для зростання, які ми бачимо в усій компанії». Потім Ашкеназі продовжив підвищення капітальних витрат до середньої позначки в 92 мільярди доларів, плюс-мінус 1 мільярд доларів, і додав, що на 2026 рік Google очікує «значного збільшення капіталовкладень» і надасть більше інформації про це після завершення 2025 року, і звітує про свої показники за рік у січні.

    Ми припускаємо, що це десь на північ від 130 мільярдів доларів, причому 2026 рік є місцевим максимумом інвестицій у GenAI, оскільки потужне апаратне забезпечення та зростаючий попит на висновки штучного інтелекту об’єднуються, щоб розпочати створення справжнього прибуткового бізнесу.

    До речі, попит високий як на вітчизняні прискорювачі TPU, так і на прискорювачі GPU, які Google купує у Nvidia, а іноді й у AMD. (Шкода, що Google не надає детальну інформацію про це.) Під час телефонної розмови Сундар Пічаї, головний виконавчий директор Google і холдингової компанії Alphabet, сказав, що Google щойно почав здавати в оренду ємність клієнтам своїх інсталяцій Blackwell GB300 клієнтам інсталяцій A4X Max. Графічні процесори B300 націлені на висновок штучного інтелекту, і вони відмовилися від високоточної обробки з плаваючою комою на користь підвищення пропускної здатності з нижчою точністю, але також можуть використовуватися для навчання штучного інтелекту, якщо це необхідно. Пічаї сказав, що «Ironwood» TPU v7p, про який ми детально розповідали ще в квітні, незабаром можна буде орендувати.

    «Ми інвестуємо в потужності TPU, щоб задовольнити величезний попит, який ми бачимо з боку клієнтів і партнерів, і ми раді, що Anthropic нещодавно поділився планами отримати доступ до одного мільйона TPU», — сказав Пічаї під час дзвінка.

    Ще у вересні, ґрунтуючись на коментарях Google щодо швидкості генерації токенів для повного стеку додатків і технічних характеристик лінійки TPU, ми підрахували, що, можливо, у серпні для додатків Google було згенеровано 1460 трильйонів токенів, і для цього знадобиться понад 700 000 прискорювачів Trillium TPU v6e. Очевидно, що для отримання такої ж пропускної здатності знадобиться все більше старих TPU. Система Ironwood TPU охоплює 24 ряди пристроїв із 9216 пристроями TPU v7p у спільному кластері пам’яті, який має 42,5 екзафлопс продуктивності FP8 або INT8 і вдвічі більшу продуктивність на ват Trillium TPU v6e, чий домен спільної пам’яті становив лише 256 пристроїв.

    Без сумніву, Anthropic хоче отримати доступ до мільйона пристроїв Ironwood, а не до мільйона Trilliums.

    У кварталі, що закінчився у вересні, Google встановив новий рекорд доходів і вперше перевищив 100 мільярдів доларів. Якщо бути конкретним, він зібрав 102,34 мільярда доларів США, що на 15,9 відсотка зросло в порівнянні з минулим роком і на 6,1 відсотка послідовно. Операційний прибуток зріс на 9,5 відсотка до 31,23 мільярда доларів, а завдяки деяким бухгалтерським рахункам чистий прибуток зріс на 33 відсотки до 35 мільярдів доларів у кварталі.

    1761888637 691 google vytrachaye na servery bilshe nizh uves svit Google витрачає на сервери більше, ніж увесь світ

    Google Cloud, підрозділ компанії з оренди інфраструктури, оприлюднив продажі в розмірі 15,16 мільярда доларів США, що на 33,5 відсотка більше, ніж у минулому році, і головним чином через те, що клієнти GenAI (і особливо великі, як-от розробники моделей OpenAI і Anthropic) витрачають великі гроші, щоб отримати будь-які графічні та XPU, які вони можуть отримати. (Ми очікуємо, що майже така ж історія з Microsoft і Amazon Web Services.) Операційний прибуток Google Cloud зріс на дуже приємні 84,6 відсотка до 3,59 мільярда доларів, але все ще становить лише 14,8 відсотка доходу Google Cloud. Тенденція до прибутковості з роками покращується, особливо тому, що Google довше зберігає серверне залізо в бухгалтерському обліку, а не просто списує його через три роки, як це робило раніше. Це вже економічно недоцільно навіть для гіпермасштабувальника, особливо для того, чия основна пошукова система та відповідний рекламний бізнес знаходяться під прямою загрозою з боку GenAI.

    У третьому кварталі 2025 року пошуковий і рекламний бізнес Google все ще становив 85,1 відсотка продажів компанії, при цьому надходження склали 87,05 мільярда доларів США. Це на 13,8 відсотка більше, ніж у минулому році.

    Нагадуємо, що Google може перетворити себе на набагато більшу хмару, коли захоче. Усе, що йому потрібно зробити, — це призначити всю свою інфраструктуру, яка використовується для внутрішніх робочих навантажень, як частину Google Cloud, а також переглянути фінансові показники, які показують, як різні підрозділи та групи розподіляють витрати як дохід для Google Cloud. Було б цікаво побачити, скільки насправді витрачають Google Search, Google Ads і YouTube на інфраструктуру. . . . і скільки Google Cloud буде орендувати його, і з якою маржею.

    HPE button 19959 V2 Google витрачає на сервери більше, ніж увесь світ

    Підпишіться на нашу розсилку

    Містить основні моменти, аналіз та історії тижня безпосередньо від нас у вашу поштову скриньку без жодних проміжних подій.
    Підпишіться зараз