Оголошення про продукти з’являються досить швидко під час вступної доповіді AWS

Оголошення про продукти з’являються досить швидко під час вступної доповіді AWS

Будівельні блоки майбутнього, керованого генеративним ШІ, на виставці

media 1f675049da03447741f15a24fae60765af873d000 Оголошення про продукти з’являються досить швидко під час вступної доповіді AWS

зображення:

Мет Гарман на сцені AWS re:Invent24 Авторство: AWS

Перший виступ генерального директора AWS Метта Гармана на конференції в якості генерального директора був присвячений будівельним блокам AWS. Це майбутнє, яке будує AWS, кероване генеративним ШІ.

Гарман анонсував низку оновлень для будівельних блоків AWS — обчислення, зберігання, бази даних і висновків. Разом вони дозволяють компаніям впроваджувати інновації з нижчими витратами та значно більшою енергоефективністю – у великих масштабах.

AWS почала розробку власного кремнію лише в 2018 році. Перенесімося вперед, і 90% із 1000 найкращих клієнтів EC2 використовують мікросхеми Graviton. Кілька місяців тому AWS запустила Graviton 4, який був розроблений для значно ширшого набору робочих навантажень, ніж його попередники. Pinterest є одним із клієнтів, і, за словами Гармана, вдалося зменшити витрати на обчислення на 47% і викиди вуглецю на 62% за допомогою нових чіпів.

Однак саме генеративні робочі навантаження штучного інтелекту сприяють обчислювальним інноваціям, і компанія Garman оголосила про сімейство інсталяцій P6, яке міститиме нові графічні процесори NVIDIA Blackwell, які з’являться наступного року. За словами Гармана:

«Екземпляри P6 забезпечать вам у 2,5 рази швидше обчислення, ніж поточне покоління GPU».

Гарман також оголосив про загальну доступність екземплярів EC2 Trn2, які, за його словами, забезпечують на 30-40% кращу цінову продуктивність, ніж поточне покоління екземплярів із графічним процесором, і спеціально створені для навчання та висновків покоління ШІ. Екземпляри з’єднують 16 мікросхем Trainium 2 із низькою затримкою та високою пропускною здатністю NeuronLink.

«Один екземпляр Trn2 забезпечить 20,8 петафлопс на одному обчислювальному вузлі», — сказав Гарман.

Клієнти, які вже використовують екземпляри Trn2, включають Adobe і Poolside, а Databricks і Qualcomm у розробці.

Частиною екземплярів P6 є ультрасервери EC2 TRN2, які, за словами Гармана, «з’єднують чотири екземпляри Trn2, отже, 64 мікросхеми Trainium 2 з’єднані між собою NeuronLink. Це дає вам один ультравузол із понад 83 петафлопсами обчислення з одного обчислювального вузла».

Одним із таких кластерів є прикордонна модель, яку розробляють AWS і Anthropic.

«Проект Rainier створює кластер ультрасерверів Trn2, що містить сотні тисяч чіпів Trainium 2. Цей кластер матиме в п’ять разів більше екзафлопсів, ніж поточний кластер, який Anthropic використовує для навчання свого провідного набору моделі Клода».

Garman також анонсувала чіп Trainium3, який очікується пізніше наступного року. Він повинен забезпечити вдвічі більше обчислень, ніж його попередник, і водночас бути на 40% ефективнішим.

Гарман завершив частину доповіді, присвячену обчисленню, вбивчою статистикою:

«Щодня запускається 130 мільйонів нових екземплярів EC2».

Створення генеративного майбутнього, керованого ШІ

Далі почалася справжня серія оголошень. Оголошення про сховище включали сегменти S3 Table Buckets для таблиць Iceberg і метадані S3 у попередньому перегляді, які, за словами Гармана, являють собою «крокову зміну в тому, як ви можете використовувати свої дані для аналітики, а також у великих випадках використання моделювання штучного інтелекту».

На базах даних?

Amazon Aurora DSQL — це нова розподілена база даних SQL, порівняна з Google Spanner. За словами Гармана, він забезпечує «в 4 рази швидше читання та запис, ніж Spanner».

Потім з’явився потік оновлень на Bedrock, порталі низки базових моделей, на основі яких клієнти можуть створювати власні генеративні додатки ШІ. Тепер доступні дистиляція моделі, автоматизована перевірка міркувань і багатоагентна співпраця.

Зображення

media 175becd2f1410ff3ad82b4a90da7fd7ed4c8847ce Оголошення про продукти з’являються досить швидко під час вступної доповіді AWS

опис

Енді Джессі в re:Invent24 Авторство: AWS

Генеральний директор Amazon Енді Джессі дав Гарману передиху, коли він представив нову серію найсучасніших базових моделей під назвою Amazon Nova (дивіться наше висвітлення тут). До них входять лише текстова модель і кілька мультимодальних моделей.

Джессі позитивно оцінила швидкість і ефективність цих моделей, а також оголосила про модель генерації зображень (Nova Canvas) і еквівалент відео (Nova Reels).

Гарман повернувся з останньою серією оголошень, зосереджених на наборі інструментів Amazon Q Developer, два з яких, здавалося, були спеціально розроблені, щоб надати клієнтам, які мають проблеми із застарілими програмами .NET або локальними стеками VMWare, руку допомоги для переходу від Microsoft і VMWare.

Ця основна доповідь була довгою, але майбутнє, яке бачить Гарман, було кристально ясним.

«Я думаю, що генеративний штучний інтелект насправді має потенціал для трансформації кожної окремої галузі, кожної окремої компанії, кожного окремого робочого процесу, кожного окремого досвіду користувача».

Comments

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *