Категорія: Великі Дані та Аналітика

  • 5 Поради щодо продуктивності для підняття робочої гри за допомогою AI

    5 Поради щодо продуктивності для підняття робочої гри за допомогою AI

    Штучний інтелект (AI) вже не лише для експертів з технологій – він стає важливим інструментом для професіоналів у кожній галузі. Незалежно від того, чи керуєте ви дані, складаєте звіти чи проводите дослідження, ШІ може допомогти вам працювати розумніше, заощаджуючи час, який ви можете присвятити більш стратегічній та складній роботі.

    Насправді 82% з американських робітників кажуть використання ШІзгідно з даними інтелекту Pymnts.

    Ось п’ять способів, як можна використовувати AI підвищити продуктивність та ефективність:

    1. Автоматизація повторюваних офісних завдань

    Швидкий спосіб підвищення продуктивності-це автоматизування повторюваних, трудомістких завдань, які необхідні, але самі по собі додають мало цінності.

    Ось кілька інструментів AI, щоб зробити ваш день більш ефективним:

    • Управління електронною поштою та календарем: інструменти, що працюють на AI, такі як Recima.ai і Надлюдський це помічники електронної пошти та планування, які можуть налаштувати зустрічі для вас, зробити Постійні дії та пріоритетність своїх щоденних заходів.
    • Управління завданнями: Асана і Шпалер Можна визначити пріоритетність списку справ, проаналізувавши терміни та визначивши найактуальніші завдання.
    • Віртуальні виконавчі помічники: Клари і Рух автоматизувати повторювана адміністративна робота та керувати ваш щоденний день завдання.

    2. Розумніші дослідження та аналіз даних

    Вам не доведеться проводити години, просіюючи довгі звіти або великі набори даних. Інструменти AI можуть виконати роботу за вас – це Може обробити обсяги інформації за лічені секунди, щоб узагальнити тенденції та визначити розуміння.

    Ось кілька інструментів, які слід розглянути для досліджень та аналізу:

    • Підсумовуйте довгі документи: такі інструменти Чатгпт, Клод і Здивування ai може створити стислі резюме фінансових звітів, науково -дослідні роботи і подібне.
    • Аналіз тенденцій на ринку: фінансові платформи, що працюють на AI, такі як Квап, Bloomberggpt (доступний через термінал Bloomberg) та Альфасенс Може проаналізувати дані про історичні та в режимі реального часу.
    • Промислові дослідження: Олівець і Квапливий Використовуйте AI для відстеження нових тенденцій у різних галузях та надання конкурентів.

    3. Посилена комунікація

    Чітка комунікація має вирішальне значення для ефективності на робочому місці, будь то майстерні електронні листи, звіти або презентації. Асистенти, орієнтовані на AI, можуть забезпечити професіоналізм, узгодженість і навіть правильний тон для різних аудиторій.

    Ось кілька інструментів AI для створення контенту:

    • Якість для вдосконалення написання: Граматичний і Яспер Можна перевірити граматику, запропонувати чітке написання і Налаштуйте тон для аудиторії.
    • Зберігаючи голос бренду: Письменник.com і Шрифт допомога робити Ви залишаєтесь вірними мовою свого бренду, тоном і стиль, тому у вас немає Для перепису маркетингової копії вручну вручну.
    • Переклад: Компанії з офісами у всьому світі можуть подолати мовні бар'єри за допомогою Дипл або Google Translate. Для тих, хто потребує прямого перекладу під час зустрічей, розгляньте Команди Microsoft, Збільшити супутник AI і Google Meet.

    4. Оптимізація зустрічей

    Зустрічі зазвичай займають багато часу протягом робочого дня. Інструменти AI можуть допомогти зробити зустрічі більш ефективними шляхом переписування розмов, узагальнення дискусій та генерування елементів дій.

    • Автоматизовані транскрипції: Otter.ai, Fireflies.ai і Copilot в командах Microsoft Може записувати, переписувати та виділити ключові моменти на зустрічах, що полегшує переглянути важливі дискусії.
    • Підсумки зустрічей: Багато помічників зустрічей АІ можуть узагальнити зустрічі. Окрім видри, світлячки і Команди Microsoft, там Збільшити супутник AI і Google Meet.
    • Планування зустрічей та нагадування: Рух і За годинниковою стрілкою Використовуйте AI для кращого управління часом під час налаштування зустрічей.

    5. Персоналізоване навчання та планування кар’єри

    AI може служити особистим тренером, рекомендуючи спеціальні шляхи навчання, які допоможуть вам залишатися вперед або допомогти вам візуалізувати свою кар’єрну подорож.

    Інструменти AI, які допоможуть вам у вашій кар’єрі:

    • Персоналізовані рекомендації щодо навчання: LinkedIn навчання В ефір Дозволяє налаштувати своє навчання, як і Курсера Тренер Courseraі Xpert Edx. Вони можуть запропонувати курси на основі ваших кар’єрних цілей та минулих моделей навчання.
    • Тренінг на базі AI: такі інструменти Тренер і Решітка росте Запропонуйте програму коучингу та наставництва, орієнтованих на AI-керовані.
    • Фінансові та специфічні для AI: працівники, які працюють у фінансах, можуть використовувати курси аналітики, орієнтованих на AI, на платформах, таких як Академія Хана, в якому є чат AI під назвою Ханміго щоб допомогти вам, або З програмним забезпеченням до підвищення кваліфікації в таких сферах, як стратегії торгівлі, керованих AI.

  • Як живити свій центр обробки даних через 24 місяці

    Як живити свій центр обробки даних через 24 місяці

    Google, AWS, Microsoft, Meta та OpenAI готуються на верховенство AI. Хто переможе? Хто може найшвидше зарядити великі центри обробки даних

    Проблема

    Центри обробки даних потребують чистої, надійної потужності 24/7. Ви не можете побудувати AI без центрів обробки даних, і ви не можете будувати центри обробки даних без доступу до живлення.

    Традиційно центри обробки даних покладаються на сітку для первинних генераторів потужності та рівня рівня рівня для резервного копіювання. Однак потужність сітки стає вузьким місцем через поєднання поточного зростання навантаження та передбачуваного збільшення попиту центру обробки даних. Крім того, резервні дизельні генератори стикаються з проблемами з все більш суворими правилами якості повітря, особливо на великих кампусах центрів обробки даних.

    Рішення

    Поєднайте переваги малих атомних електростанцій, відомих як невеликі модульні реактори (“SMR”) зі швидкістю та експлуатаційною гнучкістю генераторів зворотно -поступальних природних газів (“RNGG”). Поєднання цих технологій надає розробникам центру обробки даних через 24 місяці та чіткий шлях до довгострокової, надійної чистої потужності.

    Переваги невеликих модульних реакторів (SMR):

    1. Нижні витрати: SMR є дешевшими для будівництва та залучення меншого ризику капіталу порівняно з традиційними масштабними реакторами.
    2. Швидкість на ринок: SMR можна розгорнути протягом трьох -чотирьох років, що дозволяє швидше виробляти енергію.
    3. Посилена безпека: SMR розроблені для охолодження себе без необхідності зовнішньої потужності, насосів, механічних систем або втручань оператора під час відключення, забезпечуючи притаманну безпеку.
    4. Висока надійність: Використання декількох реакторів забезпечує більшу надійність та надмірність.
    5. Гнучкість: Їх менший розмір дозволяє синхронізувати розвиток енергетичної інфраструктури поряд з цифровою інфраструктурою.
    6. Компактний слід: SMR вимагають лише три-чотири десятини землі на реактор, що робить їх придатними для місця, що обмежуються космосом.

    Виклик

    SMR ще кілька років від розгортання масштабу.

    Переваги зворотно -поступальних генераторів природних газів (RRNGGS):

    1. Надійний і економічно вигідний: RNGG є надійними, економічно ефективними і можуть бути побудовані відносно швидко.
    2. Нижні викиди: RNGGS виробляє на 98 відсотків менше викидів порівняно з традиційними рішеннями резервного резервного рівня рівня.
    3. Швидкий старт можливості: RNGGS пропонують швидкі часи початку, починаючи від восьми секунд до двох хвилин залежно від моделі, і надають перехідну реакцію “дизеля”.
    4. Ланцюг поставок: На відміну від великотратних турбін природного газу-в даний час спостерігається затримки ланцюга поставок, що поширюються на 2029-RRNGGS (починаючи від трьох до 20 МВт кожен) пропонують модульну масштабованість для досягнення установок у декількох сотнях мегават, з комерційними термінами роботи від 18 до 24 місяців.
    5. Ефективність палива: RNGGS може похвалитися чудовим профілем ефективності палива порівняно з газовими турбінами простих циклу та уникати значної деградації продуктивності при високих температурах навколишнього середовища.
    6. Більш чистіший перехід енергії: RNGG є значним кроком до більш чистого енергетичного рішення.

    Проблеми з RNGGS:

    1. Манату чистої енергії: Незважаючи на нижчі викиди, природний газ може не повністю узгоджуватися з мандатами чистої енергії, прийнятою багатьма технологічними компаніями та інвестиційними фірмами.
    2. Наявність трубопроводу: Проекти повинні бути розташовані поблизу трубопроводів природного газу з достатньою доступною потужністю для забезпечення доцільності.

    Швидший шлях до доходу

    Поєднання RNGG та SMR надає центри обробки даних більш швидкий шлях до доходу.

    Ось поетапний план досягнення 1 ГВт енергетичної інфраструктури на 60 сотках:

    Центр обробки даних підписує угоду про придбання електроенергії для отримання доступу до влади у узгодженому графіку.

    • Фаза 1 (24 місяці): Розгортання 225 MWE RNGG.
    • Фаза 2 (48 місяців): Додайте дві SMR (потужність коливається від 50 до 100 мВт кожен).
    • Фаза 3 (60+ місяців): Продовжуйте додавати SMR до досягнення потужності 1 ГВт. Після встановлення ємності SMR, RNGG стає ресурсом, який забезпечує як навантаження, службу резервного копіювання, так і якщо в сітці є доступне, необхідна потужність до місцевої громади.

    Невеликий розмір та модульність RNGG та SMR дозволяють розробникам Datacenter синхронізувати енергетичну інфраструктуру з цифровою інфраструктурою та зробити проекти менш ризикованими та більш капітальними.

    Існуючі рішення є неоптимальними

    Альтернативні підходи до потужності зростання навантаження падають з причин, які добре зрозумілі.

    Деякі ветерани галузі все ще вважають, що рішення полягає в тому, щоб побудувати нові центральні електростанції та лінії електропередачі в надії отримати живлення там, де це потрібно швидше. Проблема полягає в тому, що лінії трансмісії забирають десятиліття для побудови. Багато місцевих спільнот борються проти них і подають позови, які сповільнюють нові проекти лінії передачі.

    Інші лідери галузі вважають, що рішення полягає у створенні нових вітрових та сонячних заводів. Вітрові турбіни та сонячні батареї не виробляють викиди під час роботи, що робить їх привабливими джерелами живлення. Але є щонайменше три проблеми з вітром та сонячною енергією:

    • По -перше, місця, багаті вітром та сонячними ресурсами, розташовані далеко від місць, де розробники хочуть будувати центри обробки даних. Зв'язок відстані потребуватиме нових ліній передачі, і побудова цих ліній, швидше за все, займе набагато більше часу і коштуватиме набагато дорожче, ніж багато розробників.
    • По -друге, вітрові та сонячні рослини потребують величезної кількості землі. Як результат, вони знищують природні місця проживання та іскрить реакцію громади.
    • Нарешті, незалежно від того, вітер і сонячна енергія – переривчасті джерела живлення. Навіть за найкращих обставин вітер та сонячна енергія не можуть забезпечити 24/7 потужності, яку вимагає центр обробки даних.

    Великі атомні установи можуть вирішити проблему. Вони не виробляють викидів під час роботи, їм потрібно менше матеріалів, менше землі та виробляють менше відходів, ніж альтернативи, і на відміну від вітру та сонячної енергії, вони надійні. Завдання полягає в тому, що великі ядерні проекти, як правило, потребують десяти плюс років для будівництва та потребують десятків мільярдів доларів капіталу. На сьогоднішній день регульовані утиліти були основними організаціями, які розробили атомні електростанції. Мало хто з керівників готові зробити ставку на свої компанії – та їхні роботи – на такий проект.

    Ви виграєте? Гонка за верховенство AI вже розпочалася. Комбіновані сильні сторони SMR та RNGG дозволяють швидкості та чистити, надійну потужність 24/7. Той, хто приймає цю стратегію спочатку, виграє гонку.

  • Наступний крок у доступі до даних соціальних медіа: як перетворити правила в реальність

    Наступний крок у доступі до даних соціальних медіа: як перетворити правила в реальність

    Важко згадати світ без соціальних медіа. Від Сполучених Штатів до Бразилії, люди зараз проводять години на Tiktok, Instagram та YouTube щодня, і ці платформи вбудовуються у все, від того, як ми розмовляємо з друзями та родиною, до того, як ми обираємо наших національних лідерів.

    Але одне зрозуміло: незважаючи на зусилля дослідників розшифрувати вплив соціальних медіа, якщо такі є, на демократичні інститути країн, ніхто не має чіткого розуміння того, як працюють ці глобальні платформи. Що ще гірше – ми маємо менше усвідомлення того, що відбувається на цих платформах у 2025 році, ніж ми робили п’ять років тому.

    Це проблема.

    Це проблема для тих, хто вважає, що ці технологічні компанії цензурують голоси людей в Інтернеті. Це проблема для тих, хто вважає, що ці фірми не роблять достатньо для поліції своїх платформ для шкідливого контенту. І це проблема для демократичних країн, політичні системи яких розбиваються при збільшенні поляризації – деякі з яких посилюються через соціальні медіа.

    У 2025 році існує фундаментальний розрив між тим, що відбувається в соціальних мережах, та тим, що науковці, незалежні дослідники та регулятори розуміють про ці платформи.

    Це призвело до демократичного дефіциту. Ніхто не може кількісно оцінити вплив впливу цих платформ на публічний дискурс. Це також призвело до порожнечі політики. Законодавці у всьому світі не знають, які кроки потрібні за допомогою потенційного нового законодавства, добровільних стандартів або подвоєння існуючих зусиль щодо зменшення шкоди в Інтернеті в соціальних мережах, підтримуючи право людей на свободу слова.

    Коротше кажучи, ми просто не знаємо достатньо про вплив соціальних медіа на суспільство.

    Без кількісних доказів шкоди (або її відсутності) – керованого незалежним зовнішнім доступом до даних платформи або здатністю людям досліджувати внутрішню роботу цих гігантів соціальних медіа – немає способу здійснити ефективне законодавство про безпеку в Інтернеті, підтримувати свободу вираження поглядів людей, а також вважати компаніями, коли, безумовно, справи йдуть не так.

    І все -таки, є шлях вперед. Той, який покладається на захист конфіденційності та вільної мови людей. Той, який обмежує доступ уряду до публікацій соціальних медіа людей. І той, який надає стороннім дослідникам можливість бити шини щодо того, як діють ці платформи, надаючи їм доступ до публічних даних способами, що покращує розуміння суспільства цих гігантів соціальних медіа.

    Щоб задовольнити цю потребу, Всесвітні проекти Колумбії в Колумбійському університеті та Центр цифрового управління Герті -Школа проводять семінари з однією метою: як розвиватись на нових режимах безпеки в Інтернеті у всьому світі – деякі з яких дозволяють або незабаром дозволять для такого обов'язкового доступу до платформ до зовнішніх груп – щоб заповнити цей демократичний дефіцит.

    За підтримки Фонду Knight, який передбачав об'єднання груп дослідників академічного та громадянського суспільства, постачальників інфраструктури даних та національних регуляторів для регулярних зустрічей, щоб отримати, що державне та приватне фінансування потрібно для перетворення такого доступу до даних з теорії в реальність.

    Початкова робота була зосереджена на Законі про цифрові послуги Європейського Союзу, який включає конкретні обов'язкові вимоги для того, щоб сторонні люди заглибилися в дані платформи.

    Але оскільки інші країни приносять в Інтернеті подібні режими доступу до даних, сподівання полягає в тому, щоб надати маршрут для інших, який буде створювати більшу спроможність для дослідників для проведення цієї необхідної роботи; Підтримка регуляторів у навігації щодо притаманних труднощів у відкритті публічних даних таких платформ для сторонніх людей; і забезпечити захист та забезпечення даних соціальних медіа людей, за будь -яку ціну, від шкоди та спостереження.

    Як і у всіх дослідженнях, багато що покладається на фінансування. Тільки тому, що закони про безпеку в Інтернеті диктують, що сторонні люди можуть отримати доступ до даних соціальних медіа, не означає, що дослідники можуть просто перемикати перемикання та приступити до роботи.

    На кожному кроці є потреба у більшій державній та приватній підтримці.

    У рамках поточних семінарів дискусії були зосереджені на чотирьох областях, де ми вважаємо, що цільова підтримка фінансування з різних державних та приватних донорів може зробити найбільший вплив. У сукупності це є важливою інвестицією в наше більш широке розуміння соціальних медіа, що забезпечить компанії, що дотримуються своїх заявлених зобов'язань, щоб зробити свої платформи відповідальними та прозорими для зовнішнього контролю.

    Перший компонент – це основна інфраструктура, необхідна для виконання цієї роботи. В даний час доступ до даних соціальних медіа обмежується кількома, не багатьма. Дослідникам або потрібні існуючі відносини з платформами, або доступ до великих горщиків з фінансування, щоб оплатити хмарне зберігання, інструменти технічного аналізу та інші методи доступу до даних, які залишаються поза межами майже для всіх.

    В даний час існує котеджна галузь постачальників даних-деякі комерційні, інші некомерційні організації-які забезпечують базову інфраструктуру з точки зору доступу до платформ, інструментів аналітики та зручних для користувачів дослідницьких інтерфейсів. Але для задоволення потреб дослідників, а також зростаючого регуляторного поштовху для відкриття гігантів соціальних медіа для більшого уважного контролю потрібно зробити більше, щоб зробити таку інфраструктуру легкодоступною, особливо для експертів у країнах глобальної більшості.

    Це включає масштабування існуючої інфраструктури даних, робить аналітичні інструменти більш загально доступними для дослідників та використання різних методик – від використання інтерфейсів програмування додатків або API, які підключаються безпосередньо до даних платформи до дозволу дослідникам вичісувати сайти соціальних медіа в суспільних інтересах до просування «пожертвування даних» безпосередньо від самих користувачів – для задоволення різних потреб досліджень.

    Друга увага приділяється взаємозв'язку між дослідниками та регуляторами. Оскільки більше країн дотримуються законодавства про безпеку в Інтернеті, зростає розрив між внутрішніми регуляторними можливостями та стороннім досвідом, який необхідно закрити для цих режимів для ефективної роботи. І все ж, мало, якщо такі є, офіційні структури для дослідників та регуляторів, щоб ділитися найкращими практиками-все, зберігаючи безпечну відстань через так звані «китайські стіни» між наглядом уряду та незалежністю дослідника.

    Потрібні більш офіційні можливості обміну інформацією між регуляторами та дослідниками, щоб режими безпеки в Інтернеті базувалися на кількісних доказах-часто отриманих із зовнішніх даних про доступ до платформ соціальних медіа. Це може включати регулярні оплачувані сечі для дослідників, щоб вбудувати всередину регуляторів, щоб поділитися своїми знаннями; розвиток рутинного розбудови потенціалу та обміну інформацією для розуміння розвиваючого дослідницького ландшафту; і перехід від неформальних мереж між деякими дослідниками та регуляторами в більш прозору систему, яка відкрита для всіх.

    Для цього потрібен третій елемент з точки зору збільшення потужностей – у вигляді технічної допомоги, захисту даних та навчання безпеки та залучення дослідників громади. В даний час зовнішні експерти мають різний рівень технічного розуміння, досвіду політики та знання стандартів конфіденційності, що підтримує більшу підзвітність та прозорість для платформ. Якщо дані громадських соціальних медіа людей не будуть захищені та захищені від шкоди, наприклад, компанії справедливо обмежують доступ до захисту своїх користувачів від витоку інформації в стилі Cambridge Analytica.

    Необхідно – розширення існуючих дослідницьких мереж, щоб найкращі практики доступу до даних могли ділитися з якомога більшою кількістю груп. Технічна підтримка для підтримки найвищих стандартів захисту даних-у вигляді регулярної підготовки дослідників та розробки провідних світових протоколів конфіденційності для всіх, хто використовує-аналогічно забезпечить більшу юридичну визначеність для користувачів соціальних медіа. Регулярне скликання дослідників, щоб люди могли вчитися один у одного про найефективніший та безпечний спосіб проведення таких досліджень, також демократизуватиме поточний доступ до даних, який часто обмежується невеликою кількістю експертів.

    Четвертий компонент семінарів є найважливішим: як підтримувати незалежність між сторонніми дослідниками та регуляторами, відповідальними за зростаючу кількість режимів безпеки в Інтернеті у всьому світі. Для обох сторін важливо ефективно працювати один з одним. Але ні дослідники, ні регулятори не повинні не дивитись – або сприйматися як на себе – один до одного. Незалежність для регуляторів проводити свій нагляд та для дослідників критикувати ці агенції є основною частиною того, як функціонують демократії.

    Це вимагатиме форм державно-приватного фінансування для підтримки постійних робіт з доступу до даних для створення суворих гарантій між дослідниками та регуляторами. Це складний баланс між підтримкою тісних зв'язків між чиновниками та сторонніми людьми, а аналогічно гарантуючи, що жодна сторона не відчуває себе підпорядкованою іншій. Для зустрічі з цим рівноваги суміш практичної підтримки громадськості та неурядового фінансування буде критичною.

    Такі структури вже існують в інших галузях, особливо в галузі медичних досліджень. Вони представляють чітку можливість вчитися у інших, оскільки зовнішні дослідники та регулятори наполягають на більшій відповідальності та прозорості для компаній соціальних медіа.

  • NVIDIA торгає GPU наступного покоління Superchip та нові фотонні вимикачі

    NVIDIA торгає GPU наступного покоління Superchip та нові фотонні вимикачі

    NVIDIA торгає GPU наступного покоління Superchip та нові фотонні вимикачі NVIDIA торгає GPU наступного покоління Superchip та нові фотонні вимикачі

    Новий спектр NVIDIA-X та Quantum-X фотонні вимикачі

    Nvidia сьогодні використовувала свою конференцію GTC, щоб запровадити нові Superchips GPU, включаючи друге покоління свого поточного чіпа Grace Blackwell, а також наступне покоління, яке отримало назву Віри Рубін. Дженсен Хуанг, засновник компанії та генеральний директор компанії, також рекламував нові системи DGX та обговорив, як потужність стимулює Nvidia використовувати фотоніку більш ефективно.

    NVIDIA – компанія GPU, тому, природно, всі на Технологічній конференції GPU (GTC) хотіли почути, що Nvidia має свої рукави GPU. Хуанг передав це та багато іншого, під час двогодинної опорної адреси за упакованим центром SAP в центрі Сан-Хосе, Каліфорнія.

    Очікується у другій половині 2026 року, Рубін буде мати 288 Гб пам'яті 4-го проміжного пропускання 4 (HBM4) проти HBM3E, знайденого в Блеквелл-Ультра, про яке компанія також оголосила сьогодні. Він буде виготовлений TSMC за допомогою 3 НМ, коли Хуанг вперше розкрив ще в 2024 році.

    NVIDIA торгає GPU наступного покоління Superchip та нові фотонні вимикачі NVIDIA торгає GPU наступного покоління Superchip та нові фотонні вимикачі

    Генеральний директор NVIDIA Дженсен Хуанг представив Віру Рубін на GTC 2025

    NVIDIA поєднає графічні процесори Рубіна разом із процесорами, що охрестила Віра. Найновіший процесор NVIDIA буде мати 88 на замовлення ядра та мати 4,2 рази більше оперативної пам’яті (його поточний процесор) та в 2,4 рази більше пропускної здатності пам'яті. Загалом, Віра забезпечить вдвічі більше продуктивності благодаті, сказала Нвідія.

    Nvidia поєднуватиме чіпси Віра та Рубіна разом, як і з Грейс Блеквелл, щоб доставити суперхіп, який має один процесор та два злиті графічні процесори. NVIDIA планує доставити перше покоління своєї Віри Рубін Суперчіп у другій половині 2026 року. Він планує дотримуватися цього з своїм другою поколінням Віра Рубін Суперчіп, названої Вірою Рубін Ультра, яка має чотири графіки.

    Нове покоління мікросхем, включаючи Blackwell Ultra та Rubin, забезпечить велике збільшення обчислювальної ємності. Порівняно з попереднім поколінням хопперних мікросхем, Блеквелл забезпечує швидкість 68x, тоді як Рубін доставить прискорення 900x, повідомляє Huang. З точки зору ціни, Блеквелл коштуватиме 0,13, що коштує Хоппера, а Рубін підштовхне маржу до 0,03.

    NVIDIA переслідує зростаючі генеративні робочі навантаження AI, включаючи навчання масивних моделей AI, а також виконання навантажень на умовивод. Хоча навчання моделі AI може зайняти тижні чи місяці і вимагати величезної кількості даних, очікується, що навантаження на висновки сприятимуть величезним кратним навчальним навантаженням.

    Поява агентських ШІ, завдяки чому моделі міркувань вирішують більш складні завдання від імені людей, призведе до значних циклів для виробника GPU, сказав Хуанг. “Обчислення для агента AI – це 100 разів те, що ми вважали, що нам потрібно минулого року”, – сказав він під час основної доти.

    1742376734 937 NVIDIA торгає GPU наступного покоління Superchip та нові фотонні вимикачі NVIDIA торгає GPU наступного покоління Superchip та нові фотонні вимикачі

    Рубін – наступне покоління GPU NVIDIA

    Те, як компанії будують центри обробки даних для підтримки агента AI, також змінюється. За словами Хуанга, центри обробки даних стають фабриками AI, які генерують жетони.

    “Ми бачимо, що точка перегину відбувається в будівлях центру обробки даних”, – сказав Хуанг.

    Величезні вимоги цих фабрик ШІ посиляться на енергетичні запаси, тим самим спричиняючи попит на більшу ефективність. Один із способів, які NVIDIA планує підвищити ефективність,-це застосування оптичної технології мережі для переміщення даних між графічними процесорами.

    Huang продемонстрував нове фотонне обладнання, яке воно спільно розроблялося для систем DGX з партнерами з екосистеми-включаючи серіалізатори/десеріалізатори (SERDES), лазери та скло-це перемістить ці шматочки за частку вартості прямої міді. Перше покоління нової фотоніки, що отримав назву Spectrum-X, буде доставлено у другій половині 2025 року. Друге покоління, яке отримало назву Quantum-X, доставить у другій половині 2026 року.

    “Це дійсно божевільна технологія, божевільна, божевільна технологія”, – сказав Хуан під час основної доти. “Це перший у світі 1,6 терабіт на секунду процесора.

    Слідкуйте за більше висвітлення конференції GTC NVIDIA.

    Пов’язані предмети:

    Nvidia закручує продуктивність DGX з Blackwell Ultra

    NVIDIA GTC 2025: Що очікувати від кінцевої події AI?

    Nvidia все частіше є таємним соусом при розгортанні AI, але вам все одно потрібен досвід

  • Попит на взаємозв'язок центру обробки даних, встановлений у шість разів

    Попит на взаємозв'язок центру обробки даних, встановлений у шість разів

    Очікується, що попит на пропускну здатність Центру обробки даних (DCI) протягом наступних п'яти років, завдяки швидкому розширенню ШІ, буде шість разів, згідно з недавнім дослідженням мережевої технологічної фірми Ciena.

    Дослідження понад 1300 осіб, які приймають рішення Центру обробки даних, у 13 країнах виявили, що DCI потрібно буде розвиватися для підтримки зростаючого масштабу операцій ШІ.

    Більше половини опитаних (53%) визначили робочі навантаження AI як основний фактор, що сприяє майбутньому попиту на інфраструктуру DCI, обгрунтування хмарних обчислень (51%) та аналітики великих даних (44%).

    Важливо, що очікується, що понад 40% нових об'єктів центрів обробки даних будуть спеціально розроблені для розміщення навантажень AI, при цьому тренування моделі AI та висновки вимагають великої кількості руху даних.

    Юрген Хатейєр, головний директор з технологій Ciena, підкреслив важливість модернізації інфраструктури, зазначивши, що “AI налаштований на прискорення зростання мережевого трафіку, тобто оператори переосмислюють свої архітектури для розміщення цієї нової реальності”.

    Опитування також вказувало на важливість стійких рішень для управління посиленими потребами ШІ.

    Практично всі (98%) респондентів погодилися, що підключена оптика (компактна, енергоефективна компоненти) відіграватиме вирішальну роль у зменшенні як споживання електроенергії, так і фізичного сліду мережевої інфраструктури.

    Крім того, 80% респондентів очікують, що навчання великих мовних моделей (LLMS) буде більше поширюватися в декількох центрах обробки даних.

    Цей розподілений підхід потребує посиленого зв’язку між об'єктами, майже 70% учасників вибирають для керованих оптичних волоконних мереж (MOFN) над традиційними розчинями темного волокна для підключення центру обробки даних довгого руху.

    “Революція AI – це не лише обчислення – це про зв’язок”, – додав Хатейєр. “Без правильної мережі Фонд, повний потенціал AI не може бути реалізований.

  • Прогнозування даних про здоров'я Covid-19: критична оцінка підходів на основі CNN

    Прогнозування даних про здоров'я Covid-19: критична оцінка підходів на основі CNN

    Пандемія Covid-19 представила неперевершені виклики глобальними системами охорони здоров'я, що спонукало термінову потребу в розширених та надійних моделях прогнозування для підтримки управління захворюваннями, формулювання політики та стратегії утримання1,2,3,4. Такі моделі мають вирішальне значення для відстеження прогресування захворювання, оцінки факторів ризику та оптимізації розподілу ресурсів у режимі реального часу. Згорні нейронні мережі (CNNS), потужний клас глибокого навчання, що в цьому плані стали перспективною технологією, демонструючи здатність обробляти та аналізувати різноманітні типи даних про здоров'я, включаючи медичні зображення, геномні дані та інформацію про часові серії. Їх застосування щодо прогнозування результатів, пов'язаних з Covid-19, привернуло увагу через їх потенціал для виявлення складних закономірностей та кореляцій у високомірних наборах даних. Незважаючи на зростаючу популярність, розгортання CNN в умовах охорони здоров’я, особливо для прогнозування Covid-19, загрожує проблемами, які повинні звертатися до їхньої відповідальності. Ця дослідницька робота має вичерпну перспективу науки про дані, щоб дослідити критичні обмеження моделей прогнозування на основі CNN для даних про здоров'я Covid-19. Дослідження визначає три основні напрямки: якість даних, архітектура моделі та узагальнення, кожен з яких відіграє ключову роль у формуванні продуктивності та надійності моделей CNN5,6,7.

    По -перше, питання якості даних є значною перешкодою. Набори даних Health-19 Covid-19 часто страждають від неповних, галасливих або незбалансованих даних, які можуть перекосити модельну підготовку та призвести до упереджених прогнозів8,9. Відсутність стандартизованих та репрезентативних наборів даних у різних регіонах та популяціях ще більше ускладнює розробку узагальнених моделей. У цьому документі підкреслюється необхідність вдосконалених практик курації даних, включаючи надійні методи попередньої обробки, стратегії збільшення даних та включення синтетичних даних для пом'якшення цих проблем. По -друге, досліджуються архітектурні обмеження CNN з особливим акцентом на їх залежність від великих обчислювальних ресурсів та чутливості до установок гіперпараметра. У статті йдеться про те, як ці обмеження можуть перешкоджати масштабованню та ефективності CNN, особливо в налаштуваннях, що обмежуються ресурсами. Більше того, складність архітектур CNN може призвести до перевитрати при навчанні на обмежених наборах даних, зменшуючи їх здатність надійно виконувати невидимі дані10,11,12,13,14. Для вирішення цих питань пропонуються стратегії, як передача навчання з попередньо підготовленими мережами, такими як Resnet та EffectiveNet, а також інтеграція вдосконалених методів оптимізації. По-третє, узагальнення залишається критичною проблемою для моделей CNN в контексті Covid-19. Моделі, які навчаються на конкретних наборах даних, часто намагаються адаптуватися до змін у розподілі даних у різних популяціях та клінічних умовах15,16,17. Ця відсутність адаптивності підриває довіру прогнозів у реальних програмах. У статті підкреслює важливість перехресної перевірки, зовнішньої перевірки на незалежних наборах даних та прийняття мультимодальних підходів, які містять додаткові джерела даних, такі як демографія пацієнта та результати лабораторії, для підвищення стійкості прогнозів.

    Систематично висвітлюючи ці виклики, це дослідження дає корисну інформацію для дослідників та практиків, які мають на меті розгорнути CNN для прогнозування даних про здоров'я Covid-19. Дослідження також підкреслює трансформаційний потенціал CNN у поєднанні з передовими методологіями, такими як методи регуляризації, функції фокусних втрат та пристосування, що стосуються домену, для подолання існуючих бар'єрів. Зрештою, цей документ сприяє більш широкому дискурсу про роль глибокого навчання в галузі охорони здоров'я, пропонуючи дорожню карту для розробки надійних, масштабованих та клінічно відповідних моделей CNN. Звертаючись до окремих обмежень, це дослідження має на меті подолати розрив між теоретичним прогресом та практичною реалізацією, сприяючи створенню інструментів, що працюють на AI, які можуть значно покращити результати охорони здоров'я під час пандемії Covid-19 та за її межами.

    Фон

    Пандемія Covid-19 каталізував неабияке збільшення обсягу та різноманітності даних про здоров'я, зібраних по всьому світу. Ці дані охоплюють широкий спектр джерел, включаючи медичні способи візуалізації, такі як рентген грудної клітки та комп'ютерну томографію (КТ), електронні записи про здоров'я (EHRS), що деталізують клінічні історії пацієнта, молекулярні профілі, такі як геномні послідовності та білкові маркери Ці багатогранні набори даних пропонують безпрецедентну можливість використовувати розширені моделі прогнозування для діагностики випадків Covid-19, прогнозування траєкторій захворювань, прогнозування результатів пацієнтів та оптимізації розподілу ресурсів охорони здоров'я. Однак аналіз даних про здоров'я Covid-19 вводить унікальні проблеми, що відрізняють його від традиційних медичних наборів даних. На ранніх етапах пандемії наявність даних Covid-19 обмежувалася кількома факторами. По-перше, концентрований вплив захворювання на конкретні регіони та популяції призвів до високо незбалансованих наборів даних, з надмірною репрезентацією певних демографічних груп та недостатньо представлення інших. Ця відсутність різноманітності в даних запроваджувала упередження в модельному навчанні та перешкоджала розвитку узагальнених алгоритмів прогнозування. Крім того, обмежений обсяг ранніх даних Covid-19 ускладнив підготовку надійних моделей, здатних захоплювати складні візерунки та кореляції.

    У міру розвитку пандемії з'явилися нові виклики з появою нових варіантів SARS-COV-2, кожна з яких виявляє чіткі характеристики трансмісійності, тяжкості та ухилення імунітету. Цей динамічний характер вірусу вимагав від прогнозованих моделей постійно адаптуватися, враховуючи мінливий ландшафт клінічних та епідеміологічних даних. Моделі, які добре працювали під час початкових хвиль пандемії, часто намагалися підтримувати свою точність та надійність в умовах нових варіантів та зміщення демографії пацієнтів. Такі виклики підкреслили важливість розробки гнучких та пристосованих рамок прогнозування, які могли б розвиватися поряд з пандемією. Крім того, інтеграція неоднорідних типів даних, що стосуються даних візуалізації, до клінічної та молекулярної інформаційної технічної складності з точки зору попередньої обробки даних, стандартизації та вилучення функцій. Відсутність стандартизованих протоколів для обміну даними та анотації ще більше ускладнила ці проблеми, обмежуючи масштабованість та відтворюваність прогнозних моделей у різних умовах охорони здоров'я. Незважаючи на ці виклики, розробка ефективних та надійних моделей прогнозування залишається критичним пріоритетом для спільноти наукових даних. Прогностичні алгоритми мають величезний потенціал для трансформації боротьби з пандемією, забезпечуючи ранню діагностику, стратифікацію ризику та оптимізацію ресурсів. Наприклад, точні моделі прогнозування можуть допомогти визначити пацієнтів з високим рівнем ризику, які потребують негайного медичного втручання, прогнозування регіональних сплесків у випадку, щоб керувати політикою охорони здоров'я та визначити пріоритетність розподілу вакцини у недооцінених популяціях.

    Термінованість цих потреб призвела до значного прогресу у застосуванні машинного навчання та методик глибокого навчання до даних про здоров'я Covid-19. Зокрема, CNN показали обіцянку при обробці та аналізі високовимірних даних, таких як медичні зображення, що дозволяє автоматизувати та точні прогнози. Однак їх застосування також виявило критичні обмеження, включаючи чутливість до якості даних, перевитрати на обмежені набори даних та проблеми у узагальненні до небачених населення. На закінчення, пандемія Covid-19 створила безпрецедентний попит на інноваційні та адаптивні моделі прогнозування. Розробка таких моделей вимагає подолання значних перешкод, включаючи дисбаланс даних, появу нових варіантів вірусу та інтеграцію неоднорідних джерел даних. Вирішення цих викликів є життєво важливим для використання повного потенціалу підходів, керованих даними в управлінні пандемією та формуванню майбутніх відповідей на глобальні кризи охорони здоров'я. Ця стаття досліджує ці виклики поглибленими та обговорює роль ЦНН у навігації щодо складності прогнозування даних про здоров'я Covid-19.

    Мотивація

    Машинне навчання (ML) та глибоке навчання (DL), інтегральні гілки штучного інтелекту (AI), використовують нейронні мережі для обробки величезних наборів даних та розкриття складних моделей. Їх пристосованість призвела до трансформаційних досягнень у численних областях18,19,20,21,22,23,24,25,26,27,28,29. У галузі охорони здоров’я глибоке навчання стало незамінним у таких сферах, як медична візуалізація, розробка наркотиків, прогнозна аналітика, персоналізовані стратегії лікування та робототехнічна хірургія30,31. Проводячи високоточні та ефективні рішення, глибоке навчання продовжує переробляти галузі та підвищувати якість життя. Однак такі проблеми, як забезпечення конфіденційності даних та вирішення значних вимог до обчислювальних ресурсів, залишаються критичними для його стійкого прогресу.

    Цілі дослідження

    Основна мета цього дослідження-провести всебічне дослідження проблем та обмежень, пов'язаних із використанням CNN для прогнозування даних про здоров'я Covid-19. Дослідження тягне за собою ретельне вивчення складностей, пов'язаних із збору даних, попередньою обробкою та архітектурою моделі, з всебічною метою визначення потенційних факторів, які можуть негативно вплинути на точність та узагальненість прогнозних моделей на основі CNN. Крім того, дослідження намагаються надати приклади випадків у реальному житті, які пояснюють практичні наслідки цих проблем, пропонуючи при цьому можливі стратегії пом'якшення наслідків для підвищення стійкості та надійності моделей прогнозування на основі CNN в контексті даних про здоров'я Covid-19. Це наукове розслідування має на меті внести цінні відомості до спільноти з наукових даних та запропонувати підтримку постійним починанням у ефективному управлінні та контролі пандемії Covid-19.

    Обсяг та обмеження

    Це дослідження присвячене дослідженню проблем та обмежень щодо застосування CNN у домені прогнозування даних про здоров'я Covid-19. Дослідження спеціально зосереджено на вивченні різноманітного масиву джерел даних про здоров'я, що використовуються в цьому контексті, що охоплюють рентгенологічні образи, клінічні записи та генетичні профілі. Проводячи ретельний аналіз, стаття має на меті забезпечити всебічний огляд перешкод, що виникають під час використання CNN для прогнозного моделювання з цими різноманітними джерелами даних. Більше того, це дослідження намагається забезпечити цінну інформацію про потенційні вдосконалення, які можуть бути зроблені для розробки більш надійних та інтерпретаційних моделей прогнозування. Ключові фактори включають дефіцит даних, притаманні ухили, обчислювальні складності та здатність моделей ефективно узагальнювати нові варіанти Covid-19. Приклади в реальному житті та емпіричні аналізи представлені на всій території висновків, а стаття завершується, пропонуючи цінні рекомендації дослідникам та практикам у галузі наукових даних, вносячи вагомий внесок у глобальні починання в управлінні та пом'якшенні пандемії Covid-19-1932,33.

  • Salesforce та HubSpot надають розуміння клієнтів

    Salesforce та HubSpot надають розуміння клієнтів

    Ідеальний клієнт – це той, хто найбільше отримує користь від ваших товарів чи послуг і, швидше за все, неодноразово купувати у вас. Визначення цього клієнта вимагає ретельних досліджень та аналізу.

    За даними HubSpot (2022), визначаючи персону ідеального клієнта, передбачає розгляд демографії (вік, статі, місцезнаходження, рівня доходу, освіти та заняття), психографії (цінності, інтереси, способу життя та риси особистості), поведінки (покупки, лояльність бренду та залучення соціальних медіа) та больові точки (виклики, з якими вони стикаються з вашою бізнесом).

    Проводити дослідження ринку – Дослідження ринку надає дані, необхідні для вдосконалення вашого ідеального профілю клієнтів. Планувальники малого бізнесу можуть використовувати як первинні, так і вторинні методи дослідження для збору розуміння.

    Первинне дослідження передбачає збір нових даних безпосередньо від клієнтів. Методи включають: Опитування та анкети -Онлайн або особисті опитування допомагають підприємствам зрозуміти уподобання та больові точки. Згідно з повідомленням Qualtrics (2021), 89% підприємств використовують опитування відгуків клієнтів для покращення їх пропозицій. Інтерв'ю та фокус -групи – Якщо говорити безпосередньо з клієнтами, надає якісні уявлення про свої емоції та мотивації. Спостереження та взаємодії з клієнтами -Аналіз поведінки в магазині або в Інтернеті може виявити схеми покупки та уподобання.

    Вторинні дослідження використовує існуючі дані з надійних джерел, таких як: Звіти промисловість – Звіти таких фірм, як Nielsen, McKinsey та Statista, пропонують глибокі розуміння ринку. Аналіз конкурентів – Вивчення клієнтської бази конкурентів може виявити прогалини на ринку. Соціальні медіа та огляди в Інтернеті – Моніторинг онлайн -дискусій допомагає визначити загальні проблеми та тенденції клієнтів.

    Використовуйте сегментацію клієнтів – Сегментація клієнтів ділить широку аудиторію на менші групи на основі спільних характеристик, що дозволяє більш персоналізовані маркетингові стратегії. Демографічна сегментація – Націлювання на клієнтів на основі віку, статі, доходу тощо. Географічна сегментація – Розмежування клієнтів за місцем розташування. Психографічна сегментація – Групування клієнтів за допомогою способу життя, інтересів та цінностей. Поведінкова сегментація – Ідентифікація клієнтів на основі історії їх покупки та взаємодії з брендом.

    Проаналізуйте поведінку клієнтів Розуміння того, як клієнти приймають рішення щодо закупівлі, має вирішальне значення. Кілька моделей допомагають підприємствам зрозуміти поведінку клієнтів: Подорож покупця – Клієнти зазвичай проходять три етапи: усвідомлення, розгляд та рішення. Підприємства повинні налаштувати вміст до кожного етапу. Відгуки клієнтів та відгуки – Прямий відгук через огляди в Інтернеті, відгуки та взаємодії з підтримкою забезпечують цінну інформацію про задоволення клієнтів. Аналітика даних – Такі інструменти, як Google Analytics та CRM програмного забезпечення, відстежують взаємодію клієнтів, що дозволяє бізнесу вдосконалювати свої стратегії.

    Побудувати відносини з клієнтами Довгостроковий успіх залежить від сприяння міцних відносин з клієнтами. Ключові стратегії включають: Персоналізоване спілкування – Використання даних клієнтів для персоналізації електронних листів, рекомендацій та пропозицій. Відмінне обслуговування клієнтів – Забезпечення чуйної та корисної підтримки формує довіру та лояльність. Залучення громад – взаємодія з клієнтами через соціальні медіа та події зміцнює зв’язки бренду. Програми лояльності – Нагородження повторних клієнтів збільшує рівень утримання. Дослідження Гарвардського огляду (2022) показало, що 65% бізнесу компанії надходить від існуючих клієнтів.

    Важіть технології для розуміння клієнтів. Сучасна технологія забезпечує потужні інструменти для отримання більш глибокої інформації про клієнтів. Системи управління відносинами з клієнтами (CRM) – Такі платформи, як Salesforce та HubSpot, та аналізують дані клієнтів, допомагаючи підприємствам передбачити моделі покупки. Штучний інтелект (AI) та машинне навчання -Інструменти, орієнтовані на AI, аналізують поведінку клієнтів та прогнозують майбутні тенденції. Інструменти соціального прослуховування – Платформи, такі як Hootsuite та Sprout Social Track, згадують та настрої клієнтів в Інтернеті.

    Щоб будь -який бізнес процвітав, він повинен мати товар чи послугу, яку вимагає ринок, продемонстрував диференціацію та має клієнтів, які готові купувати. Продавці повинні розвивати глибоку інформацію про свою клієнтську базу, щоб задовольнити їхні потреби, бажання та бажання. Як? (1) Застосувати інструменти збору даних для збору демографічної інформації, зрозуміти схеми придбання та їх тенденції поведінки, (2) використовувати опитування клієнтів та петлі зворотного зв’язку для отримання розуміння: короткі цілеспрямовані опитування, пропонуйте стимули та регулярно вимагають відгуків клієнтів, (3) натисніть на прослуховування соціальних медіа, щоб визначити настрої клієнтів, спостерігати за їхніми перевагами та безпосередньо залучати клієнтську базу, (4) аналізувати дані про покупку та (5). больові точки та можливості для залучення.

    Pierre Herubel рекомендує п’ять ідеальних принципів клієнтів, який може слідувати малий бізнес: зосередитись на одному ідеальному клієнті – ви не можете бути всім для всіх, активно слухайте своїх клієнтів – знайдіть кілька способів слухати та навчитися, зрозуміти, чому ваші ідеальні клієнти купують – розуміють їх поведінку і що мотивує їх купувати, збирати правильну інформацію про них – задайте правильні питання щодо їх ролі у примушенні ваших доходів і розуміють, як вони купують – що є їх процесом для вирішення їх болю.

    Розуміння ваших ідеальних клієнтів вимагає постійних досліджень, сегментації, аналізу поведінки та побудови відносин. Підприємства, які інвестують у ці сфери, можуть створювати цільові маркетингові стратегії, підвищити задоволеність клієнтів та підвищити довгострокову прибутковість. Використовуючи дані, технології та персоналізовану взаємодію, компанії можуть створювати більш міцні зв’язки зі своїми ідеальними клієнтами, що призводить до постійного успіху.

    Укладений Марк Л. Голдберг, сертифікований наставник, оцінка Cape Cod & The Aralless, www.score.org/capecod, 508/775-4884. Безкоштовне та конфіденційне наставництво для малого бізнесу та без прибутку. Навчальні семінари та вебінари. Джерела: Pierre Heruble, Pierreherubel.substack, 5 ідеальних принципів клієнтів, Shopify, Ідеальний профіль клієнтів: компоненти та як створити (2023), HubSpot, як створити детальні персони покупців для вашого бізнесу (2022), McKinsey & Company, майбутнє B2B продажів: Велике оновлення (листопад 2022)

  • Новини аналітики в режимі реального часу на тиждень, що закінчується 15 березня

    Новини аналітики в режимі реального часу на тиждень, що закінчується 15 березня

    аналітики в режимі реального часу на тиждень що закінчується Новини аналітики в режимі реального часу на тиждень, що закінчується 15 березняаналітики в режимі реального часу на тиждень що закінчується Новини аналітики в режимі реального часу на тиждень, що закінчується 15 березня


    У цьому тижні аналітики в реальному часі: Boomi оголосив Boomi AI Studio, яка допомагає керувати агентами AI в масштабах.

    Слідом за новинами та розробками в аналітиці в режимі реального часу та AI на ринку може бути непростим завданням. На щастя, ми висвітлювались із підсумком предметів, які наші персонал стикається щотижня. І якщо ви віддаєте перевагу у своїй папці “Вхідні”, Зареєструйтесь тут!

    Бумові оголосив про запуск Boomi AI Studio, безпечного рішення управління AI, яке дозволяє організаціям розробляти, керувати та організувати агентів AI в масштабах. Рішення, тепер доступне в ранньому доступі, надає організаціям безпечний, сумісний та постачальник-агностичний спосіб розробки, оркестру, моніторингу та оптимізації унікальних агентів ШІ-побудованих на Boomi або сторонніх технологій-та забезпечує повне управління життєвим циклом AI для забезпечення безперебійної інтеграції, управління та контролю на всьому підприємстві.

    Коротше кажучи, новини аналітики в режимі реального часу

    Поточний Опублікував еволюцію Current Cloud, орієнтована на розробник, яка перетворює те, як розробники та команди DEV будують, розгортають та масштабують додатки та послуги, що стосуються подій. Рішення вводить спільну інфраструктуру із безпекою підприємства для Kurrent Cloud, що виключає складність виділених серверів, зменшуючи при цьому інфраструктурні витрати. Зараз розробники можуть розгорнути повністю забезпечені кластери Kurrent за хвилину із вбудованим доступом до загальнодоступної мережі та налаштуванням рівня безпеки, включаючи безпеку взаємного транспортного рівня (TLS).


    PTC Топ -5 причин вам потрібна стратегія даних OT  PTC Топ -5 причин вам потрібна стратегія даних OT

    Чисте зберігання Дебютував Flashblade // EXA, високоефективна платформа для зберігання даних, розроблена для найвибагливіших вимог AI та високоефективних обчислень (HPC). Дані архітектури Flashblade // Exa незалежно та забезпечують майже необмежену шкалу з сторонніми вузлами даних, що не мають необмеженої кількості, що забезпечують високу масштабовану багатовимірну продуктивність. Зокрема, рішення розбиває вузьке місце метаданих з перевіреною архітектурою на основі Flashblade, побудованою для високої одночасності та величезної кількості операцій метаданих, характерних для великих масштабів робочих навантажень AI та HPC.

    Програмне забезпечення Scaleout Введені генеративні вдосконалення AI та машинного навчання (ML) до своєї хмарної служби Digital Twins Cloud Twins та локальною хостинською платформою з випуском версії 4. Цей останній випуск представляє генеративну інтеграцію AI за допомогою великої мови OpenAI, що значно розширює здатність цифрових близнюків для аналізу даних, виявлення аномалій та забезпечує реальні враження під час моніторних систем живих систем.

    Супермікро оголосив, що представляє широкий спектр нових систем, які повністю оптимізовані для краю та вбудованих навантажень. Кілька з цих нових компактних серверів, які базуються на останній родині процесорів Intel Xeon 6 SOC (раніше кодуючи Granite Rapids-D), надає можливість бізнесу оптимізувати інкрустування AI в режимі реального часу та забезпечити розумніші програми в багатьох ключових галузях.

    Untether ai Введено вдосконалення підтримки моделі AI та швидкості розробника для користувачів набору розробки програмного забезпечення Imaigine (SDK). Використовуючи нову генеративну технологію компілятора, майбутній випуск Imaigine SDK підтримуватиме в чотири рази більше моделей AI, ніж попередні випуски. Крім того, для нових нейронних мереж користувачів може архітектувати, генеративний компілятор створює нові ядра для цих шарів автоматично, скорочуючи час розробки до лише хвилин, збільшуючи швидкість розробника на порядок.

    Величезні дані Оголошено нові вдосконалення на своїй величезній платформі даних, об'єднавши структуровані та неструктуровані дані в єдиний Dataspace, який лінійно масштабується до гіперкалії-з уніфікованою безпекою корпоративного класу. Ці нові можливості допомагають підприємством AI та аналітикою, поєднуючи пошук вектора в режимі реального часу, тонкозернисту безпеку та обробку, керовану подіями, у безшовну, високоефективну екосистему даних, яка живить величезний інсайгін. Величезний InsightEngine перетворює необроблені дані в AI-готові до розуміння через інтелектуальну автоматизацію, що дозволяє підприємствам будувати вдосконалені програми AI, агентські робочі процеси та високошвидкісні трубопроводи.

    Дієслово Зробив ще одне ключове доповнення до свого портфоліо термічного управління з впровадженням Coolloop Coolloop Coolloop. Рішення підтримує додатки з повітряним та рідким охолодженням для штучного інтелекту (AI) та високоефективних обчислень (HPC). Крім того, рішення підтримує різноманітні кліматичні умови для гібридних охолоджених або рідких охолоджуваних центрів обробки даних та фабрик AI.

    Партнерства, співпраця тощо

    Підшкірний оголосив про свою інтеграцію з Даних Джині, що приносить потужний запит природної мови до Lakehouse Databricks. Це стратегічне партнерство дає змогу діловим користувачам задавати складні питання прості мовою та отримувати точні, відповіді в режимі реального часу, значно посилюючи прийняття рішень, не вимагаючи досвіду SQL.

    Крут оголосили про дві нові керовані послуги на своїй хмарній платформі Crusoe Nvidia. Нові послуги включають керовану Crusoe висновок, який дозволяє розробникам швидко та легко запускати та автоматично масштабувати розгортання моделей машинного навчання без необхідності налаштувати або підтримувати складну інфраструктуру AI, та Crusoe Autoclusters, вдосконалену оркестраційну платформу для навчання AI.

    Мозок і Обіймати обличчя оголосило про нове партнерство, щоб принести висновки Cerebras на платформу обіймати обличчя. Huggingface вбудував мозок у Huggingface Hub, що призвело до висновку понад п’ять мільйонів розробників на Huggingface.

    Даних і Palantir Technologies оголосив стратегічне партнерство з продуктом. Партнерство забезпечить відкриту та масштабовану архітектуру даних, яка поєднує в собі систему онтології Палантіра з масштабом обробки даних та платформою AI та платформою AI. Спільні клієнти зможуть ввімкнути автономні робочі процеси в режимі реального часу через інтеграцію платформи даних даних даних Databricks та Palantir AIP.

    Мізерний оголосив про наявність своєї хмарної платформи продуктивності даних Сніжинка Ринок. Виводячи хмару продуктивності даних MATILLION на ринок сніжинок, спільні клієнти зможуть використовувати матрильйон через свою екосистему сніжинки.

    Точно оголосив про наявність декількох нових нововведень у своїх можливостях з розвідки та збагачення даних через Сніжинка Ринок. З останніми релізами, спільні клієнти тепер можуть використовувати потужні рішення щодо подолання гео та збагачення даних у своїх середовищах.


    PTC Топ -5 причин вам потрібна стратегія даних OT  PTC Топ -5 причин вам потрібна стратегія даних OT

    Системи Rafay і Приємніший оголосило про стратегічне партнерство, спрямоване на трансформацію хмарної інфраструктури GPU для підприємств, які прагнуть встановити можливості та програми AI. Разом RAFAY та NETRIS допомагають прискорити споживання та монетизацію інфраструктури на основі GPU, пропонуючи робочі процеси для самообслуговування для модельних тренувань, тонкої настройки та випадків використання виступу.

    Сервіцену оголосив, що підписав остаточну угоду про придбання Moveworks. Придбання поєднає агента AI ServiceNow та сильні сторони автоматизації з передовим помічником AI та технологією пошуку підприємств MoveWorks, щоб розблокувати новий досвід для кожного працівника для кожного куточка бізнесу.

    Суглоб оголосив програму SUSE Cloud Elevate для керованих постачальників послуг (MSPS), нова програма в рамках програми SUSE One Partner, спеціально розробленої для керованих постачальників послуг. Тепер MSP зможуть продати новий SaaS SaaS SaaS SaaS з управління контейнерами підприємства Ашт Marketplace, цифровий каталог із тисячами списків програмного забезпечення, які легко працюють на веб -сервісах Amazon (AWS).

    Зедеда Оприлюднена розширена підтримка для Nvidia's Платформа Edge AI, впроваджуючи розширену інтеграцію з Nvidia Jetson Systems, каталогом NGC та інструментарію TAO. Інтеграція надає підприємствам повний робочий процес для розгортання, забезпечення та управління моделями AI на краю, що дозволяє швидше інновації, забезпечуючи при цьому надійність експлуатації.

    Якщо ваша компанія має новини про аналітику в реальному часі, надішліть свої оголошення [email protected].

    Якщо ви пропустили це, ось наші останні попередні щотижневі новини про аналітику в реальному часі:

  • Інструмент Spotiphy AI покращує просторову транскриптоміку для точної медицини

    Інструмент Spotiphy AI покращує просторову транскриптоміку для точної медицини

    Технологія великих даних, освітлена на чорному тлі, щоб представити, як інструменти AI, такі як філофрам, можуть допомогти зменшити упередженість у прогнозуванні генетичних захворювань
    Кредит: Ваша_фото / istock / getty Images плюс

    Дослідники з дитячої дослідницької лікарні Сент-Джуда та Університету Вісконсіна-Медісон розробили Spotiphy, обчислювальний інструмент, керований AI, що підсилює просторову транскриптоміку, досягнувши як одноклітинної роздільної здатності, так і висвітлення цільного генома. Опубліковано в Методи природиДослідження демонструє здатність Spotiphy реконструювати карти експресії генів високої роздільної здатності, розблокуючи нові розуміння нейродегенеративних захворювань, таких як Альцгеймера та поліпшення досліджень раку.

    Подолання компромісу в просторовій транскриптоміці

    Просторова транскриптоміка (ST) – це потужна методика, яка фіксує експресію генів у неушкоджених тканинах. Однак існуючі методи потребують компромісу:

    • ST на основі секвенування охоплює весь геном, але має низьку роздільну здатність, групування декількох клітин в одну точку даних.
    • ST на основі візуалізації пропонує одноклітинну роздільну здатність, але фіксує лише обмежену кількість генів.

    Щоб вирішити це, Spotiphy застосовує машинне навчання для екстраполяції відсутньої інформації, ефективно подолати розрив між цими двома підходами.

    “Ми зробили перший генеративний алгоритм, який може передбачити просторову експресію генів цілої транскриптоміки на одноклітинному рівні”,-сказав Джиянг Ю, доктор наук, тимчасовий голова обчислювальної біології в Сент-Джуді. “Ключовим є запозичення інформації з одноклітинних даних RNA-Seq та даних гістології з цим підходом до генеративного моделювання.”

    Як працює Spotiphy: реконструкція зображень, що працюють на AI

    Spotiphy використовує генеративний алгоритм, який навчається у великих базах даних просторової транскриптоміки, поєднаних з гістологічними зображеннями. Звичайні дані ST збираються у заздалегідь визначених «плямах» через тканинний розділ – як пікселі на зображенні – але кожне місце містить кілька змішаних клітин, що ускладнює розрізнення індивідуальних моделей експресії генів.

    Використовуючи машинне навчання, Spotiphy заповнює прогалини між цими плямами, реконструюючи дуже детальну карту експресії просторової гена.

    “Уявіть собі картину руки, але середина відсутня”,-сказав автор співпраці Джунмін Пенг, доктор наук. “Алгоритм набув загальних правил від своєї підготовки, щоб він міг втілити відсутню частину картини – як реконструкція, де і як повинна виглядати долоня, або насправді простір між місцями візуалізації”.

    Застосування при хворобі Альцгеймера та раку

    Здатність Spotiphy вирішувати одноклітинну просторову транскриптоміку робить її особливо цінною для вивчення складних захворювань, таких як Альцгеймер.

    У мишачій моделі хвороби Альцгеймера Spotiphy виявив чіткі підтипи астроцитів (тип клітин мозку) та підтвердили посилення присутності мікроглії, пов’язаної з хворобою, підтримуючи теорії, що мікрогліальна дисфункція сприяє нейродегенерації.

    При застосуванні до зразків раку молочної залози Spotiphy виявив неоднорідність у мікросередовищах пухлини, виявляючи просторові взаємодії між пухлинами та навколишніми клітинами, які попередні технології не могли вирішити.

    “Ми бачили, що дані відображали відомі неоднорідність раку молочної залози”,-сказав співавторний автор Jiyuan Yang, доктор наук. “Ми також вклали значні зусилля у створення відповідних наборів даних для мізків миші, які, на нашу думку, стане цінним ресурсом для спільноти просторових OMICS”.

    Просування точної медицини

    Забезпечуючи високу роздільну здатність, дані просторової транскриптоміки повного генома, Spotiphy може допомогти дослідникам відобразити клітинні взаємодії в прогресуванні захворювання, що призводить до більш точної діагностики та цільових методів терапії.

    “Реальною силою цього алгоритму є його здатність розрізняти тонкі відмінності в межах того ж типу клітин, що попередні технології не могли виявити”, – сказав Ю. “Spotiphy дозволяє вченим бачити речі, які вони не могли бачити раніше”.

  • Quant Strats 2025: 4 способи інтеграції LLM у кількісні фінанси

    Quant Strats 2025: 4 способи інтеграції LLM у кількісні фінанси

    1. Копілот для прискорення щоденних робочих процесів

    Найпопулярніший випадок використання AI – це прискорення процесу робочого процесу та продуктивності, “особливо з точки зору кодування та аналітики”, – сказав Еван Рейх, керівник стратегії даних та пошуку в управлінні фондом Верції. “Якщо ви пишете код з нуля, я також не знаю, що ви робите”.

    Це також допомагає фінансовим аналітикам реорганізувати дані. “Скажіть, що ви хочете, щоб щось швидко було досліджено на основі необроблених даних постачальника, і це у такому вигляді, як XML або JSON, і я не пам’ятаю, як з голови, як писати цей конкретний аналізатор. Тепер ви можете отримати код, змінити його, реалізувати його та Voilá, у вас є невеликий кадр даних “, – сказав Євген Мікулет, керівник стратегії даних у світі.

    Незалежно від того, чи AI будує покоління, що перевищує пошук, для чатів чи ловлять помилки програмування, “я бачив принаймні від 20% до 30% підвищення продуктивності, якщо ці інструменти реалізуються правильно”,-сказав Алі.

    «З Copilot все, що зайняло б 10 – 15 хвилин, зараз займають секунди. Я думаю, що всі ми отримали користь від цього інструменту », – сказав Ендрю Гельфанд, керівник Quant та Long/короткий капітал альфа -захоплення в Balyasny Asset Management.

    Ці виплати за продуктивність є “зміною ігор для менших компаній”, – додав Петтер Колм, професор Інституту математичних наук Курантського університету Нью -Йоркського університету. “Якщо ви невелика компанія, ви не можете витратити занадто багато часу на роботу з окремими клієнтами. У вас немає персоналу, який може сидіти там і робити Q&A цілий день », – сказав він. Але тепер, LLM можуть взяти на себе цю ручну праці.

    Пов'язаний: Банки можуть створювати ефективні стратегії даних в епоху штучного інтелекту.

    2. Автоматизація розкриває більш повну картину даних

    Можливість аналізу та вживання великих обсягів інформації також допомагає великим фінансовим установам мінного даного даних, які раніше не були доступні. Гартнер оцінює, що понад 80% сьогоднішніх даних підприємства неструктуровані. І AI допомагає командам проаналізувати ці неструктуровані дані, які часто є у вигляді “документів, нотаток, електронних листів або PDF -файлів”, – сказав Гельфанд.

    «Багато даних раніше не було доступним. Подумайте про електронні листи, можливо, надіслані від фундаментального аналітика до менеджера портфоліо, підкреслюючи щось із символами або графіком. Ми робимо хороший процес у інтерпретації цих текстових даних набагато краще », – сказав Гельфанд. Цей “стенограма” починає виявляти більш нюансовану, повну картину.

    Експерти заявили, що ці інновації допомагають працівникам стати кращими науковцями. Але командам все ж потрібно перевірити дані та проаналізувати їх за допомогою контролю. “Майте стандартизовану анкету з питань належної ретельності, мають хороший набір метаданих, документації, посібників користувачів тощо”, – сказав Річ Браун, глобальний керівник ринкових даних у Jain Global. Браун також наголосив на тестуванні даних та складанням управління даними в суміш.

    Дізнайтеся: Чи можуть агенти штучного інтелекту справді полегшити робочі навантаження для великих підприємств?

    3. AI дозволяє точне прогнозування та аналіз настроїв

    Обробляючи величезну кількість фінансових новин, дзвінків за прибутки та дані соціальних медіа, AI допомагає командам визначити зміни ринкових настроїв у режимі реального часу. Моделі з обробки природних мов також можуть витягувати інформацію, щоб торговці та аналітики могли приймати більш точні інвестиційні рішення.

    “Ви додаєте адаптер до великої мовної моделі, яка виводить прогнози повернення безпосередньо. Тепер, коли ви налагоджуєте таку модель, ви тренуєте її на етикетках, які безпосередньо пов'язані з корпоративними прибутками »,-сказав Колм.

    Академічні та фінансові моделі встановили, що цей метод забезпечує набагато кращі показники та дозволяє фірмам фільтрувати дані масового ринку індивідуально.

    “Далі я хочу побачити, чи може агентний АІ впорядкувати процес інвестиційних досліджень”, – сказав Алі. “Крім того, більше підходів до побудови моделі в керованому даними, а не нав'язування структури, а потім вписуйте в неї дані”.

    Клацніть на банер нижче для фінансової експертизи щодо навігації щодо дотримання нормативних норм.