Категорія: Великі Дані та Аналітика

  • Пророцтво 4.0 пропонує повністю керовану підготовку даних про самообслуговування для даних SQL

    Пророцтво 4.0 пропонує повністю керовану підготовку даних про самообслуговування для даних SQL

    40 пропонує повністю керовану підготовку даних про самообслуговування для Пророцтво 4.0 пропонує повністю керовану підготовку даних про самообслуговування для даних SQL

    Джерело: Shutterstock

    У 2024 році пророцтво компанії з інтеграції даних Оприлюднив його AI Copilot для Databricksпозначення значного кроку вперед у перетворенні даних. Використовуючи потужність Genai, інструмент дозволив діловим користувачам та аналітикам побудувати трубопроводи даних за допомогою природної мови. Він мав на меті спростити робочі процеси та запропонувати організаціям більш ефективний шлях до ефективного управління та ефективного використання їх ресурсів даних.

    Спираючись на цей фонд, пророцтво тепер представило пророцтво 4.0, останню ітературу своєї платформи інтеграції даних, керованих AI, оптимізовано для Databricks SQL. У той час як минулорічний Copilot стосувався створення трубопроводів, що надають AI, новий випуск більше орієнтований на додавання повних можливостей самообслуговування, не порушуючи правила управління ІТ.

    Взаємозв'язок між пророцтвом та датами кореняться в спільній меті підвищення зручності використання даних для організацій. Пророцтво ґрунтується на інфраструктурі даних даних даних, пропонуючи інструменти, розроблені для спрощення підготовки та трансформації даних для більш широкого спектру користувачів.

    “Організації вкладали свої найцінніші активи даних у Databricks, а пророцтво 4.0 полегшує, ніж коли -небудь зробити ці дані доступними для аналітиків”, – сказав Роджер Мерф, віце -президент з технологічних партнерів у Databricks. “І тому, що пророцтво є вбудованим з платформою даних даних даних Databricks, команди платформ отримують централізовану видимість та контроль над доступом до користувачів, обчислювальними витратами тощо.”

    40 пропонує повністю керовану підготовку даних про самообслуговування для Пророцтво 4.0 пропонує повністю керовану підготовку даних про самообслуговування для даних SQLРозрив між аналітиками та командами даних часто створює проблеми, особливо для великих організацій. Хоча аналітики потребують надійних даних для AI та стратегічного прийняття рішень, центральні команди зосереджуються на управлінні та безпеці. Це відключення або нерівність у пріоритетах часто призводить до неефективності, затримок та пропущених можливостей для повного використання потенціалу даних.

    Недавній Опитування досліджень Уейкфілда виявив, що 50% керівників даних намагаються найняти інженерів даних, тоді як 53% стикаються з труднощами, що масштабують свої команди, щоб задовольнити попит. Незважаючи на постійні зусилля щодо набору та розширення, ці виклики залишаються значним вузьким місцем.

    Пророцтво посилається на результати цього опитування, щоб показати потребу в інструментах, які можуть полегшити навантаження команд даних, і саме це має на меті зробити з останнім випуском. Надання аналітикам можливість готувати дані самостійно допомагає зменшити залежність та навантаження на інженерів даних та підвищує ефективність робочого процесу для організацій.

    Одним із ключових оновлень платформи є те, що він підтримує безпечні з'єднання до широко використовуваних джерел, таких як SFTP, SharePoint, Salesforce та настільні файли, такі як Excel та CSV. Усунувши потребу в спеціальних сценаріях або ручних переказах, ця функціональність не тільки економить час, але й мінімізує потенційні помилки.

    Оновлена ​​платформа також розроблена для оптимізації “останньої милі” робочих процесів даних. Це стосується таких завдань, як інтеграція результатів у такі інструменти візуалізації, як Tableau, та надсилання автоматизованих сповіщень зацікавленим сторонам електронною поштою.

    1743192757 410 Пророцтво 40 пропонує повністю керовану підготовку даних про самообслуговування для Пророцтво 4.0 пропонує повністю керовану підготовку даних про самообслуговування для даних SQLКрім того, пророцтво запровадило вбудовану автоматизацію з інтерфейсом перетягування. Це розроблено для того, щоб аналітики легко проектувати, запускати та перевіряти робочі процеси, не покладаючись на технічну експертизу чи додаткові інструменти.

    За словами Стюарта Бонда, віце -президента з програмного забезпечення інтелекту та інтеграції даних в IDC, складність сучасних середовищ даних, що характеризується їх розподіленим та динамічним характером, створює значні проблеми для підприємств. Він підкреслив, що оскільки організації все частіше мають на меті дозволити нетехнічним користувачам доступ до корпоративних даних, такі рішення, як пророцтво 4.0, можуть стати більш важливими.

    Під час впровадження оновлення на платформу, пророцтво забезпечило його пріоритетне управління. Платформа має спрощений контроль версії, дозволяючи аналітикам та інженерам працювати разом, щоб вдосконалити та розгорнути трубопроводи. Він також включає профілі даних, які дають користувачам уявлення про такі речі, як розподіл даних та повнота.

    Пророцтво додало пакунки для багаторазового використання, щоб полегшити користувачам створювати робочі процеси, які відповідають заздалегідь визначеним стандартам відповідності. Ця функція також може бути корисною для того, щоб допомогти командам спостереження визначити та вирішити проблеми рано.

    Радж Бейнс, генеральний директор пророцтва, підкреслив, що неефективність, спричинена відключеними робочими процесами між командами даних, є головним больовим моментом. Ці роз'єднані процеси часто негативно впливають на продуктивність та відходять цінні ресурси.

    1743192757 383 Пророцтво 40 пропонує повністю керовану підготовку даних про самообслуговування для Пророцтво 4.0 пропонує повністю керовану підготовку даних про самообслуговування для даних SQL“Ми відвідували компанії, де аналітики окреслювали робочі процеси даних у своїх інструментах підготовки даних, а потім інженери вниз за течією перероблять весь трубопровід з нуля за допомогою свого програмного забезпечення ETL”, – сказав Бейнс. “Це була величезна марна трата часу та енергії. З пророцтвом 4.0 все робиться один раз. Аналітики можуть розробляти та публікувати трубопроводи, коли вони хочуть, із попередньо визначеними ним безпекою, продуктивністю та стандартами доступу до даних”.

    Поєднуючи підготовку даних про самообслуговування та перші можливості управління, Prophecy 4.0 має потенціал виділитися як цінний інструмент для підприємств, які прагнуть уточнити свої робочі процеси.

    Однак його успіх буде залежати від подолання проблем, таких як забезпечення сумісності зі застарілими системами та відповідання різноманітними вимогами до відповідності в галузях. Недавній 47 мільйонів доларів серії B повинен допомогти забезпечити компанію ресурсам, необхідними для подальшого покращення платформи.

    Пов’язані предмети

    AI, що робить роботу аналітика даних більш стратегічним, каже Альтеркс

    Перевірка реальності для Genai: Deloitte знаходить ентузіазм, загартовані перешкодами усиновлення

    Щорічний звіт Графани виявляє ключові уявлення про майбутнє спостереження

  • Індіана запускає “Капітан -запис”, інструмент AI, який шукає 100 років державних документів

    Індіана запускає “Капітан -запис”, інструмент AI, який шукає 100 років державних документів

    Державний секретар Індіани та його головний директор з питань інформації Роберт Фулк, у вівторок, оприлюднили “Капітан -запис”, генеративний інструмент штучного інтелекту, який дозволяє користувачам шукати державні документи на суму понад 100 років.

    Капітан -запис, який використовує інструменти Google Cloud ALEX AI та Gemini 2.0 та платформа автоматизації MAVQ, дозволяє користувачам шукати на 20 мільйонів сторінок архівованих записів від Державного секретаря та його підрозділів бізнес -послуг, цінних паперів та автодилерів. Капітан Рекорд може знайти що завгодно – від реєстрації бізнесу з 1923 року до фінансової подачі з минулого року.

    Модель AI інструменту, яка реагує на пошукові запити, зроблені простою мовою, забезпечує функції фільтра та пошуку майже 10 терабайт державних документів.

    Фулк заявив, що проекту знадобилося близько шести місяців, включаючи кілька тижнів лише для імпорту великої кількості записів. Фулк заявив, що модель навчалася інтерпретувати все-від 100-річних рукописних документів до набраних записів, зберігаючи суворі стандарти точності, цілісності та безпеки.

    У той час як держава вже мала більшу частину своїх паперових та мікрофіше, оцифрованих постачальником, Фулк сказав, що зусилля щодо завантаження записів у інструмент пошуку, швидше за все, знадобиться ще один рік. Процес, однак, ніколи не закінчиться, оскільки записи постійно завантажуються з онлайн -порталу бізнесу держави.

    “Краса AI зараз полягає в тому, що ви можете навчити ботів AI [the data] Щоб знайти це, індексуйте, що розумійте їх і дійсно почніть перетворювати це на деякі справді круті речі, де ви можете взаємодіяти з ним, і перетворити це неструктуровані, заблоковані дані та інформацію в живий інтелект “,-сказав Фулк.

    Модель капітана запису, за словами Фулк, є абсолютно приватною – це означає, що дані, що подаються, не продовжуватимуть інформувати чи тренувати будь -які інші моделі AI. І хоча Captain Record наразі доступний лише для внутрішнього використання, він сказав, що держава сподівається зробити його загальнодоступним після запуску функції чатів.

    “Це досить круто, навіть якщо це старі записи. Ми робимо це з метою, правда? Одне – надати записи, а по -друге, – це зробити його публічно зіткнутися і прозорим”, – сказав Фулк. “Ми збираємось навчити чат -бота насправді інтерпретувати та розуміти ці документи. Як і в чатгпті, ви насправді можете з ними спілкуватися. Вони можуть їх зрозуміти. Вони можуть перетворити їх на дані”.

    Фулк сказав, що його офіс зараз навчає персонал, як користуватися інструментом. Державний секретар штату Індіана оприлюднив інші чати, такі як Ліз, віртуальний агент AI для ділового порталу держави. Але Фулк заявив, що виконання цього проекту та роботи під державним секретарем Індіани Дієго Моралес дозволив йому застосувати свій 28 -річний досвід роботи в приватному секторі уряду.

    “Ми дійсно якось підштовхуємо межі щодо використання цих речей AI”, – сказав він. “… Це мій перший раз в уряді, і я, на щастя, працюю в секретаря. Він дозволяє мені їздити і хоче по-справжньому вплинути, що дозволяє мені сприяти інноваціям і змінюватись, хоча ми уряду. Тому я начебто приношу цю дисципліну, і мені подобається робити речі в три-шість-місячних кадрах, а не за три-п’ять років. І це весело”.

    Кілі Квінлан

    Автор Кілі Квінлан

    Кілі Квінлан повідомляє про конфіденційність та цифровий уряд для Statescoop. Зараз вона була репортером з розслідувань у Кларксвіллі в штаті Теннессі, де вона проживає, а її висвітлення включали місцеві злочини, суди, державну освіту та охорону здоров'я. Її робота з'явилася в підлітковому моді, стереогумі та інших торгових точках. Вона отримала бакалавр з журналістики та магістра соціального та культурного аналізу в Нью -Йоркському університеті.

  • Протокол контексту моделі з відкритим кодом просто оновлювався – ось чому це велика справа

    Протокол контексту моделі з відкритим кодом просто оновлювався – ось чому це велика справа

    Приєднуйтесь до наших щоденних та щотижневих бюлетенів для останніх оновлень та ексклюзивного контенту щодо провідного охоплення AI. Дізнайтеся більше


    Протокол контексту моделі (MCP) – зростаючий відкритий стандарт, розроблений для того, щоб допомогти агентам AI безперешкодно взаємодіяти з інструментами, даними та інтерфейсами – просто потрапляє на значну віху. Сьогодні розробники, що стоять за ініціативою, доопрацювали оновлену версію специфікації MCP, представляючи оновлення ключів, щоб зробити агентів AI більш безпечними, здатними та сумісними.

    У дуже значному кроці, OpenAI, лідер галузі в генеративному ШІ, дотримувався сьогодні MCP оголошення, заявивши, що він також додає підтримку MCP у своїх продуктах. Генеральний директор Сем Альтман заявив, що підтримка доступна сьогодні в Agents OpenAI SDK, і ця підтримка для настільного додатка Chatgpt та API відповідей незабаром з’являться.

    Microsoft оголосила підтримку MCP разом із цим випуском, включаючи запуск нового сервера драматурга-MCP, який дозволяє агентам AI, як Claude, переглядати Інтернет та взаємодіяти з сайтами за допомогою хромованого дерева доступності.

    “Ця нова версія є головним стрибком вперед для зв'язку з агентом-інструкцією”,-сказав Алекс Альберт, ключовий учасник проекту MCP, у публікації у Twitter. “І наявність Microsoft, що створює інфраструктуру в реальному світі, на ній показує, як швидко розвивається ця екосистема”.

    Що нового в оновленому MCP версія?

    Оновлення 26 березня приносить кілька важливих змін на рівні протоколу:

    • Рамка авторизації OAuth 2.1: Додає надійний стандарт для забезпечення комунікації агента-сервера, особливо в транспорті на основі HTTP.
    • У потоковому транспорті HTTP: Замінює старші налаштування HTTP+SSE, що дозволяє в режимі рединації в режимі реального часу, двонаправлений потік даних з кращою сумісністю.
    • Json-RPC-партія: Дозволяє клієнтам надсилати кілька запитів за один раз, підвищуючи ефективність та зменшуючи затримку взаємодії агента-інструменту.
    • Анотації інструментів: Додає багаті метадані для опису поведінки інструментів, що дозволяє більш образне відкриття та міркування агентами AI.
    Скріншот вмісту, що генерується в чаті, може бути невірним.

    Малюнок 1: Клодовий робочий стіл з використанням драматурга-MCP для орієнтації та опису DataSette.io, демонструючи веб-автоматизацію, що працює від протоколу контексту моделі.

    Протокол використовує модульну базу JSON-RPC 2.0, з багатошаровою архітектурою, що розділяє транспорт основного, управління життєвим циклом, функції сервера (наприклад, ресурси та підказки) та функції клієнта (наприклад, вибірки або журнал). Розробники можуть вибирати та вибирати, які компоненти здійснювати, залежно від випадків використання.

    Вклад Microsoft: Автоматизація браузера через MCP

    Два дні томуMicrosoft випустив Direwright-MCP, сервер, який завершує свій потужний інструмент автоматизації браузера в стандарті MCP. Це означає, що зараз агенти AI, як Клод, можуть робити більше, ніж говорити – вони можуть натискати, вводити, переглядати та яnteract з мережею, як реальні користувачі.

    Побудований на дереві доступності Chrome, інтеграція дозволяє Claude отримувати доступ та описувати вміст сторінки у виготовленій людині. Доступний набір інструментів включає:

    • Навігація: browser_navigate, Go_back, Go_forward
    • Введення: browser_type, browser_click, browser_press_key
    • Знімки: browser_snapshot, browser_screenshot
    • Взаємодія на основі елементів Використання дескрипторів доступності

    Це перетворює будь -який відповідний агент AI на тест -автоматизацію, помічник QA або навігатор даних.

    Налаштування проста: користувачі просто додають драматург як команду в claude_desktop_config.json, і додаток Claude Desktop розпізнає інструменти під час виконання.

    Більша картина: сумісність у масштабі

    Діаграма вмісту, поподіеного AI-сервера, може бути неправильною.

    Малюнок 2: Модульна конструкція MCP дозволяє розробникам реалізовувати лише необхідні шари, зберігаючи сумісність.

    Антропік вперше представив MCP Наприкінці 2023 року для вирішення зростаючої больової точки: агентам AI потрібно взаємодіяти з інструментами в реальному світі, але кожна програма говорить різною “мовою”. MCP має на меті виправити це, надаючи стандартний протокол для опису та використання інструментів для екосистем.

    Завдяки підтримці Antropic, Langchain і тепер Microsoft, MCP стає серйозним суперником для того, щоб стати стандартним рівнем взаємозв'язку агента. Оскільки MCP був запущений вперше антропом, питання затримали, чи найбільший конкурент антропіка, OpenAI, підтримає протокол. І звичайно, Microsoft, великий союзник OpenAI, був ще одним питанням. Той факт, що обидва гравці підтримали протокол, показує, що оберти будується серед громад та громадських громад. Сама OpenAI відкривала свою екосистему навколо агентів, в тому числі з останніми агентами SDK, оголошеними тиждень тому – і цей крок зміцнив підтримку навколо форматів API OpenAI, враховуючи, що інші, як антроп та Google, впали в черзі. Отже, з форматами API OpenAI та MCP, що бачать підтримку, стандартизація за останні кілька тижнів побачила велику перемогу.

    “Ми вступаємо в епоху протоколу AI”,-твітнув Олександр Дорію, співзасновник AI Startup Pleias. “Ось як насправді будуть агенти робити речі. “

    Що далі?

    З випуском MCP 0.2 та відчутної підтримки Microsoft, основа закладається на нове покоління агентів, які можуть думати і діяти надійно та гнучко по всій стеку.

    Завантажене зображення

    Малюнок 3: OAuth 2.1 Потік авторизації в протоколі контексту моделі (MCP)

    Велике питання зараз: чи йдуть інші? Якщо META, Amazon або Apple підписуються, MCP незабаром може стати універсальною «мовою» дій AI.

    Наразі це великий день для екосистеми агента – одна, яка наближає обіцянку АІ сумісності ближче до реальності.

  • Посилення безпеки хмари в AI/ML: Історія маленького соління

    Посилення безпеки хмари в AI/ML: Історія маленького соління

    Оскільки AI та машинне навчання (AI/ML) стають все більш доступними через постачальників хмарних послуг (CSP), таких як веб -сервіси Amazon (AWS), можуть виникнути нові проблеми безпеки, які потребують вирішення клієнтів. AWS надає різноманітні послуги для випадків використання AI/ML, а розробники часто взаємодіють з цими послугами різними мовами програмування. У цій публікації в блозі ми зосереджуємось на Python та його pickle модуль, який підтримує процес, який називається марита Для серіалізації та дезеріалізації об'єктних структур. Ця функціональність спрощує управління даними та обмін складними даними у розподілених системах. Однак через потенційні проблеми з безпекою важливо використовувати піклування з обережністю (див. Попереджувальну записку в Пікл – серіалізація об'єктів Python). У цій публікації ми покажемо вам способи побудови захищених робочих навантажень AI/ML, які використовують цей потужний модуль Python, способи виявлення того, що це використовується, про що ви можете не знати, і коли це може зловживати, і нарешті виділити альтернативні підходи, які допоможуть вам уникнути цих проблем.

    безпеки хмари в AIML Історія маленького соління Посилення безпеки хмари в AI/ML: Історія маленького соління

    Швидкі поради

    Розуміння невпевненої серіалізації соління та десеріалізації в Python

    Ефективне управління даними має вирішальне значення для програмування Python, і багато розробників звертаються до pickle модуль для серіалізації. Однак проблеми можуть виникати при десеріалізації даних з недовірених джерел. Пітон -байтек, який використовує марилінг, є власником Python. Поки це не буде незадоволеним, дані в ByteStream не можуть бути ретельно оцінені. Саме тут контроль та перевірка безпеки стають критичними. Без належної перевірки існує ризик того, що несанкціонований користувач може ввести несподіваний код, потенційно призводить до довільного виконання коду, підробки даних або навіть непередбачуваного доступу до системи. У контексті завантаження моделі AI, безпечна дезеріалізація особливо важлива – це допомагає запобігти зовнішнім сторонам модифікації поведінки моделі, ін'єкційного зворотного доступу або спричиняючи ненавмисне розкриття чутливих даних.

    Протягом цієї публікації ми будемо посилатися на серіалізацію і дезеріалізацію колективно як марита. Подібні проблеми можуть бути присутніми іншими мовами (наприклад, Java та PHP), коли використовуються ненадійні дані для відтворення об'єктів або структур даних, що призводить до потенційних питань безпеки, таких як довільне виконання коду, корупція даних та несанкціонований доступ.

    Аналіз статичного коду порівняно з динамічним тестуванням для виявлення марикації

    Огляди коду безпеки, включаючи аналіз статичного коду, пропонують цінне раннє виявлення та ретельне висвітлення проблем, пов'язаних з марикою. Вивчаючи вихідний код (включаючи сторонні бібліотеки та спеціальний код) перед розгортанням, команди можуть мінімізувати ризики безпеки економічно вигідно. Інструменти, що надають статичний аналіз, можуть автоматично позначити небезпечні шаблони малювання, даючи розробникам дієві уявлення про негайні проблеми. Регулярні огляди коду також допомагають розробникам вдосконалити безпечні навички кодування з часом.

    Хоча статичний аналіз коду забезпечує всебічний підхід до білої скриньки, динамічне тестування може виявити конкретні проблеми, які з’являються лише під час виконання. Обидва методи важливі. У цій публікації ми зосереджуємось насамперед на ролі статичного аналізу коду у виявленні небезпечного марикації.

    Такі інструменти, як Amazon Codeguru та Semgrep, ефективні для виявлення проблем безпеки на початку. Для проектів з відкритим кодом Semgrep – це чудовий варіант підтримувати постійні перевірки безпеки.

    Ризики невпевненого малювання в AI/ML

    Проблеми з марилінгами в контекстах AI/ML можуть бути особливо стосовно.

    • Недійсне завантаження об'єкта: Моделі AI/ML часто серіалізуються для подальшого використання. Завантаження цих моделей з ненадійних джерел без перевірки може призвести до довільного виконання коду. Бібліотеки, такі як pickle, joblibа деякі yaml Конфігурації дозволяють серіалізацію, але їх потрібно надійно обробляти.
      • Наприклад: Якщо веб -програма зберігає введення користувача за допомогою pickle І розгортає його пізніше без перевірки, несанкціонований користувач може створити шкідливе корисне навантаження, яке виконує довільний код на сервері.
    • Цілісність даних: Цілісність маринованих даних є критичною. Несподівано складені дані можуть пошкодити моделі, що призводить до неправильних прогнозів або поведінки, що особливо стосується чутливих областей, таких як фінанси, охорона здоров'я та автономні системи.
      • Наприклад: команда оновлює свою архітектуру моделі AI або кроки попередньої обробки, але забуває перекваліфікувати та зберегти оновлену модель. Завантаження старої маринованої моделі під новим кодом може викликати помилки або непередбачувані результати.
    • Експозиція конфіденційної інформації: Спілкування часто включає всі атрибути об'єкта, що потенційно викривають конфіденційні дані, такі як облікові дані або секрети.
      • Наприклад: модель ML може містити облікові дані бази даних у своєму серіалізованому стані. Якщо він поділений або зберігається без запобіжних заходів, несанкціонований користувач, який розсушує файл, може отримати ненавмисний доступ до цих облікових даних.
    • Недостатній захист даних: Коли надсилаються через мережі або зберігаються без шифрування, мариновані дані можуть бути перехоплені, що призводить до ненавмисного розкриття конфіденційної інформації.
      • Наприклад: У середовищі охорони здоров’я маринована модель AI, що містить дані пацієнтів, може бути передана через незабезпечену мережу, що дозволяє зовнішній стороні перехоплювати та читати конфіденційну інформацію.
    • Продуктивність накладних витрат: Пікування може бути повільнішим, ніж інші формати серіалізації (наприклад, буфери JSON або протоколу), які можуть впливати на програми ML та великої мовної моделі (LLM), коли швидкість виводу є критичною.
      • Наприклад: у програмі з обробки природної мови в реальному часі в режимі реального часу за допомогою LLM, важких маринованих або нерозумних операцій може зменшити чуйність та погіршити досвід користувачів.

    Виявлення небезпечного невпинного інструментів аналізу статичного коду

    Аналіз статичного коду (SCA) – це цінна практика для додатків, що стосуються маринованих даних, оскільки він допомагає виявити небезпечне малювання перед розгортанням. Інтегруючи інструменти SCA в робочий процес розробки, команди можуть помітити сумнівні схеми дезеріалізації, як тільки код буде вчинений. Цей проактивний підхід знижує ризик подій, пов’язаних із несподіваним виконанням коду або непередбачуваним доступом через небезпечне завантаження об'єктів.

    Наприклад, у додатку фінансових послуг, де об'єкти регулярно мариновані, інструмент SCA може сканувати нові зобов’язання для виявлення незв'язливих розпусних. Якщо визначити, команда розробників може швидко вирішити цю проблему, захищаючи як цілісність програми, так і конфіденційні фінансові дані.

    Шаблони у вихідному коді

    Існують різні способи завантаження соління в Python. У цьому контексті методи виявлення можуть бути пристосовані для безпечних звичок кодування та необхідних залежності пакетів. Багато бібліотек Python включають функцію для завантаження об'єктів соління. Ефективним підходом може бути каталогізація всіх бібліотек Python, що використовуються в проекті, а потім створити власні правила у своєму інструменті аналізу статичного коду для виявлення небезпечного марикації або безкурату в цих бібліотеках.

    Кодигуру та інші засоби статичного аналізу продовжують розвивати свою здатність виявляти небезпечні шаблони малювання. Організації можуть використовувати ці інструменти та створювати власні правила для виявлення потенційних проблем безпеки в трубопроводах AI/ML.

    Давайте визначимо кроки для створення безпечного процесу вирішення проблем з малюванням:

    1. Створіть список усіх бібліотек Python, які використовуються у вашому сховищі чи середовищі.
    2. Перевірте інструмент аналізу статичного коду у вашому трубопроводі наявність поточних правил та можливість додавання власних правил. Якщо інструмент здатний відкрити всі бібліотеки, які використовуються у вашому проекті, ви можете покластися на нього. Однак якщо він не в змозі виявити всі бібліотеки, що використовуються у вашому проекті, слід розглянути можливість додавання власних правил, що надаються користувачем, у ваш інструмент аналізу статичного коду.
    3. Більшість питань можна визначити за допомогою добре розроблених, керованих контекстами шаблонів у інструменті аналізу статичного коду. Для вирішення проблем з малюванням вам потрібно визначити функції маринованих та нерозумних.
    4. Впроваджуйте та протестуйте спеціальні правила, щоб перевірити повне покриття ризиків з малювання та незрозумілих. Давайте визначимо візерунки для кількох бібліотек:
      • Безглуздий може ефективно соління та розкуповувати масиви; Корисно для наукових обчислювальних робочих процесів, що потребують серіалізованих масивів. Щоб зловити потенційне небезпечне використання соління в Numpy, спеціальні правила можуть орієнтуватися на такі шаблони, як:
        import numpy as np
        data = np.load('data.npy', allow_pickle=True)

      • npyfile є утилітою для завантаження чисельних масивів з маринованих файлів. Ви можете додати наступні шаблони до своїх власних правил, щоб виявити потенційно небезпечне використання об'єкта соління.
        import npyfile
        data = npyfile.load('example.pkl')

      • панди Може пікл і розкути даних за допомогою Pickle, що забезпечує ефективне зберігання та пошук табличних даних. Ви можете додати наступні шаблони до своїх власних правил, щоб виявити потенційно небезпечне використання об'єкта соління.
        import pandas as pd
        df = pd.read_pickle('dataframe.pkl')

      • ладобіб Часто використовується для маринованих та незграбних об'єктів Python, які включають великі дані, особливо безлічі, більш ефективно, ніж стандартний соління. Ви можете додати наступні шаблони до своїх власних правил, щоб виявити потенційно небезпечне використання об'єкта соління.
        from joblib import load
        data = load('large_data.pkl')

      • Scikit-learn забезпечити joblib Для маринованих та непокірних об'єктів і особливо корисний для моделей. Ви можете додати наступні шаблони до своїх власних правил, щоб виявити потенційно небезпечне використання об'єкта соління.
        from sklearn.externals import joblib
        data = joblib.load('example.pkl')

      • Піторч Забезпечує утиліти для завантаження маринованих об'єктів, особливо корисних для моделей ML та тензорів. Ви можете додати наступні візерунки до власного формату правила, щоб виявити потенційно небезпечне використання об'єкта соління.
        import torch
        data = torch.load('example.pkl')

    Шукаючи ці функції та параметри в коді, ви можете налаштувати цільові правила, які висвітлюють потенційні проблеми за допомогою маритації.

    Ефективне пом'якшення

    Потрібно вирішити проблеми з малюванням, вимагає не лише виявлення, але й чітких вказівок щодо санації. Розглянемо рекомендації більш безпечних форматів або перевірки, де це можливо:

    • Піторч
      • Використовуйте Safetensors для зберігання тензорів. Якщо піклування залишається необхідним, додайте перевірки цілісності (наприклад, хешування) для серіалізованих даних.
    • панди
      • Перевірте джерела даних та цілісність при використанні pd.read_pickle. Заохочуйте безпечніші альтернативи (наприклад, CSV, HDF5 або Parquet), щоб уникнути ризиків малювання.
    • scikit-learn (через Joblib)
      • Розгляньте Скопи для безпечнішої наполегливості. Якщо формати перемикання неможливі, реалізуйте суворі перевірки перевірки перед завантаженням.
    • Загальна порада
      • Визначте безпечніші бібліотеки або методи, коли це можливо.
      • Перейдіть на такі формати, як CSV або JSON, для даних, якщо не є специфічна для об'єкта серіалізація.
      • Виконайте перевіри джерела та цілісності перед завантаженням файлів соління – навіть ті, що розглядаються довірений.

    Приклад

    Далі наведено приклад реалізації, який показує безпечну реалізацію соління як представлення попередньої інформації.

    import io
    import base64
    import pickle
    import boto3
    import numpy as np
    from cryptography.fernet import Fernet
    
    ###############################################################################
    # 1) RESTRICTED UNPICKLER
    ###############################################################################
    #
    # By default, pickle can execute arbitrary code when loading. Here we implement
    # a custom Unpickler that only allows certain safe modules/classes. Adjust this
    # to your application's requirements.
    #
    
    class RestrictedUnpickler(pickle.Unpickler):
        """
        Restricts unpickling to only the modules/classes we explicitly allow.
        """
        allowed_modules = {
            "numpy": set(["ndarray", "dtype"]),
            "builtins": set(["tuple", "list", "dict", "set", "frozenset", "int", "float", "bool", "str"])
        }
    
        def find_class(self, module, name):
            if module in self.allowed_modules:
                if name in self.allowed_modules[module]:
                    return super().find_class(module, name)
            # If not allowed, raise an error to prevent arbitrary code execution.
            raise pickle.UnpicklingError(f"Global '{module}.{name}' is forbidden")
    
    def restricted_loads(data: bytes):
        """Helper function to load pickle data using the RestrictedUnpickler."""
        return RestrictedUnpickler(io.BytesIO(data)).load()
    
    ###############################################################################
    # 2) AWS KMS & ENCRYPTION HELPERS
    ###############################################################################
    
    def generate_data_key(kms_key_id: str, region: str = "us-east-1"):
        """
        Generates a fresh data key using AWS KMS. 
        Returns (plaintext_key, encrypted_data_key).
        """
        kms_client = boto3.client("kms", region_name=region)
        response = kms_client.generate_data_key(KeyId=kms_key_id, KeySpec="AES_256")
        
        # Plaintext data key (use to encrypt the pickle data locally)
        plaintext_key = response["Plaintext"]
        # Encrypted data key (store along with your ciphertext)
        encrypted_data_key = response["CiphertextBlob"]
        return plaintext_key, encrypted_data_key
    
    def decrypt_data_key(encrypted_data_key: bytes, region: str = "us-east-1"):
        """
        Decrypts the encrypted data key via AWS KMS, returning the plaintext key.
        """
        kms_client = boto3.client("kms", region_name=region)
        response = kms_client.decrypt(CiphertextBlob=encrypted_data_key)
        return response["Plaintext"]
    
    def build_fernet_key(plaintext_key: bytes) -> Fernet:
        """
        Construct a Fernet instance from a 32-byte data key.
        Fernet requires a 32-byte key *encoded* in URL-safe base64.
        """
        if len(plaintext_key)  np.ndarray:
        """
        Download the ciphertext and the encrypted data key from S3. Decrypt the data 
        key with KMS, use it to decrypt the pickled data, then load with a restricted 
        unpickler for safety.
        """
        s3_client = boto3.client("s3", region_name=region)
        
        # 1. Get object from S3
        response = s3_client.get_object(Bucket=bucket_name, Key=s3_key)
        
        # 2. Extract the encrypted data key from metadata
        metadata = response["Metadata"]
        encrypted_data_key_b64 = metadata.get("encrypted_data_key")
        if not encrypted_data_key_b64:
            raise ValueError("Missing encrypted_data_key in S3 object metadata.")
        
        encrypted_data_key = base64.b64decode(encrypted_data_key_b64)
        
        # 3. Decrypt data key via KMS
        plaintext_key = decrypt_data_key(encrypted_data_key, region)
        fernet = build_fernet_key(plaintext_key)
        
        # 4. Decrypt the pickled data
        encrypted_data = response["Body"].read()
        decrypted_pickled_data = fernet.decrypt(encrypted_data)
        
        # 5. Use restricted unpickler to load the numpy object
        numpy_obj = restricted_loads(decrypted_pickled_data)
        
        return numpy_obj
    
    ###############################################################################
    # DEMO USAGE
    ###############################################################################
    
    if __name__ == "__main__":
        # --- Replace with your actual values ---
        KMS_KEY_ID = "arn:aws:kms:us-east-1:123456789012:key/your-kms-key-id"
        BUCKET_NAME = "your-secure-bucket"
        S3_OBJECT_KEY = "encrypted_npy_demo.bin"
        AWS_REGION = "us-east-1"  # or region of your choice
        
        # Example numpy array
        original_array = np.random.rand(2, 3)
        print("Original Array:")
        print(original_array)
        
        # Upload (pickle + encrypt) to S3
        upload_pickled_data_s3(
            numpy_obj=original_array,
            bucket_name=BUCKET_NAME,
            s3_key=S3_OBJECT_KEY,
            kms_key_id=KMS_KEY_ID,
            region=AWS_REGION
        )
        
        # Download (decrypt + unpickle) from S3
        retrieved_array = download_and_unpickle_data_s3(
            bucket_name=BUCKET_NAME,
            s3_key=S3_OBJECT_KEY,
            region=AWS_REGION
        )
        
        print("\nRetrieved Array:")
        print(retrieved_array)
        
        # Verify integrity
        assert np.allclose(original_array, retrieved_array), "Arrays do not match!"
        print("\nSuccess! The retrieved array matches the original array.")

    Висновок

    Завдяки швидкому розширенню хмарних технологій, все більш важливим є інтеграція аналізу статичного коду в процес розвитку AI/ML. У той час, як піклування пропонує потужний спосіб серіалізувати об'єкти для додатків AI/ML та LLM, ви можете зменшити потенційні ризики, застосовуючи ручні огляди захищених кодів, налаштування автоматизованої SCA за допомогою спеціальних правил та дотримуючись найкращих практик, таких як використання альтернативних методів серіалізації або перевірка цілісності даних.

    Працюючи з ML-моделями на AWS, дивіться добре архітований об'єктив машинного навчання AWS для керівництва щодо безпечної архітектури та рекомендованих практик. Поєднуючи ці підходи, ви можете підтримувати сильну позицію безпеки та впорядкувати життєвий цикл розвитку AI/ML.

    Якщо у вас є відгуки про цю публікацію, надішліть коментарі в Коментарі Розділ нижче. Якщо у вас є питання щодо цієї публікації, зверніться до підтримки AWS.

    Тільки Гуку
    Тільки Гуку

    Nur – інженер з безпеки в Amazon з 10 років досвіду наступальної безпеки, що спеціалізується на генеративній безпеці AI, архітектурі безпеки та наступальних тестуваннях. Нур розробив продукцію безпеки на стартапах та банках, і створив рамки для нових технологій. Вона приносить практичний досвід для вирішення складних викликів безпеки AI, і все ж вважає, що перед сніданком аж шість неможливих речей.
    Метт Шварц
    Метт Шварц

    Метт – головний інженер з безпеки Amazon, що спеціалізується на генеративній безпеці AI, управління ризиками та хмарних обчислювальних обчисленнях. Його експертиза з двома десятиліттями дозволяє організаціям впроваджувати вдосконалений ШІ, зберігаючи суворі протоколи безпеки. Метью розробляє стратегічні рамки, які забезпечують критичні активи та забезпечують дотримання цифрового ландшафту, що розвивається, забезпечуючи складні системи під час перетворень.

  • Співавтор Apache Pinot приєднується до розгляду великих даних

    Співавтор Apache Pinot приєднується до розгляду великих даних

    Apache Pinot приєднується до розгляду великих даних Співавтор Apache Pinot приєднується до розгляду великих даних

    Ви можете знати LinkedIn як місце, де було створено Apache Kafka для стандартизації потокових даних. Але є й інші переконливі проекти з відкритим кодом, які вийдуть з компанії, включаючи Apache Pinot, який був розроблений для забезпечення швидких відповідей на велику кількість одночасних запитів OLAP на швидкоплинні дані. Кішор Гопалакришна, один із співавторів Apache Pinot та генерального директора та співзасновника Startree, нещодавно зупинився великим даними, щоб обговорити техніку великих даних.

    Гопалакришна та його колега LinkedIn Subbu Subramaniam створили Apache Pinot як розподілену стовпчасту базу даних ще в 2015 році, щоб обслуговувати величезний апетит компанії соціальних медіа до запитів у режимі реального часу на дані, що протікають через Apache Kafka. Програмне забезпечення стало популярним серед таких компаній, як Uber за його можливістю обслуговувати запити SQL тисячам зовнішніх користувачів із затримкою субдекунди.

    У 2018 році Гопалакришна та Сян Фу співзасновувались Startree для створення комерційного бізнесу навколо програмного забезпечення з відкритим кодом HTE. Щоб дізнатися більше, перегляньте відео нижче.

    https://www.youtube.com/watch?v=i4tvzpmc1ky


  • Фінансовий директор Evolution надає прожектор на дані, технологічні навички

    Фінансовий директор Evolution надає прожектор на дані, технологічні навички

    Сьогоднішні фінансові директори виконують роль «перехресних функціональних» лідерів у епоху, коли підприємства просять більше аналізу даних та швидшого планування сценарію, щоб не відставати від швидких змін – зміна, яка має ефект пульсації у всій функції фінансів, – сказав Чад Хестерс, генеральний директор виконавчої пошукової фірми Boyden.

    Оскільки начальники фінансів приводяться “у набагато більш стратегічне прийняття рішень, управління ризиками, цифрову трансформацію” або інші заходи, решта фінансових функцій спостерігається, що їхні власні ролі розвиваються, щоб забезпечити, що вони можуть запропонувати необхідну підтримку стратегічно налаштованих фінансових директорів, заявив Гестерс в інтерв'ю.

    Оскільки фінансові лідери просять надати своїм керівникам, колегам та членам C-Suite з ключовими уявленнями про прийняття рішень, що “означає, що їхні команди, F&A, системи контролера, вони повинні бути досвідчені в аналітиці даних, інструментів автоматизації та фінансових прогнозах та плануванні сценаріїв”,-сказав Гестерс.

    Скорочення фінансових силу

    Фінансові директори бачили, як їх перелік обов'язків зростає за останні кілька років; У опитуванні 2024 року Егона Зехндера 82% начальників фінансів заявили, що вони взяли на себе нові обов'язки, такі як злиття та поглинання та корпоративний розвиток. Фінансові начальники також досі відповідають за традиційні фінансові процеси, які підприємствам потрібно успішно діяти – і без підтримки інших фінансових лідерів вони можуть швидко виявитися переповненими.

    “Я думаю, фінансові директори, як результат … вони, мабуть, відчувають себе трохи перевантаженими”, – сказав Хестерс. “Якщо у них є хороша команда, вони можуть підтримувати хороший баланс робочого життя”.

    Щоб задовольнити ці розширення очікувань, також розвивається фінансова функція, зазначив Гестерс, включаючи традиційні ролі контролера, керівник фінансового планування та аналізу та головний бухгалтерський директор. Лише п’ята частина фінансового директора заявила, що баланс їхнього та життя є “поганим”, було встановлено опитування Егона Зехндера, 51% класифікують його як “добре” і 29% класифікують його як “добре”.

    Коли фінансові директори стають “міжфункціональними лідерами”, області, які раніше були розкинуті-такі як функції бухгалтерського обліку та фінансів-тепер стають більш спільними, наприклад, при цьому фінансовий директор виступає як точка Nexus.

    “Пройшли дні, коли організація контролера може сидіти і просто закрити книги … і скарбник може просто керувати грошовим потоком”, – сказав Хестерс. “Але знову ж таки, це означає, що фінансові директори, за замовчуванням, повинні добре розуміти і з'єднати всі крапки в цих областях і мати справу зі швидкістю змін, які можуть запаморочити”.

    Підготовка до наступної хвилі

    Гестерс обіймав посаду генерального директора в Таррітауні, штат Нью-Йорк, з лютого 2023 року, згідно з його профілем LinkedIn. До того, як приєднатися до Бойдена, він виконував різноманітні ролі для колег -виконавчих пошуків та консультативної фірми Korn Ferry, і розпочав свою кар'єру в якості розвідувального офіцера для ВМС США. Попередній досвід також включає в себе позиції в Heidrick & Contre, Hunt Oil Company та Shell.

    Протягом своєї кар'єри Гестерс бачив, що кілька тенденцій впливають на еволюцію ролі фінансового директора, сказав він. Першою «хвилею змін», які він побачив у своїй кар’єрі, було наслідком Закону про Сарбанес-Окслі, який створив «цей новий зовнішній тиск, як приходить і вступає у функцію фінансового директора», як підприємства, спрямовані на зменшення ризиків експлуатації та дотримання нових вимог, сказав він.

    “Ця хвиля породжувала потребу в галузі фінансів та їх контролерів, зокрема, мати кращі системи, процеси управління та бухгалтерські системи, які могли б підтвердити вимоги, про які вони повинні були звітувати”, – сказав він.

    Друга основна «хвиля» все ще триває, сказав Гестерс-фінансова функція в даний час знаходиться в середині змін, що керуються новими технологіями, такими як автоматизація та штучний інтелект, які впливають на те, як вони наближаються до щоденних, так і стратегічних процесів. Обсяг даних, які функціонує фінансування, просить збирати та оцінити, зростає експоненціально, змінюючи не лише те, як фінансова команда потребує виконання певних функцій, а навичок, які вони повинні зробити.

    “Що відбувається, ви знаходите, що фінансові директори ставлять ціну на спритність, на здатність їхньої команди бути спритними та бути постійними учнями”, – сказав Хестерс.

  • Оголошення на дивіденди %240.1098/частка 24.03.2025

    Оголошення на дивіденди %240.1098/частка 24.03.2025

    DividendInvestor.com – провідний у всьому світі незалежний постачальник дивідендів та даних для інвестиційних фахівців. Наша місія – бути Перший у даних дивідендів у всьому світі® За допомогою розробки та розробки основних інструментів та систем для інвестиційної спільноти з найвищим рівнем точності та цілісності.

    Контакт:
    info@dividendinvestor.com

  • Чи є SAP SE (SAP) найкращим акціям прогнозування аналітики для придбання за словами аналітиків?

    Чи є SAP SE (SAP) найкращим акціям прогнозування аналітики для придбання за словами аналітиків?

    Нещодавно ми опублікували список 11 найкращих акцій аналітики прогнозування, які можна придбати на думку аналітиків. У цій статті ми збираємось подивитися, де SAP SE (NYSE: SAP) виступає проти інших найкращих акцій аналітики прогнозування, які можна придбати на думку аналітиків.

    Прогнозна аналітика, яку іноді називають аналітикою великих даних, є невід'ємною частиною сьогоднішнього корпоративного арсеналу. Це підмножина розширеної аналітики, яка використовує статистичні алгоритми та методи машинного навчання для прогнозування майбутніх випадків та отримання розуміння попередніх даних. Крім того, він включає інструменти та процеси, такі як видобуток та моделювання даних, всі спрямовані на вивчення даних, визначення тенденцій та зроблених прогнозів. За даними Fortune Business Insights, глобальна галузь прогнозування аналітики оцінювалася в 14,71 млрд. Дол.

    Компанії завжди шукають способів випереджати конкуренцію та зробити розумний вибір, який призводить до успіху. Це призвело до зростаючої опори на рішення, керовані даними. Завдяки консолідованій аналітиці, моделями машинного навчання та технологіями AI, тепер можна проаналізувати більше компаній у більшій діапазоні площі швидше, ніж будь -коли раніше. Особливо це стосується практики венчурного капіталізму. Багато інвесторів на ранній стадії використовують прийняття рішень, орієнтовані на дані, щоб керувати їх пошуком та інвестиціями. Незважаючи на те, що інстинкт розвідки великих інвестиційних можливостей, як правило, розвивається з багаторічного досвіду, фірми венчурного капіталу та партнери можуть покращити процес розвідки, аналізуючи різноманітні екосистеми. Згідно з аналізом ВК, орієнтованим на дані, до цього року дані, аналітика та штучний інтелект будуть використані для керування інвестиційними рішеннями у 75% усіх угод ВК. Цей доступ до високоякісних даних зменшує ризик венчурних капіталістів втратити можливості та допомагає їм визначити високопотенційні фірми, які в іншому випадку можуть залишатися нерозкритими. Більше того, поєднання прогнозованої аналітики з штучним інтелектом призвело до значного поліпшення глибини розуміння даних. Відповідно до звіту про ділові відомості про ділові відомості про сектор ШІ, прогнозується, що він швидко зростає, з CAGR – 29,2%. Очікується, що це зростання до 2032 року призведе до розміру галузі до 1,7 трлн дол.

    Як і багато інших галузей, прогнозна аналітика може бути корисною для сектору охорони здоров’я. Завдяки своєму підходу, орієнтованому на дані, він пропонує потенціал для поліпшення профілактичної допомоги, управління ресурсами та ефективності роботи. У цій перспективі глобальний ринок прогнозних аналітики охорони здоров'я оцінювався в 12,96 мільярдів доларів у 2023 році, і, як очікується, він зросте при складенні щорічно темпів зростання на 35% між 2024 та 2032 роками. Щоб проілюструвати це, Всесвітній економічний форум оцінює, що лікарні створюють 50 петабайт даних щороку.

  • Вуно інвестує 2 мільйони доларів у корейський суперник та більше трусів

    Вуно інвестує 2 мільйони доларів у корейський суперник та більше трусів

    Вуно інвестує 2 мільйони доларів, продає легені AI в Японії, щоб конкурувати

    Вуно інвестував у свою технологію AI у Японії та продав свою суперницьку корейську компанію Corelene Soft.

    Нещодавно дві компанії вступили до стратегічного партнерства, щоб спільно підвищити свою конкурентоспроможність у зростаючому сегменті AI Global Medical Imaging.

    Вуно інвестував 3,4 мільярда виграшів (2,3 мільйона доларів) у Coreline Soft, до якої продали та передав права свого програмного забезпечення для діагностики легенів, що працюють на АІ,-це перша пропозиція в Японії. Потім це знаменує вступ Корліна М'якої на японський ринок, який відзначається тим, що має одне з найактивніших інвестицій в медичні технології на базі ШІ.

    “Якщо компанії AI, такі як Vuno та Coreline Soft, стратегічно працюють разом, вдосконалюючи відповідні основні підприємства, ми впевнені, що ми зможемо розширити свою конкурентоспроможність на світовому ринку”,-заявив генеральний директор Vuno Лі Йе-Ха у заяві.


    Vatech, медит, щоб інтегрувати стоматологічний ШІ

    Південнокорейські компанії з цифрової стоматології Vatech та Medit співпрацювали з Pearl на базі Сполучених Штатів для інтеграції стоматологічної AI.

    AI Pearl, який може автоматично ідентифікувати стоматологічні патології, буде інтегрований у діагностичне програмне забезпечення Vatech та майбутнє інтегроване програмне забезпечення для переглядачів та централізовану платформу цифрового робочого процесу Medit.


    Індійська електронна фармація оцінює фінансування серії C 44 млн. Доларів

    Truemeds, платформа цифрової аптеки та телебачення в Індії, зібрав 375 рублів (44 мільйони доларів) у раунді фінансування серії C під керівництвом Accel India та брав участь Westbridge та Info Edge.

    Компанія зібрала суму від видачі акцій до Accel India, яка зараз має 10% акцій компанії; Westbridge та Info Edge також збільшили свої частки до 29% та 23% відповідно.

    Згідно з регуляторною подачею до уряду, він планує використовувати доходи від збору коштів для продовження своїх планів зростання.

    Truemeds востаннє підняті 22 мільйони доларів у фінансуванні серії B у 2022 році.


    Медичний центр університету Кореї для тестування голосової серцевої недостатності AI

    Медичний центр університету Кореї (KUMC) підписав меморандум про взаєморозуміння за допомогою запуску A.cure, щоб допомогти подальшому розвинути технологію AI останнього.

    Стартап, до якого KUMC передав права на технологію на основі AI для діагностики легеневої затори у жовтні, в даний час розробляє новий ШІ для діагностики та прогнозування серцевої недостатності на основі голосових даних.

    Під їх Меморандумом обидві сторони співпрацюватимуть для тестування та комерціалізації останнього продукту AI AI. Стартап матиме доступ до великих даних та клінічних досліджень та мережі KUMC. Лікарня також підтримає A.cure у забезпеченні інвестицій на місцевому рівні та за кордоном.

    Тим часом A.cure співпрацюватиме з лікарнею для проектів НДДКР з урядом та отримання ліцензій на регулятор.


    Корея затверджує остеопороз AI

    Промедій, інша корейська компанія AI Medical, нещодавно отримала регуляторне затвердження від Південнокорейського міністерства безпеки харчових продуктів та наркотиків (МФД).

    Він отримав кліренс MFD за діагноз остеопорозу, що підтримує програмне забезпечення AI. Компанія стверджує, що програмне забезпечення на основі рентгенівських наборів на грудях дешевше, ніж тест на щільність кісток, і має менший ризик випромінювання, ніж об'ємний тест на щільність кісток.

  • Чи закінчилася корекція фондового ринку? Бездоганний інструмент прогнозування з більш ніж 150 років даних важить.

    Чи закінчилася корекція фондового ринку? Бездоганний інструмент прогнозування з більш ніж 150 років даних важить.

    За останній місяць Уолл -стріт нагадав професійним та щоденним інвесторам, що акції насправді не рухаються по прямій лінії.

    З моменту закриття дзвону 19 лютого, знаковий Дау Джонс промисловий середній (Djindices: ^dji), S&P 500 (Snpindex: ^gspc)та натхненні інноваціями Композит NASDAQ (Nasdaqindex: ^ixic) відповідно пролили 6%, 7,8% та 11,8% їх вартості станом на 20 березня. Додати, що S&P 500 та NASDAQ Composite знизився щонайменше на 10% від своїх максимумів за весь час, що розмістив обидва індекси на офіційній території виправлення (станом на 13 березня).

    Куди зараз інвестувати 1000 доларів? Наша команда аналітиків щойно розкрила, що, на їхню думку, є 10 найкращих запасів купувати прямо зараз. Дізнайтеся більше »

    Однак жоден з цих трьох основних індексів акцій не впав нижче відповідних закривальних мінімумів 13 березня, що ставить питання: чи корекція фондового ринку вже закінчилася для композиту S&P 500 та NASDAQ, чи Уолл -стріт просто очищає горло перед більш крутим зниженням?

    Щоб відповісти на це запитання, звернемося до інструменту прогнозування, який має понад 150 років даних у своїх вітрилах.

    Злегка стек фінансових газет з одним видимим заголовком, який читає ринки.

    Джерело зображення: Зображення Getty.

    Виправлення на фондовому ринку Wall Street може тільки розпочати роботу

    До останньої корекції фондового ринку було досить багато показників прогнозування та подій, які передали проблеми. Приклади включають перше помітне зниження грошової маси в США після Великої депресії; найдовша інверсія кривої врожаю в історії, яка збігалася з найтружнішою інверсією за чотири десятиліття; І останнім часом Федеральний резервний банк Атланти в GDPNOW прогнозується на 1,8% скорочення У США валовий внутрішній продукт (ВВП).

    Але єдиний інструмент прогнозування, який має бездоганний досвід передчуття значних напрямних рухів у промисловому середньому Dow Jones, S&P 500 та NASDAQ COMPOSITE-це співвідношення цін на ціни до виражених (P/E), яке також називається циклічно налаштованим коефіцієнтом P/E Ratio, або Cape Ratio.

    Коли інвестори думають про інструменти оцінки, стандартне співвідношення P/E, ймовірно, приходить на думку. Коефіцієнт P/E компанії досягається шляхом поділу ціни своєї акції на свій відстані 12-місячний прибуток на акцію (EPS). Традиційне співвідношення P/E – це зручний інструмент для швидкого оцінювання зрілого бізнесу, але це не особливо корисно під час рецесій або коли виникають ударні події.

    Для порівняння, співвідношення S&P 500 Shiller P/E базується на середньому EPS, скоригованому інфляцією за попередні 10 років. Використання даних EPS на десятиліття гарантує, що шокові події не можуть перекосити читання, і це забезпечує порівняння оцінювання яблук до яблук, коли його перевірені понад 150 років.

    S&P 500 Shiller Cape Chart

    Дані співвідношення CAPE Shiller Shiller Cape від Ycharts. Коефіцієнт CAPE = циклічно скориговане співвідношення P/E.

    У грудні співвідношення Shiller P/E потрапив у високе читання 38,89 під час нинішнього ринку биків. Для контексту це читання більше ніж удвічі збільшиться в середньому розміром 17,22, коли його випробували до січня 1871 р. Станом на 20 березня виправлення фондового ринку підштовхнуло Shiller P/E до 35,38.

    Що примітно в тому, що S&P 500 Shiller P/E – це не обов'язково, наскільки далеко вище його історично означають поточне читання, настільки, наскільки основні індекси акцій Уолл -стріт врешті -решт відповіли, коли цей інструмент оцінки перевищив 30 і залишився там принаймні два місяці.

    Коли випробувані на 154 роки, є шість випадків, включаючи присутній, де співвідношення Шиллера P/E перевершило 30. Після кожного з попередніх п'яти випадків S&P 500, Dow та/або NASDAQ пролився між 20% та 89% відповідних значень. Іншими словами, преміум -оцінки не виявилися стійкими протягом тривалих періодів у будь -який момент за понад 150 років.

    Незважаючи на те, що S&P 500 Shiller P/E не може сказати інвесторам, коли розпочнеться виправлення фондового ринку або як довго він триватиме, він має бездоганний досвід, врешті -решт передвіщаючи 20% (або більше) зниження основних індексів Уолл -стріт. На основі злиття факторів, з яких Shiller P/E сидить на вершині, корекція фондового ринку Уолл -стріт може лише розпочати роботу.

    Усміхнена людина, яка читає фінансову газету, сидячи за столом у їхньому будинку.

    Джерело зображення: Зображення Getty.

    Введення виправлень фондового ринку в перспективу

    У той час як виправлення фондового ринку, які бачать Dow Jones, S&P 500 та NASDAQ Composite, беруть ліфт нижчим не для всіх, вони нормальний і неминучий аспект циклу інвестування.

    Згідно з даними, об'єднаними фірмою Market Insights, Yardeni Research, з 1950 року було проведено 40 двозначних відсоткових виправлень у галузі S&P 500, включаючи останнє зниження на 10,1%. Запускаючи математику, це спрацьовує до корекції, що виникає в середньому, кожні 1,88 року. Коли емоції інвесторів змінюються на падіння копійки на Уолл-стріт, жодна фіскальна та грошова політика не може зупинити ці двоцифрові зниження від обрізання раз у раз.

    Але перспектива все змінює для інвесторів. Можливість зробити крок назад і подивитися на речі з більш широким об'єктивом може повністю змінити картину.

    У червні 2023 року аналітики компанії Bespoke Investment Group опублікували набір даних на X, які порівнювали довжину кожного ринку биків та ведмедів для S&P 500, що починаються з початком Великої депресії (вересень 1929 р.). Що він висвітлював, – це нелінійність циклів інвестування.

    З часу Великої депресії середній ринок ведмедів S&P 500 тривав лише 286 календарних днів, що дорівнює приблизно 9,5 місяців. Крім того, лише дев'ять із 27 ринків ведмедів застрягли принаймні один рік.

    З іншого боку, типовий ринок биків витримав у 3,5 рази довше – 1011 календарних днів – з третиною цих ринків биків, що тривають протягом 1324 календарних днів та 4494 календарних днів. Вторгнення в Dow Jones, S&P 500 та NASDAQ COMPOSITE Останні істотно довше, ніж виправлення фондового ринку та ведмежні ринки.

    Потужність часу та перспективи ще більше посилюється завдяки нещодавно оновленому наборі даних від Crestmont Research. Цей набір даних зображує загальну 20-річну річну прибутковість прокатки (включаючи дивіденди) S&P 500, що починаються з початку 20 століття.

    Набір даних Crestmont призвів до 106 20-річних періодів (1900-1919, 1901-1920 тощо, до 2005-2024) загальних даних про повернення. Що слід зазначити, що всі 106 термінів дали позитивну річну віддачу. Це означає, що гіпотетично, якби інвестор придбав індекс S&P 500 в будь -який момент з 1900 року і просто обіймав свою позицію протягом 20 років, вони б приносили прибуток, включаючи дивіденди щоразу.

    Навіть незважаючи на те, що виправлення фондового ринку (і перспектива їх затримує) може бути тривожною протягом коротких періодів, кожен спад у Dow Jones, S&P 500 та NASDAQ Composite був надійною можливістю покупки протягом більше століття.

    Чи варто інвестувати 1000 доларів в індекс S&P 500 прямо зараз?

    Перш ніж купувати акції в індексі S&P 500, врахуйте це:

    З Advisor Stople Fool Команда аналітика щойно визначила, що, на їхню думку, є 10 найкращих запасів Щоб інвестори купували зараз… і індекс S&P 500 не був одним із них. 10 акцій, які зробили скорочення, можуть призвести до прибутку монстрів у найближчі роки.

    Подумайте, коли Nvidia склав цей список 15 квітня 2005 року … якщо ви інвестували 1000 доларів на момент нашої рекомендації, у вас буде $ 721 394!*

    Радник з акцій Надає інвесторам простий у виконанні план для успіху, включаючи рекомендації щодо створення портфоліо, регулярні оновлення аналітиків та два нових виборів акцій щомісяця. З Радник з акцій Сервіс має Більше, ніж вчетверо Повернення S&P 500 з 2002 року*. Не пропустіть останній список топ -10, доступний під час приєднання Радник з акцій.

    Див. 10 акцій »

    *Радник акцій повертається станом на 18 березня 2025 року

    Шон Вільямс не має позиції в жодній із згаданих акцій. Мотлі дурня не має жодної позиції в жодній із згаданих акцій. Мотлі дурня має політику розкриття інформації.

    Відмова: лише для інформаційних цілей. Минулі показники не свідчать про майбутні результати.