Категорія: Великі Дані та Аналітика

  • Протокол контексту моделі з відкритим кодом просто оновлювався – ось чому це велика справа

    Протокол контексту моделі з відкритим кодом просто оновлювався – ось чому це велика справа

    Приєднуйтесь до наших щоденних та щотижневих бюлетенів для останніх оновлень та ексклюзивного контенту щодо провідного охоплення AI. Дізнайтеся більше


    Протокол контексту моделі (MCP) – зростаючий відкритий стандарт, розроблений для того, щоб допомогти агентам AI безперешкодно взаємодіяти з інструментами, даними та інтерфейсами – просто потрапляє на значну віху. Сьогодні розробники, що стоять за ініціативою, доопрацювали оновлену версію специфікації MCP, представляючи оновлення ключів, щоб зробити агентів AI більш безпечними, здатними та сумісними.

    У дуже значному кроці, OpenAI, лідер галузі в генеративному ШІ, дотримувався сьогодні MCP оголошення, заявивши, що він також додає підтримку MCP у своїх продуктах. Генеральний директор Сем Альтман заявив, що підтримка доступна сьогодні в Agents OpenAI SDK, і ця підтримка для настільного додатка Chatgpt та API відповідей незабаром з’являться.

    Microsoft оголосила підтримку MCP разом із цим випуском, включаючи запуск нового сервера драматурга-MCP, який дозволяє агентам AI, як Claude, переглядати Інтернет та взаємодіяти з сайтами за допомогою хромованого дерева доступності.

    “Ця нова версія є головним стрибком вперед для зв'язку з агентом-інструкцією”,-сказав Алекс Альберт, ключовий учасник проекту MCP, у публікації у Twitter. “І наявність Microsoft, що створює інфраструктуру в реальному світі, на ній показує, як швидко розвивається ця екосистема”.

    Що нового в оновленому MCP версія?

    Оновлення 26 березня приносить кілька важливих змін на рівні протоколу:

    • Рамка авторизації OAuth 2.1: Додає надійний стандарт для забезпечення комунікації агента-сервера, особливо в транспорті на основі HTTP.
    • У потоковому транспорті HTTP: Замінює старші налаштування HTTP+SSE, що дозволяє в режимі рединації в режимі реального часу, двонаправлений потік даних з кращою сумісністю.
    • Json-RPC-партія: Дозволяє клієнтам надсилати кілька запитів за один раз, підвищуючи ефективність та зменшуючи затримку взаємодії агента-інструменту.
    • Анотації інструментів: Додає багаті метадані для опису поведінки інструментів, що дозволяє більш образне відкриття та міркування агентами AI.
    Скріншот вмісту, що генерується в чаті, може бути невірним.

    Малюнок 1: Клодовий робочий стіл з використанням драматурга-MCP для орієнтації та опису DataSette.io, демонструючи веб-автоматизацію, що працює від протоколу контексту моделі.

    Протокол використовує модульну базу JSON-RPC 2.0, з багатошаровою архітектурою, що розділяє транспорт основного, управління життєвим циклом, функції сервера (наприклад, ресурси та підказки) та функції клієнта (наприклад, вибірки або журнал). Розробники можуть вибирати та вибирати, які компоненти здійснювати, залежно від випадків використання.

    Вклад Microsoft: Автоматизація браузера через MCP

    Два дні томуMicrosoft випустив Direwright-MCP, сервер, який завершує свій потужний інструмент автоматизації браузера в стандарті MCP. Це означає, що зараз агенти AI, як Клод, можуть робити більше, ніж говорити – вони можуть натискати, вводити, переглядати та яnteract з мережею, як реальні користувачі.

    Побудований на дереві доступності Chrome, інтеграція дозволяє Claude отримувати доступ та описувати вміст сторінки у виготовленій людині. Доступний набір інструментів включає:

    • Навігація: browser_navigate, Go_back, Go_forward
    • Введення: browser_type, browser_click, browser_press_key
    • Знімки: browser_snapshot, browser_screenshot
    • Взаємодія на основі елементів Використання дескрипторів доступності

    Це перетворює будь -який відповідний агент AI на тест -автоматизацію, помічник QA або навігатор даних.

    Налаштування проста: користувачі просто додають драматург як команду в claude_desktop_config.json, і додаток Claude Desktop розпізнає інструменти під час виконання.

    Більша картина: сумісність у масштабі

    Діаграма вмісту, поподіеного AI-сервера, може бути неправильною.

    Малюнок 2: Модульна конструкція MCP дозволяє розробникам реалізовувати лише необхідні шари, зберігаючи сумісність.

    Антропік вперше представив MCP Наприкінці 2023 року для вирішення зростаючої больової точки: агентам AI потрібно взаємодіяти з інструментами в реальному світі, але кожна програма говорить різною “мовою”. MCP має на меті виправити це, надаючи стандартний протокол для опису та використання інструментів для екосистем.

    Завдяки підтримці Antropic, Langchain і тепер Microsoft, MCP стає серйозним суперником для того, щоб стати стандартним рівнем взаємозв'язку агента. Оскільки MCP був запущений вперше антропом, питання затримали, чи найбільший конкурент антропіка, OpenAI, підтримає протокол. І звичайно, Microsoft, великий союзник OpenAI, був ще одним питанням. Той факт, що обидва гравці підтримали протокол, показує, що оберти будується серед громад та громадських громад. Сама OpenAI відкривала свою екосистему навколо агентів, в тому числі з останніми агентами SDK, оголошеними тиждень тому – і цей крок зміцнив підтримку навколо форматів API OpenAI, враховуючи, що інші, як антроп та Google, впали в черзі. Отже, з форматами API OpenAI та MCP, що бачать підтримку, стандартизація за останні кілька тижнів побачила велику перемогу.

    “Ми вступаємо в епоху протоколу AI”,-твітнув Олександр Дорію, співзасновник AI Startup Pleias. “Ось як насправді будуть агенти робити речі. “

    Що далі?

    З випуском MCP 0.2 та відчутної підтримки Microsoft, основа закладається на нове покоління агентів, які можуть думати і діяти надійно та гнучко по всій стеку.

    Завантажене зображення

    Малюнок 3: OAuth 2.1 Потік авторизації в протоколі контексту моделі (MCP)

    Велике питання зараз: чи йдуть інші? Якщо META, Amazon або Apple підписуються, MCP незабаром може стати універсальною «мовою» дій AI.

    Наразі це великий день для екосистеми агента – одна, яка наближає обіцянку АІ сумісності ближче до реальності.

  • Посилення безпеки хмари в AI/ML: Історія маленького соління

    Посилення безпеки хмари в AI/ML: Історія маленького соління

    Оскільки AI та машинне навчання (AI/ML) стають все більш доступними через постачальників хмарних послуг (CSP), таких як веб -сервіси Amazon (AWS), можуть виникнути нові проблеми безпеки, які потребують вирішення клієнтів. AWS надає різноманітні послуги для випадків використання AI/ML, а розробники часто взаємодіють з цими послугами різними мовами програмування. У цій публікації в блозі ми зосереджуємось на Python та його pickle модуль, який підтримує процес, який називається марита Для серіалізації та дезеріалізації об'єктних структур. Ця функціональність спрощує управління даними та обмін складними даними у розподілених системах. Однак через потенційні проблеми з безпекою важливо використовувати піклування з обережністю (див. Попереджувальну записку в Пікл – серіалізація об'єктів Python). У цій публікації ми покажемо вам способи побудови захищених робочих навантажень AI/ML, які використовують цей потужний модуль Python, способи виявлення того, що це використовується, про що ви можете не знати, і коли це може зловживати, і нарешті виділити альтернативні підходи, які допоможуть вам уникнути цих проблем.

    безпеки хмари в AIML Історія маленького соління Посилення безпеки хмари в AI/ML: Історія маленького соління

    Швидкі поради

    Розуміння невпевненої серіалізації соління та десеріалізації в Python

    Ефективне управління даними має вирішальне значення для програмування Python, і багато розробників звертаються до pickle модуль для серіалізації. Однак проблеми можуть виникати при десеріалізації даних з недовірених джерел. Пітон -байтек, який використовує марилінг, є власником Python. Поки це не буде незадоволеним, дані в ByteStream не можуть бути ретельно оцінені. Саме тут контроль та перевірка безпеки стають критичними. Без належної перевірки існує ризик того, що несанкціонований користувач може ввести несподіваний код, потенційно призводить до довільного виконання коду, підробки даних або навіть непередбачуваного доступу до системи. У контексті завантаження моделі AI, безпечна дезеріалізація особливо важлива – це допомагає запобігти зовнішнім сторонам модифікації поведінки моделі, ін'єкційного зворотного доступу або спричиняючи ненавмисне розкриття чутливих даних.

    Протягом цієї публікації ми будемо посилатися на серіалізацію і дезеріалізацію колективно як марита. Подібні проблеми можуть бути присутніми іншими мовами (наприклад, Java та PHP), коли використовуються ненадійні дані для відтворення об'єктів або структур даних, що призводить до потенційних питань безпеки, таких як довільне виконання коду, корупція даних та несанкціонований доступ.

    Аналіз статичного коду порівняно з динамічним тестуванням для виявлення марикації

    Огляди коду безпеки, включаючи аналіз статичного коду, пропонують цінне раннє виявлення та ретельне висвітлення проблем, пов'язаних з марикою. Вивчаючи вихідний код (включаючи сторонні бібліотеки та спеціальний код) перед розгортанням, команди можуть мінімізувати ризики безпеки економічно вигідно. Інструменти, що надають статичний аналіз, можуть автоматично позначити небезпечні шаблони малювання, даючи розробникам дієві уявлення про негайні проблеми. Регулярні огляди коду також допомагають розробникам вдосконалити безпечні навички кодування з часом.

    Хоча статичний аналіз коду забезпечує всебічний підхід до білої скриньки, динамічне тестування може виявити конкретні проблеми, які з’являються лише під час виконання. Обидва методи важливі. У цій публікації ми зосереджуємось насамперед на ролі статичного аналізу коду у виявленні небезпечного марикації.

    Такі інструменти, як Amazon Codeguru та Semgrep, ефективні для виявлення проблем безпеки на початку. Для проектів з відкритим кодом Semgrep – це чудовий варіант підтримувати постійні перевірки безпеки.

    Ризики невпевненого малювання в AI/ML

    Проблеми з марилінгами в контекстах AI/ML можуть бути особливо стосовно.

    • Недійсне завантаження об'єкта: Моделі AI/ML часто серіалізуються для подальшого використання. Завантаження цих моделей з ненадійних джерел без перевірки може призвести до довільного виконання коду. Бібліотеки, такі як pickle, joblibа деякі yaml Конфігурації дозволяють серіалізацію, але їх потрібно надійно обробляти.
      • Наприклад: Якщо веб -програма зберігає введення користувача за допомогою pickle І розгортає його пізніше без перевірки, несанкціонований користувач може створити шкідливе корисне навантаження, яке виконує довільний код на сервері.
    • Цілісність даних: Цілісність маринованих даних є критичною. Несподівано складені дані можуть пошкодити моделі, що призводить до неправильних прогнозів або поведінки, що особливо стосується чутливих областей, таких як фінанси, охорона здоров'я та автономні системи.
      • Наприклад: команда оновлює свою архітектуру моделі AI або кроки попередньої обробки, але забуває перекваліфікувати та зберегти оновлену модель. Завантаження старої маринованої моделі під новим кодом може викликати помилки або непередбачувані результати.
    • Експозиція конфіденційної інформації: Спілкування часто включає всі атрибути об'єкта, що потенційно викривають конфіденційні дані, такі як облікові дані або секрети.
      • Наприклад: модель ML може містити облікові дані бази даних у своєму серіалізованому стані. Якщо він поділений або зберігається без запобіжних заходів, несанкціонований користувач, який розсушує файл, може отримати ненавмисний доступ до цих облікових даних.
    • Недостатній захист даних: Коли надсилаються через мережі або зберігаються без шифрування, мариновані дані можуть бути перехоплені, що призводить до ненавмисного розкриття конфіденційної інформації.
      • Наприклад: У середовищі охорони здоров’я маринована модель AI, що містить дані пацієнтів, може бути передана через незабезпечену мережу, що дозволяє зовнішній стороні перехоплювати та читати конфіденційну інформацію.
    • Продуктивність накладних витрат: Пікування може бути повільнішим, ніж інші формати серіалізації (наприклад, буфери JSON або протоколу), які можуть впливати на програми ML та великої мовної моделі (LLM), коли швидкість виводу є критичною.
      • Наприклад: у програмі з обробки природної мови в реальному часі в режимі реального часу за допомогою LLM, важких маринованих або нерозумних операцій може зменшити чуйність та погіршити досвід користувачів.

    Виявлення небезпечного невпинного інструментів аналізу статичного коду

    Аналіз статичного коду (SCA) – це цінна практика для додатків, що стосуються маринованих даних, оскільки він допомагає виявити небезпечне малювання перед розгортанням. Інтегруючи інструменти SCA в робочий процес розробки, команди можуть помітити сумнівні схеми дезеріалізації, як тільки код буде вчинений. Цей проактивний підхід знижує ризик подій, пов’язаних із несподіваним виконанням коду або непередбачуваним доступом через небезпечне завантаження об'єктів.

    Наприклад, у додатку фінансових послуг, де об'єкти регулярно мариновані, інструмент SCA може сканувати нові зобов’язання для виявлення незв'язливих розпусних. Якщо визначити, команда розробників може швидко вирішити цю проблему, захищаючи як цілісність програми, так і конфіденційні фінансові дані.

    Шаблони у вихідному коді

    Існують різні способи завантаження соління в Python. У цьому контексті методи виявлення можуть бути пристосовані для безпечних звичок кодування та необхідних залежності пакетів. Багато бібліотек Python включають функцію для завантаження об'єктів соління. Ефективним підходом може бути каталогізація всіх бібліотек Python, що використовуються в проекті, а потім створити власні правила у своєму інструменті аналізу статичного коду для виявлення небезпечного марикації або безкурату в цих бібліотеках.

    Кодигуру та інші засоби статичного аналізу продовжують розвивати свою здатність виявляти небезпечні шаблони малювання. Організації можуть використовувати ці інструменти та створювати власні правила для виявлення потенційних проблем безпеки в трубопроводах AI/ML.

    Давайте визначимо кроки для створення безпечного процесу вирішення проблем з малюванням:

    1. Створіть список усіх бібліотек Python, які використовуються у вашому сховищі чи середовищі.
    2. Перевірте інструмент аналізу статичного коду у вашому трубопроводі наявність поточних правил та можливість додавання власних правил. Якщо інструмент здатний відкрити всі бібліотеки, які використовуються у вашому проекті, ви можете покластися на нього. Однак якщо він не в змозі виявити всі бібліотеки, що використовуються у вашому проекті, слід розглянути можливість додавання власних правил, що надаються користувачем, у ваш інструмент аналізу статичного коду.
    3. Більшість питань можна визначити за допомогою добре розроблених, керованих контекстами шаблонів у інструменті аналізу статичного коду. Для вирішення проблем з малюванням вам потрібно визначити функції маринованих та нерозумних.
    4. Впроваджуйте та протестуйте спеціальні правила, щоб перевірити повне покриття ризиків з малювання та незрозумілих. Давайте визначимо візерунки для кількох бібліотек:
      • Безглуздий може ефективно соління та розкуповувати масиви; Корисно для наукових обчислювальних робочих процесів, що потребують серіалізованих масивів. Щоб зловити потенційне небезпечне використання соління в Numpy, спеціальні правила можуть орієнтуватися на такі шаблони, як:
        import numpy as np
        data = np.load('data.npy', allow_pickle=True)

      • npyfile є утилітою для завантаження чисельних масивів з маринованих файлів. Ви можете додати наступні шаблони до своїх власних правил, щоб виявити потенційно небезпечне використання об'єкта соління.
        import npyfile
        data = npyfile.load('example.pkl')

      • панди Може пікл і розкути даних за допомогою Pickle, що забезпечує ефективне зберігання та пошук табличних даних. Ви можете додати наступні шаблони до своїх власних правил, щоб виявити потенційно небезпечне використання об'єкта соління.
        import pandas as pd
        df = pd.read_pickle('dataframe.pkl')

      • ладобіб Часто використовується для маринованих та незграбних об'єктів Python, які включають великі дані, особливо безлічі, більш ефективно, ніж стандартний соління. Ви можете додати наступні шаблони до своїх власних правил, щоб виявити потенційно небезпечне використання об'єкта соління.
        from joblib import load
        data = load('large_data.pkl')

      • Scikit-learn забезпечити joblib Для маринованих та непокірних об'єктів і особливо корисний для моделей. Ви можете додати наступні шаблони до своїх власних правил, щоб виявити потенційно небезпечне використання об'єкта соління.
        from sklearn.externals import joblib
        data = joblib.load('example.pkl')

      • Піторч Забезпечує утиліти для завантаження маринованих об'єктів, особливо корисних для моделей ML та тензорів. Ви можете додати наступні візерунки до власного формату правила, щоб виявити потенційно небезпечне використання об'єкта соління.
        import torch
        data = torch.load('example.pkl')

    Шукаючи ці функції та параметри в коді, ви можете налаштувати цільові правила, які висвітлюють потенційні проблеми за допомогою маритації.

    Ефективне пом'якшення

    Потрібно вирішити проблеми з малюванням, вимагає не лише виявлення, але й чітких вказівок щодо санації. Розглянемо рекомендації більш безпечних форматів або перевірки, де це можливо:

    • Піторч
      • Використовуйте Safetensors для зберігання тензорів. Якщо піклування залишається необхідним, додайте перевірки цілісності (наприклад, хешування) для серіалізованих даних.
    • панди
      • Перевірте джерела даних та цілісність при використанні pd.read_pickle. Заохочуйте безпечніші альтернативи (наприклад, CSV, HDF5 або Parquet), щоб уникнути ризиків малювання.
    • scikit-learn (через Joblib)
      • Розгляньте Скопи для безпечнішої наполегливості. Якщо формати перемикання неможливі, реалізуйте суворі перевірки перевірки перед завантаженням.
    • Загальна порада
      • Визначте безпечніші бібліотеки або методи, коли це можливо.
      • Перейдіть на такі формати, як CSV або JSON, для даних, якщо не є специфічна для об'єкта серіалізація.
      • Виконайте перевіри джерела та цілісності перед завантаженням файлів соління – навіть ті, що розглядаються довірений.

    Приклад

    Далі наведено приклад реалізації, який показує безпечну реалізацію соління як представлення попередньої інформації.

    import io
    import base64
    import pickle
    import boto3
    import numpy as np
    from cryptography.fernet import Fernet
    
    ###############################################################################
    # 1) RESTRICTED UNPICKLER
    ###############################################################################
    #
    # By default, pickle can execute arbitrary code when loading. Here we implement
    # a custom Unpickler that only allows certain safe modules/classes. Adjust this
    # to your application's requirements.
    #
    
    class RestrictedUnpickler(pickle.Unpickler):
        """
        Restricts unpickling to only the modules/classes we explicitly allow.
        """
        allowed_modules = {
            "numpy": set(["ndarray", "dtype"]),
            "builtins": set(["tuple", "list", "dict", "set", "frozenset", "int", "float", "bool", "str"])
        }
    
        def find_class(self, module, name):
            if module in self.allowed_modules:
                if name in self.allowed_modules[module]:
                    return super().find_class(module, name)
            # If not allowed, raise an error to prevent arbitrary code execution.
            raise pickle.UnpicklingError(f"Global '{module}.{name}' is forbidden")
    
    def restricted_loads(data: bytes):
        """Helper function to load pickle data using the RestrictedUnpickler."""
        return RestrictedUnpickler(io.BytesIO(data)).load()
    
    ###############################################################################
    # 2) AWS KMS & ENCRYPTION HELPERS
    ###############################################################################
    
    def generate_data_key(kms_key_id: str, region: str = "us-east-1"):
        """
        Generates a fresh data key using AWS KMS. 
        Returns (plaintext_key, encrypted_data_key).
        """
        kms_client = boto3.client("kms", region_name=region)
        response = kms_client.generate_data_key(KeyId=kms_key_id, KeySpec="AES_256")
        
        # Plaintext data key (use to encrypt the pickle data locally)
        plaintext_key = response["Plaintext"]
        # Encrypted data key (store along with your ciphertext)
        encrypted_data_key = response["CiphertextBlob"]
        return plaintext_key, encrypted_data_key
    
    def decrypt_data_key(encrypted_data_key: bytes, region: str = "us-east-1"):
        """
        Decrypts the encrypted data key via AWS KMS, returning the plaintext key.
        """
        kms_client = boto3.client("kms", region_name=region)
        response = kms_client.decrypt(CiphertextBlob=encrypted_data_key)
        return response["Plaintext"]
    
    def build_fernet_key(plaintext_key: bytes) -> Fernet:
        """
        Construct a Fernet instance from a 32-byte data key.
        Fernet requires a 32-byte key *encoded* in URL-safe base64.
        """
        if len(plaintext_key)  np.ndarray:
        """
        Download the ciphertext and the encrypted data key from S3. Decrypt the data 
        key with KMS, use it to decrypt the pickled data, then load with a restricted 
        unpickler for safety.
        """
        s3_client = boto3.client("s3", region_name=region)
        
        # 1. Get object from S3
        response = s3_client.get_object(Bucket=bucket_name, Key=s3_key)
        
        # 2. Extract the encrypted data key from metadata
        metadata = response["Metadata"]
        encrypted_data_key_b64 = metadata.get("encrypted_data_key")
        if not encrypted_data_key_b64:
            raise ValueError("Missing encrypted_data_key in S3 object metadata.")
        
        encrypted_data_key = base64.b64decode(encrypted_data_key_b64)
        
        # 3. Decrypt data key via KMS
        plaintext_key = decrypt_data_key(encrypted_data_key, region)
        fernet = build_fernet_key(plaintext_key)
        
        # 4. Decrypt the pickled data
        encrypted_data = response["Body"].read()
        decrypted_pickled_data = fernet.decrypt(encrypted_data)
        
        # 5. Use restricted unpickler to load the numpy object
        numpy_obj = restricted_loads(decrypted_pickled_data)
        
        return numpy_obj
    
    ###############################################################################
    # DEMO USAGE
    ###############################################################################
    
    if __name__ == "__main__":
        # --- Replace with your actual values ---
        KMS_KEY_ID = "arn:aws:kms:us-east-1:123456789012:key/your-kms-key-id"
        BUCKET_NAME = "your-secure-bucket"
        S3_OBJECT_KEY = "encrypted_npy_demo.bin"
        AWS_REGION = "us-east-1"  # or region of your choice
        
        # Example numpy array
        original_array = np.random.rand(2, 3)
        print("Original Array:")
        print(original_array)
        
        # Upload (pickle + encrypt) to S3
        upload_pickled_data_s3(
            numpy_obj=original_array,
            bucket_name=BUCKET_NAME,
            s3_key=S3_OBJECT_KEY,
            kms_key_id=KMS_KEY_ID,
            region=AWS_REGION
        )
        
        # Download (decrypt + unpickle) from S3
        retrieved_array = download_and_unpickle_data_s3(
            bucket_name=BUCKET_NAME,
            s3_key=S3_OBJECT_KEY,
            region=AWS_REGION
        )
        
        print("\nRetrieved Array:")
        print(retrieved_array)
        
        # Verify integrity
        assert np.allclose(original_array, retrieved_array), "Arrays do not match!"
        print("\nSuccess! The retrieved array matches the original array.")

    Висновок

    Завдяки швидкому розширенню хмарних технологій, все більш важливим є інтеграція аналізу статичного коду в процес розвитку AI/ML. У той час, як піклування пропонує потужний спосіб серіалізувати об'єкти для додатків AI/ML та LLM, ви можете зменшити потенційні ризики, застосовуючи ручні огляди захищених кодів, налаштування автоматизованої SCA за допомогою спеціальних правил та дотримуючись найкращих практик, таких як використання альтернативних методів серіалізації або перевірка цілісності даних.

    Працюючи з ML-моделями на AWS, дивіться добре архітований об'єктив машинного навчання AWS для керівництва щодо безпечної архітектури та рекомендованих практик. Поєднуючи ці підходи, ви можете підтримувати сильну позицію безпеки та впорядкувати життєвий цикл розвитку AI/ML.

    Якщо у вас є відгуки про цю публікацію, надішліть коментарі в Коментарі Розділ нижче. Якщо у вас є питання щодо цієї публікації, зверніться до підтримки AWS.

    Тільки Гуку
    Тільки Гуку

    Nur – інженер з безпеки в Amazon з 10 років досвіду наступальної безпеки, що спеціалізується на генеративній безпеці AI, архітектурі безпеки та наступальних тестуваннях. Нур розробив продукцію безпеки на стартапах та банках, і створив рамки для нових технологій. Вона приносить практичний досвід для вирішення складних викликів безпеки AI, і все ж вважає, що перед сніданком аж шість неможливих речей.
    Метт Шварц
    Метт Шварц

    Метт – головний інженер з безпеки Amazon, що спеціалізується на генеративній безпеці AI, управління ризиками та хмарних обчислювальних обчисленнях. Його експертиза з двома десятиліттями дозволяє організаціям впроваджувати вдосконалений ШІ, зберігаючи суворі протоколи безпеки. Метью розробляє стратегічні рамки, які забезпечують критичні активи та забезпечують дотримання цифрового ландшафту, що розвивається, забезпечуючи складні системи під час перетворень.

  • Співавтор Apache Pinot приєднується до розгляду великих даних

    Співавтор Apache Pinot приєднується до розгляду великих даних

    Apache Pinot приєднується до розгляду великих даних Співавтор Apache Pinot приєднується до розгляду великих даних

    Ви можете знати LinkedIn як місце, де було створено Apache Kafka для стандартизації потокових даних. Але є й інші переконливі проекти з відкритим кодом, які вийдуть з компанії, включаючи Apache Pinot, який був розроблений для забезпечення швидких відповідей на велику кількість одночасних запитів OLAP на швидкоплинні дані. Кішор Гопалакришна, один із співавторів Apache Pinot та генерального директора та співзасновника Startree, нещодавно зупинився великим даними, щоб обговорити техніку великих даних.

    Гопалакришна та його колега LinkedIn Subbu Subramaniam створили Apache Pinot як розподілену стовпчасту базу даних ще в 2015 році, щоб обслуговувати величезний апетит компанії соціальних медіа до запитів у режимі реального часу на дані, що протікають через Apache Kafka. Програмне забезпечення стало популярним серед таких компаній, як Uber за його можливістю обслуговувати запити SQL тисячам зовнішніх користувачів із затримкою субдекунди.

    У 2018 році Гопалакришна та Сян Фу співзасновувались Startree для створення комерційного бізнесу навколо програмного забезпечення з відкритим кодом HTE. Щоб дізнатися більше, перегляньте відео нижче.

    https://www.youtube.com/watch?v=i4tvzpmc1ky


  • Фінансовий директор Evolution надає прожектор на дані, технологічні навички

    Фінансовий директор Evolution надає прожектор на дані, технологічні навички

    Сьогоднішні фінансові директори виконують роль «перехресних функціональних» лідерів у епоху, коли підприємства просять більше аналізу даних та швидшого планування сценарію, щоб не відставати від швидких змін – зміна, яка має ефект пульсації у всій функції фінансів, – сказав Чад Хестерс, генеральний директор виконавчої пошукової фірми Boyden.

    Оскільки начальники фінансів приводяться “у набагато більш стратегічне прийняття рішень, управління ризиками, цифрову трансформацію” або інші заходи, решта фінансових функцій спостерігається, що їхні власні ролі розвиваються, щоб забезпечити, що вони можуть запропонувати необхідну підтримку стратегічно налаштованих фінансових директорів, заявив Гестерс в інтерв'ю.

    Оскільки фінансові лідери просять надати своїм керівникам, колегам та членам C-Suite з ключовими уявленнями про прийняття рішень, що “означає, що їхні команди, F&A, системи контролера, вони повинні бути досвідчені в аналітиці даних, інструментів автоматизації та фінансових прогнозах та плануванні сценаріїв”,-сказав Гестерс.

    Скорочення фінансових силу

    Фінансові директори бачили, як їх перелік обов'язків зростає за останні кілька років; У опитуванні 2024 року Егона Зехндера 82% начальників фінансів заявили, що вони взяли на себе нові обов'язки, такі як злиття та поглинання та корпоративний розвиток. Фінансові начальники також досі відповідають за традиційні фінансові процеси, які підприємствам потрібно успішно діяти – і без підтримки інших фінансових лідерів вони можуть швидко виявитися переповненими.

    “Я думаю, фінансові директори, як результат … вони, мабуть, відчувають себе трохи перевантаженими”, – сказав Хестерс. “Якщо у них є хороша команда, вони можуть підтримувати хороший баланс робочого життя”.

    Щоб задовольнити ці розширення очікувань, також розвивається фінансова функція, зазначив Гестерс, включаючи традиційні ролі контролера, керівник фінансового планування та аналізу та головний бухгалтерський директор. Лише п’ята частина фінансового директора заявила, що баланс їхнього та життя є “поганим”, було встановлено опитування Егона Зехндера, 51% класифікують його як “добре” і 29% класифікують його як “добре”.

    Коли фінансові директори стають “міжфункціональними лідерами”, області, які раніше були розкинуті-такі як функції бухгалтерського обліку та фінансів-тепер стають більш спільними, наприклад, при цьому фінансовий директор виступає як точка Nexus.

    “Пройшли дні, коли організація контролера може сидіти і просто закрити книги … і скарбник може просто керувати грошовим потоком”, – сказав Хестерс. “Але знову ж таки, це означає, що фінансові директори, за замовчуванням, повинні добре розуміти і з'єднати всі крапки в цих областях і мати справу зі швидкістю змін, які можуть запаморочити”.

    Підготовка до наступної хвилі

    Гестерс обіймав посаду генерального директора в Таррітауні, штат Нью-Йорк, з лютого 2023 року, згідно з його профілем LinkedIn. До того, як приєднатися до Бойдена, він виконував різноманітні ролі для колег -виконавчих пошуків та консультативної фірми Korn Ferry, і розпочав свою кар'єру в якості розвідувального офіцера для ВМС США. Попередній досвід також включає в себе позиції в Heidrick & Contre, Hunt Oil Company та Shell.

    Протягом своєї кар'єри Гестерс бачив, що кілька тенденцій впливають на еволюцію ролі фінансового директора, сказав він. Першою «хвилею змін», які він побачив у своїй кар’єрі, було наслідком Закону про Сарбанес-Окслі, який створив «цей новий зовнішній тиск, як приходить і вступає у функцію фінансового директора», як підприємства, спрямовані на зменшення ризиків експлуатації та дотримання нових вимог, сказав він.

    “Ця хвиля породжувала потребу в галузі фінансів та їх контролерів, зокрема, мати кращі системи, процеси управління та бухгалтерські системи, які могли б підтвердити вимоги, про які вони повинні були звітувати”, – сказав він.

    Друга основна «хвиля» все ще триває, сказав Гестерс-фінансова функція в даний час знаходиться в середині змін, що керуються новими технологіями, такими як автоматизація та штучний інтелект, які впливають на те, як вони наближаються до щоденних, так і стратегічних процесів. Обсяг даних, які функціонує фінансування, просить збирати та оцінити, зростає експоненціально, змінюючи не лише те, як фінансова команда потребує виконання певних функцій, а навичок, які вони повинні зробити.

    “Що відбувається, ви знаходите, що фінансові директори ставлять ціну на спритність, на здатність їхньої команди бути спритними та бути постійними учнями”, – сказав Хестерс.

  • Оголошення на дивіденди %240.1098/частка 24.03.2025

    Оголошення на дивіденди %240.1098/частка 24.03.2025

    DividendInvestor.com – провідний у всьому світі незалежний постачальник дивідендів та даних для інвестиційних фахівців. Наша місія – бути Перший у даних дивідендів у всьому світі® За допомогою розробки та розробки основних інструментів та систем для інвестиційної спільноти з найвищим рівнем точності та цілісності.

    Контакт:
    info@dividendinvestor.com

  • Чи є SAP SE (SAP) найкращим акціям прогнозування аналітики для придбання за словами аналітиків?

    Чи є SAP SE (SAP) найкращим акціям прогнозування аналітики для придбання за словами аналітиків?

    Нещодавно ми опублікували список 11 найкращих акцій аналітики прогнозування, які можна придбати на думку аналітиків. У цій статті ми збираємось подивитися, де SAP SE (NYSE: SAP) виступає проти інших найкращих акцій аналітики прогнозування, які можна придбати на думку аналітиків.

    Прогнозна аналітика, яку іноді називають аналітикою великих даних, є невід'ємною частиною сьогоднішнього корпоративного арсеналу. Це підмножина розширеної аналітики, яка використовує статистичні алгоритми та методи машинного навчання для прогнозування майбутніх випадків та отримання розуміння попередніх даних. Крім того, він включає інструменти та процеси, такі як видобуток та моделювання даних, всі спрямовані на вивчення даних, визначення тенденцій та зроблених прогнозів. За даними Fortune Business Insights, глобальна галузь прогнозування аналітики оцінювалася в 14,71 млрд. Дол.

    Компанії завжди шукають способів випереджати конкуренцію та зробити розумний вибір, який призводить до успіху. Це призвело до зростаючої опори на рішення, керовані даними. Завдяки консолідованій аналітиці, моделями машинного навчання та технологіями AI, тепер можна проаналізувати більше компаній у більшій діапазоні площі швидше, ніж будь -коли раніше. Особливо це стосується практики венчурного капіталізму. Багато інвесторів на ранній стадії використовують прийняття рішень, орієнтовані на дані, щоб керувати їх пошуком та інвестиціями. Незважаючи на те, що інстинкт розвідки великих інвестиційних можливостей, як правило, розвивається з багаторічного досвіду, фірми венчурного капіталу та партнери можуть покращити процес розвідки, аналізуючи різноманітні екосистеми. Згідно з аналізом ВК, орієнтованим на дані, до цього року дані, аналітика та штучний інтелект будуть використані для керування інвестиційними рішеннями у 75% усіх угод ВК. Цей доступ до високоякісних даних зменшує ризик венчурних капіталістів втратити можливості та допомагає їм визначити високопотенційні фірми, які в іншому випадку можуть залишатися нерозкритими. Більше того, поєднання прогнозованої аналітики з штучним інтелектом призвело до значного поліпшення глибини розуміння даних. Відповідно до звіту про ділові відомості про ділові відомості про сектор ШІ, прогнозується, що він швидко зростає, з CAGR – 29,2%. Очікується, що це зростання до 2032 року призведе до розміру галузі до 1,7 трлн дол.

    Як і багато інших галузей, прогнозна аналітика може бути корисною для сектору охорони здоров’я. Завдяки своєму підходу, орієнтованому на дані, він пропонує потенціал для поліпшення профілактичної допомоги, управління ресурсами та ефективності роботи. У цій перспективі глобальний ринок прогнозних аналітики охорони здоров'я оцінювався в 12,96 мільярдів доларів у 2023 році, і, як очікується, він зросте при складенні щорічно темпів зростання на 35% між 2024 та 2032 роками. Щоб проілюструвати це, Всесвітній економічний форум оцінює, що лікарні створюють 50 петабайт даних щороку.

  • Вуно інвестує 2 мільйони доларів у корейський суперник та більше трусів

    Вуно інвестує 2 мільйони доларів у корейський суперник та більше трусів

    Вуно інвестує 2 мільйони доларів, продає легені AI в Японії, щоб конкурувати

    Вуно інвестував у свою технологію AI у Японії та продав свою суперницьку корейську компанію Corelene Soft.

    Нещодавно дві компанії вступили до стратегічного партнерства, щоб спільно підвищити свою конкурентоспроможність у зростаючому сегменті AI Global Medical Imaging.

    Вуно інвестував 3,4 мільярда виграшів (2,3 мільйона доларів) у Coreline Soft, до якої продали та передав права свого програмного забезпечення для діагностики легенів, що працюють на АІ,-це перша пропозиція в Японії. Потім це знаменує вступ Корліна М'якої на японський ринок, який відзначається тим, що має одне з найактивніших інвестицій в медичні технології на базі ШІ.

    “Якщо компанії AI, такі як Vuno та Coreline Soft, стратегічно працюють разом, вдосконалюючи відповідні основні підприємства, ми впевнені, що ми зможемо розширити свою конкурентоспроможність на світовому ринку”,-заявив генеральний директор Vuno Лі Йе-Ха у заяві.


    Vatech, медит, щоб інтегрувати стоматологічний ШІ

    Південнокорейські компанії з цифрової стоматології Vatech та Medit співпрацювали з Pearl на базі Сполучених Штатів для інтеграції стоматологічної AI.

    AI Pearl, який може автоматично ідентифікувати стоматологічні патології, буде інтегрований у діагностичне програмне забезпечення Vatech та майбутнє інтегроване програмне забезпечення для переглядачів та централізовану платформу цифрового робочого процесу Medit.


    Індійська електронна фармація оцінює фінансування серії C 44 млн. Доларів

    Truemeds, платформа цифрової аптеки та телебачення в Індії, зібрав 375 рублів (44 мільйони доларів) у раунді фінансування серії C під керівництвом Accel India та брав участь Westbridge та Info Edge.

    Компанія зібрала суму від видачі акцій до Accel India, яка зараз має 10% акцій компанії; Westbridge та Info Edge також збільшили свої частки до 29% та 23% відповідно.

    Згідно з регуляторною подачею до уряду, він планує використовувати доходи від збору коштів для продовження своїх планів зростання.

    Truemeds востаннє підняті 22 мільйони доларів у фінансуванні серії B у 2022 році.


    Медичний центр університету Кореї для тестування голосової серцевої недостатності AI

    Медичний центр університету Кореї (KUMC) підписав меморандум про взаєморозуміння за допомогою запуску A.cure, щоб допомогти подальшому розвинути технологію AI останнього.

    Стартап, до якого KUMC передав права на технологію на основі AI для діагностики легеневої затори у жовтні, в даний час розробляє новий ШІ для діагностики та прогнозування серцевої недостатності на основі голосових даних.

    Під їх Меморандумом обидві сторони співпрацюватимуть для тестування та комерціалізації останнього продукту AI AI. Стартап матиме доступ до великих даних та клінічних досліджень та мережі KUMC. Лікарня також підтримає A.cure у забезпеченні інвестицій на місцевому рівні та за кордоном.

    Тим часом A.cure співпрацюватиме з лікарнею для проектів НДДКР з урядом та отримання ліцензій на регулятор.


    Корея затверджує остеопороз AI

    Промедій, інша корейська компанія AI Medical, нещодавно отримала регуляторне затвердження від Південнокорейського міністерства безпеки харчових продуктів та наркотиків (МФД).

    Він отримав кліренс MFD за діагноз остеопорозу, що підтримує програмне забезпечення AI. Компанія стверджує, що програмне забезпечення на основі рентгенівських наборів на грудях дешевше, ніж тест на щільність кісток, і має менший ризик випромінювання, ніж об'ємний тест на щільність кісток.

  • Чи закінчилася корекція фондового ринку? Бездоганний інструмент прогнозування з більш ніж 150 років даних важить.

    Чи закінчилася корекція фондового ринку? Бездоганний інструмент прогнозування з більш ніж 150 років даних важить.

    За останній місяць Уолл -стріт нагадав професійним та щоденним інвесторам, що акції насправді не рухаються по прямій лінії.

    З моменту закриття дзвону 19 лютого, знаковий Дау Джонс промисловий середній (Djindices: ^dji), S&P 500 (Snpindex: ^gspc)та натхненні інноваціями Композит NASDAQ (Nasdaqindex: ^ixic) відповідно пролили 6%, 7,8% та 11,8% їх вартості станом на 20 березня. Додати, що S&P 500 та NASDAQ Composite знизився щонайменше на 10% від своїх максимумів за весь час, що розмістив обидва індекси на офіційній території виправлення (станом на 13 березня).

    Куди зараз інвестувати 1000 доларів? Наша команда аналітиків щойно розкрила, що, на їхню думку, є 10 найкращих запасів купувати прямо зараз. Дізнайтеся більше »

    Однак жоден з цих трьох основних індексів акцій не впав нижче відповідних закривальних мінімумів 13 березня, що ставить питання: чи корекція фондового ринку вже закінчилася для композиту S&P 500 та NASDAQ, чи Уолл -стріт просто очищає горло перед більш крутим зниженням?

    Щоб відповісти на це запитання, звернемося до інструменту прогнозування, який має понад 150 років даних у своїх вітрилах.

    Злегка стек фінансових газет з одним видимим заголовком, який читає ринки.

    Джерело зображення: Зображення Getty.

    Виправлення на фондовому ринку Wall Street може тільки розпочати роботу

    До останньої корекції фондового ринку було досить багато показників прогнозування та подій, які передали проблеми. Приклади включають перше помітне зниження грошової маси в США після Великої депресії; найдовша інверсія кривої врожаю в історії, яка збігалася з найтружнішою інверсією за чотири десятиліття; І останнім часом Федеральний резервний банк Атланти в GDPNOW прогнозується на 1,8% скорочення У США валовий внутрішній продукт (ВВП).

    Але єдиний інструмент прогнозування, який має бездоганний досвід передчуття значних напрямних рухів у промисловому середньому Dow Jones, S&P 500 та NASDAQ COMPOSITE-це співвідношення цін на ціни до виражених (P/E), яке також називається циклічно налаштованим коефіцієнтом P/E Ratio, або Cape Ratio.

    Коли інвестори думають про інструменти оцінки, стандартне співвідношення P/E, ймовірно, приходить на думку. Коефіцієнт P/E компанії досягається шляхом поділу ціни своєї акції на свій відстані 12-місячний прибуток на акцію (EPS). Традиційне співвідношення P/E – це зручний інструмент для швидкого оцінювання зрілого бізнесу, але це не особливо корисно під час рецесій або коли виникають ударні події.

    Для порівняння, співвідношення S&P 500 Shiller P/E базується на середньому EPS, скоригованому інфляцією за попередні 10 років. Використання даних EPS на десятиліття гарантує, що шокові події не можуть перекосити читання, і це забезпечує порівняння оцінювання яблук до яблук, коли його перевірені понад 150 років.

    S&P 500 Shiller Cape Chart

    Дані співвідношення CAPE Shiller Shiller Cape від Ycharts. Коефіцієнт CAPE = циклічно скориговане співвідношення P/E.

    У грудні співвідношення Shiller P/E потрапив у високе читання 38,89 під час нинішнього ринку биків. Для контексту це читання більше ніж удвічі збільшиться в середньому розміром 17,22, коли його випробували до січня 1871 р. Станом на 20 березня виправлення фондового ринку підштовхнуло Shiller P/E до 35,38.

    Що примітно в тому, що S&P 500 Shiller P/E – це не обов'язково, наскільки далеко вище його історично означають поточне читання, настільки, наскільки основні індекси акцій Уолл -стріт врешті -решт відповіли, коли цей інструмент оцінки перевищив 30 і залишився там принаймні два місяці.

    Коли випробувані на 154 роки, є шість випадків, включаючи присутній, де співвідношення Шиллера P/E перевершило 30. Після кожного з попередніх п'яти випадків S&P 500, Dow та/або NASDAQ пролився між 20% та 89% відповідних значень. Іншими словами, преміум -оцінки не виявилися стійкими протягом тривалих періодів у будь -який момент за понад 150 років.

    Незважаючи на те, що S&P 500 Shiller P/E не може сказати інвесторам, коли розпочнеться виправлення фондового ринку або як довго він триватиме, він має бездоганний досвід, врешті -решт передвіщаючи 20% (або більше) зниження основних індексів Уолл -стріт. На основі злиття факторів, з яких Shiller P/E сидить на вершині, корекція фондового ринку Уолл -стріт може лише розпочати роботу.

    Усміхнена людина, яка читає фінансову газету, сидячи за столом у їхньому будинку.

    Джерело зображення: Зображення Getty.

    Введення виправлень фондового ринку в перспективу

    У той час як виправлення фондового ринку, які бачать Dow Jones, S&P 500 та NASDAQ Composite, беруть ліфт нижчим не для всіх, вони нормальний і неминучий аспект циклу інвестування.

    Згідно з даними, об'єднаними фірмою Market Insights, Yardeni Research, з 1950 року було проведено 40 двозначних відсоткових виправлень у галузі S&P 500, включаючи останнє зниження на 10,1%. Запускаючи математику, це спрацьовує до корекції, що виникає в середньому, кожні 1,88 року. Коли емоції інвесторів змінюються на падіння копійки на Уолл-стріт, жодна фіскальна та грошова політика не може зупинити ці двоцифрові зниження від обрізання раз у раз.

    Але перспектива все змінює для інвесторів. Можливість зробити крок назад і подивитися на речі з більш широким об'єктивом може повністю змінити картину.

    У червні 2023 року аналітики компанії Bespoke Investment Group опублікували набір даних на X, які порівнювали довжину кожного ринку биків та ведмедів для S&P 500, що починаються з початком Великої депресії (вересень 1929 р.). Що він висвітлював, – це нелінійність циклів інвестування.

    З часу Великої депресії середній ринок ведмедів S&P 500 тривав лише 286 календарних днів, що дорівнює приблизно 9,5 місяців. Крім того, лише дев'ять із 27 ринків ведмедів застрягли принаймні один рік.

    З іншого боку, типовий ринок биків витримав у 3,5 рази довше – 1011 календарних днів – з третиною цих ринків биків, що тривають протягом 1324 календарних днів та 4494 календарних днів. Вторгнення в Dow Jones, S&P 500 та NASDAQ COMPOSITE Останні істотно довше, ніж виправлення фондового ринку та ведмежні ринки.

    Потужність часу та перспективи ще більше посилюється завдяки нещодавно оновленому наборі даних від Crestmont Research. Цей набір даних зображує загальну 20-річну річну прибутковість прокатки (включаючи дивіденди) S&P 500, що починаються з початку 20 століття.

    Набір даних Crestmont призвів до 106 20-річних періодів (1900-1919, 1901-1920 тощо, до 2005-2024) загальних даних про повернення. Що слід зазначити, що всі 106 термінів дали позитивну річну віддачу. Це означає, що гіпотетично, якби інвестор придбав індекс S&P 500 в будь -який момент з 1900 року і просто обіймав свою позицію протягом 20 років, вони б приносили прибуток, включаючи дивіденди щоразу.

    Навіть незважаючи на те, що виправлення фондового ринку (і перспектива їх затримує) може бути тривожною протягом коротких періодів, кожен спад у Dow Jones, S&P 500 та NASDAQ Composite був надійною можливістю покупки протягом більше століття.

    Чи варто інвестувати 1000 доларів в індекс S&P 500 прямо зараз?

    Перш ніж купувати акції в індексі S&P 500, врахуйте це:

    З Advisor Stople Fool Команда аналітика щойно визначила, що, на їхню думку, є 10 найкращих запасів Щоб інвестори купували зараз… і індекс S&P 500 не був одним із них. 10 акцій, які зробили скорочення, можуть призвести до прибутку монстрів у найближчі роки.

    Подумайте, коли Nvidia склав цей список 15 квітня 2005 року … якщо ви інвестували 1000 доларів на момент нашої рекомендації, у вас буде $ 721 394!*

    Радник з акцій Надає інвесторам простий у виконанні план для успіху, включаючи рекомендації щодо створення портфоліо, регулярні оновлення аналітиків та два нових виборів акцій щомісяця. З Радник з акцій Сервіс має Більше, ніж вчетверо Повернення S&P 500 з 2002 року*. Не пропустіть останній список топ -10, доступний під час приєднання Радник з акцій.

    Див. 10 акцій »

    *Радник акцій повертається станом на 18 березня 2025 року

    Шон Вільямс не має позиції в жодній із згаданих акцій. Мотлі дурня не має жодної позиції в жодній із згаданих акцій. Мотлі дурня має політику розкриття інформації.

    Відмова: лише для інформаційних цілей. Минулі показники не свідчать про майбутні результати.

  • [Latest] Як великі дані революціонують відходи GCC

    [Latest] Як великі дані революціонують відходи GCC

    Як великі дані революціонують ринок поводження з відходами GCC

    Як великі дані революціонують ринок поводження з відходами GCC

    Нью-Джерсі, Сполучені Штати,- GCC Management Manking Risking зростання. На ринку спостерігається значні інвестиції у прийняття передових технологій поводження з відходами, таких як переробка, рішення щодо управління відходами та управління сміттєзвалищами. Крім того, сплеск виробництва відходів як з житлового, так і з комерційного секторів підштовхує попит на ефективні рішення щодо поводження з відходами в країнах GCC.

    Майбутнє обсяг ринку поводження з відходами GCC є перспективним із зростанням переходу до практики стійкої та кругової економіки. До 2030 року, прогнозується, що розмір ринку досягне 9,2 млрд. Дол. Очікується, що розвиток інфраструктури з управління відходами, наприклад, створення заводів для переробки та відходів до енергетики, буде набути обертів відповідно до державних цілей щодо захисту навколишнього середовища та зменшення відходів. Зростання ринку також буде підтримуватися зростанням обізнаності громадськості та прийняттям розумних систем поводження з відходами для моніторингу в режимі реального часу та оптимізації збору відходів.

    Отримати | Завантажте зразок копії за допомогою TOC, графіків та списку фігур @ https://www.verifiedmarketresearch.com/download-sample/?rid=475107&utm_source=openpr&utm_medium=235

    Конкурентний ландшафт ринку пояснює стратегії, включені ключовими гравцями ринку управління відходами GCC. Основні розробки та зрушення в управлінні останніми роками гравців пояснюються за допомогою профілювання компанії. Це допомагає читачам зрозуміти тенденції, які прискорить зростання ринку поводження з відходами GCC. Він також включає інвестиційні стратегії, маркетингові стратегії та плани розвитку продуктів, прийняті основними гравцями ринку управління відходами GCC. Прогноз ринку допоможе читачам зробити кращі інвестиції.

    Звіт охоплює широкий аналіз ключових учасників ринку на ринку, а також огляд бізнесу, плани розширення та стратегії. Ключові гравці, вивчені у звіті, включають:

    Веолія
    Околиць
    Бджола
    FCC середовище
    Inc.
    RAMKY GROUP
    Hitachi Zosen inova
    Аль Бавані
    СУЕЗ -переробка та відновлення
    Зелена компанія з переробки
    Сегментація ринку управління відходами GCC

    За типом відходів:

    Муніципальні відходи
    Промислові відходи
    Небезпечні відходи
    Інші

    Методом утилізації:

    Сміттєзвалище
    Спалювання
    Переробка
    Компостування

    За типом служби:

    Колекція
    Перевезення
    Лікування та утилізація
    Переробка

    За країною:

    Саудівська Аравія
    Об'єднані Арабські Емірати
    Катар
    Кувейт
    Оманський
    Бахрейн

    Комплексний сегментальний аналіз, запропонований у звіті, розпадається глибоко у важливі типи та сегменти застосування ринку поводження з відходами GCC. Це показує, як провідні сегменти залучають зростання на ринку поводження з відходами GCC. Більше того, він включає точні оцінки частки ринку, CAGR та розмір ринку всіх сегментів, вивчених у звіті.

    Отримайте знижку на придбання цього звіту @ https://www.verifiedmarketresearch.com/ask-for-discount/?rid=475107&utm_source=openpr&utm_medium=235

    Регіональне дослідження сегментації – одна з найкращих пропозицій звіту, яка пояснює, чому деякі регіони беруть на себе лідерство на ринку поводження з відходами GCC, а інші роблять низький внесок у зростання світового ринку. Кожен регіональний ринок всебічно досліджується у звіті з точними прогнозами щодо його майбутнього потенціалу зростання, частки ринку, розміру ринку та темпів зростання ринку.

    Географічний сегмент, висвітлений у звіті:

    • Північна Америка (США та Канада)
    • Європа (Великобританія, Німеччина, Франція та решта Європи)
    • Азіатсько -Тихоокеанський (Китай, Японія, Індія та решта Азіатсько -Тихоокеанського регіону)
    • Латинська Америка (Бразилія, Мексика та решта Латинської Америки)
    • Близький Схід та Африка (GCC та решта Близького Сходу та Африки)

    Ключові запитання, що відповідають у звіті:

    • Який потенціал зростання ринку поводження з відходами GCC?
    • Який сегмент продукту займе левову частку?
    • Який регіональний ринок з'явиться як піонер у наступні роки?
    • Який сегмент застосування зазнає сильного зростання?
    • Які можливості зростання можуть виникнути в галузі в наступні роки?
    • Які найважливіші проблеми, з якими може зіткнутися ринок поводження з відходами GCC?
    • Хто є провідними компаніями на ринку поводження з відходами GCC?
    • Які основні тенденції позитивно впливають на зростання ринку?
    • Які стратегії зростання гравці вважають, що залишаються на ринку поводження з відходами GCC?

    Для отримання додаткової інформації або запитів або налаштування перед покупкою відвідайте @ https://www.verifiedmarketresearch.com/product/gcc-waste-management-market/

    “Зв’яжіться з нами:

    Містер Едвін Фернандес

    Перевірені дослідження ринку®

    США: +1 (650) -781-4080
    Великобританія: +44 (753) -715-0008
    APAC: +61 (488) -85-9400
    США безкоштовно: +1 (800) -782-1768

    Електронна пошта: sales@verifiedmarketresearch.com

    Веб-сайт:- https://www.verifiedmarketresearch.com/Що

    “Про нас: перевірені дослідження ринку®

    Перевірені ринкові дослідження®-це провідна глобальна дослідницька та консалтингова фірма, яка надає передові аналітичні дослідження, спеціальні консалтинги та поглиблений аналіз даних протягом 10+ років як особам, так і компаніям, які шукають точних, надійних та актуальних даних досліджень та технічних консультацій. Ми пропонуємо розуміння стратегічних та аналізів зростання, даних, необхідних для досягнення корпоративних цілей та допомагають приймати критичні рішення щодо доходу.

    Наші дослідницькі дослідження допомагають нашим клієнтам приймати чудові рішення, керовані даними, розуміти прогноз ринку, скористатися майбутніми можливостями та оптимізувати ефективність, працюючи як їх партнер, щоб надати точну та цінну інформацію. Промисловості, які ми охоплюємо, перевищує великий спектр, включаючи технології, хімічні речовини, виробництво, енергію, продукти харчування та напої, автомобільну, робототехніку, упаковку, будівництво, видобуток та газ. Тощо

    Ми, на перевірених дослідженні ринку, допомагаємо зрозуміти цілісний ринок, що вказує на фактори та найсучасніші та майбутні тенденції на ринку. Наші аналітики, які мають високу експертизу збору даних та управління, використовують галузеві методи, щоб зібрати та вивчити дані на всіх етапах. Вони навчаються поєднувати сучасні методи збору даних, чудову методологію дослідження, предметну експертизу та роки колективного досвіду для створення інформативних та точних досліджень.

    Отримавши понад 5000+ клієнтів, ми надавали надійні послуги з дослідження ринку понад 100 глобальних компаній Fortune 500, таких як Amazon, Dell, IBM, Shell, Exxon Mobil, General Electric, Siemens, Microsoft, Sony та Hitachi. Ми співпрацювали з деякими провідними світовими консалтинговими фірмами, такими як McKinsey & Company, Boston Consulting Group, Bain та Company для спеціальних дослідницьких та консалтингових проектів для бізнесу у всьому світі “.

    Цей випуск був опублікований на OpenPR.

  • Як дані та AI живуть зміною на 180 -річному житті Нью -Йорка

    Як дані та AI живуть зміною на 180 -річному житті Нью -Йорка

    New York Life – це найбільша компанія з взаємного страхування життя в США, і вона була заснована 180 років тому, це також одна з найстаріших. Компанія має неабиякий масштаб із понад трильйон доларів політики та приблизно 58 мільярдів доларів щорічного доходу. Останніми роками Life Life охопило технологію та штучний інтелект для покращення своїх операцій, подорож, яку очолював Дон Ву, його головний директор з даних та аналітики.

    Ву мав попередній досвід лідера даних та аналітики в Northwestern Mutual та Wework, але він отримав свої перші керівні ролі, пов'язані з даними, що працюють на найбільш орієнтовані на дані американського спорту: бейсбол вищої ліги. VU провів 13 років з MLB Advanced Media, керуючи консолідованими даними для всіх 30 бейсбольних команд. “Це була мрія даних”, – згадував він. “Ми побудували платформу потокового відео, яка згодом була позначена білим маркуванням для основних властивостей, таких як HBO та WWE.

    Його час у MLB навчив його цінності централізованих даних та масштабованих платформ, уроків, які він здійснив у своїй ролі в Нью -Йоркському житті. “Характер лідерства даних різко змінився протягом багатьох років”, – зауважив Ву. “Раніше йдеться про управління та огородження. Тепер, мова йде про створення цінності. Генеративна ШІ прискорює цю зміну, що дозволяє нам швидше рухатися і досягти більше”.

    Переосмислення стратегії даних у Нью -Йорку життя

    У Нью -Йоркському житті роль Ву передбачає керування як стратегій даних, так і стратегій AI, які, за його словами, нерозривно пов'язані. Це вирівнювання відображає більш широкий стратегічний зсув, ініційований генеральним директором New York Life Craig Desanto, який надав пріоритети на досвід клієнта та агента над традиційним фокусом, орієнтованим на продукт. “Люди припускають, що стара компанія – сонна”, – сказав Ву. “Це не. Бачення Крейга охоплює весь бізнес, що дозволяє маховику, де технології, дані та протікають AI по всій організації”.

    Для підтримки цієї трансформації Ву окреслив чотири ключові стовпи стратегії даних компанії:

    1. Фонд даних: Побудова правильних талантів, процесів та технологічної інфраструктури.
    2. AI Інтелект та аналітичні уявлення: Розробка надійних можливостей для генерування дієвих даних.
    3. Культурна інтеграція: Сприяючи культурі, орієнтованій на дані, за допомогою таких ініціатив, як хакатони та експозиції, щоб поділитися “мистецтвом можливих”.
    4. Замовник та досвід консультанта: Покращення подорожей клієнтів шляхом вирівнювання офлайн та онлайн -сенсорних точок з бізнес -стратегією.

    “Наша місія полягає в тому, щоб активувати силу життєвих даних Нью -Йорка за допомогою AI підприємств та продуктів даних”, – пояснив Ву. “Вся справа в наданні відчутного впливу на бізнес”.

    Роль генеративного ШІ

    Під керівництвом Ву, Нью -Йорк Життя сильно схилялося до генеративного ШІ, щоб розблокувати нові можливості. Компанія співпрацює з лідерами галузі, такими як OpenAI, Antropic та AWS, щоб залишитися на передовій інновації AI. “Ми були навмисними для того, щоб забезпечити належне фінансування AI з правильними огородженнями, але також брукованою дорогою”, – зазначив Ву.

    Основні сфери фокусування включають обробку послуг та претензій, де пілоти та докази концепції вже перейшли у виробництво. “У нас були деякі успішні ініціативи, і деякі, які не вийшли, але ми завжди вчимося”, – підкреслив він. “Наступний кордон буде неймовірним, особливо з вертикальними додатками, пристосованими до агентів та клієнтів”.

    Ву наголосив на важливості вбудовування AI у всі частини потоків вартості організації – в цілому – починаючи від розвідки клієнта до утримання та досвіду радників. Вирівнюючи дані та ШІ з бізнес -цілями та ключовими результатами (OKR), компанія забезпечує згуртований підхід до інновацій.

    Побудова організації, орієнтованої на дані

    Щоб виконати своє бачення, Ву створив надійну команду лідерів:

    • Головний директор з даних: Нагляд за інженерією та управлінням даних.
    • Головний директор з наукових даних: Ведучі ініціативи AI та машинного навчання.
    • AI та організація продуктів даних: Створення нових дисциплін для сприяння інноваціям.
    • Глава стратегічних уявлень: Забезпечення вирівнювання в цілому та цілісній перспективі.
    • Керівник операцій: Забезпечення безшовного виконання в командах.

    “Нам пощастило мати поєднання довгих лідерів, які розуміють організацію та новий талант, що приносять нові перспективи”,-сказав Ву. Ця суміш досвіду була ключовою у водінні змін, поважаючи глибоко вкорінену спадщину компанії.

    Майбутні світогляди

    У Нью -Йоркському житті Ву бачить аналогічно трансформаційне майбутнє. “Ми просто дряпаємо поверхню того, що можливо з даними та AI”, – наголосив він. “З правильною стратегією, інструментами та культурою ми можемо продовжувати покращувати досвід клієнта та агента, залишаючись вірними нашій 180-річній спадщині”.

    Лідерство ВУ ілюструє силу даних для сприяння значущим змінам, доводячи, що навіть найбільш усталені організації можуть впроваджувати інновації та процвітати у швидко розвиваючому цифровому ландшафті.

    Пітер Хай – президент Стратегія метісубізнес та консультативна фірма. Він написав три книги бестселерів, включаючи його останні Дістатися до спритного. Він також помірує Техноновація Серія подкастів та виступає на конференціях у всьому світі. Слідкуйте за ним у Twitter @Peterahigh.