Чим штучний інтелект наближається до рівня людського інтелекту, тим більше він потребує нелюдську систему оборони.
Написав: 0xResearcher
Manus показав SOTA (State-of-the-Art) результати на тестах GAIA, що свідчить про його перевагу над великими моделями Open AI на тому ж рівні. Іншими словами, він може самостійно виконувати складні завдання, такі як міжнародні комерційні переговори, які включають аналіз умов контракту, стратегічне передбачення, розробку рішень та навіть координацію юридичного та фінансового відділів. У порівнянні з традиційними системами, Manus відзначається своєю здатністю динамічно розкладати цілі, міжмодальною мислительною здатністю та підвищенням навчальної здатності за допомогою підвищеного навчання. Він може розкласти велике завдання на сотні виконавчих підзадач, одночасно обробляти різні типи даних та постійно покращувати ефективність своїх рішень за допомогою підвищеного навчання, знижуючи рівень помилок.
!
Поруч з швидким розвитком технологій, Manus знову викликає розкол у галузі стосовно шляху еволюції штучного інтелекту: чи AGI здобуде всесвітнє господарство у майбутньому, чи MAS буде домінувати в співробітництві?
Це варто розпочати з концепції дизайну Manus, вона містить два можливі варіанти:
Один із шляхів AGI. Шляхом постійного підвищення рівня інтелекту одного особистості, наближаючи його до загальної рішучої здатності людини.
Існує ще один шлях - MAS шлях. Як суперкоординатор, він керує тисячами агентів у вертикальних галузях, спільно діючи.
На поверхні ми говоримо про різні розходження шляхів, насправді ми говоримо про основні суперечності розвитку штучного інтелекту: як забезпечити баланс між ефективністю та безпекою? Чим ближче окрема інтелектуальність до Загальної Інтелектуальної Агентури (AGI), тим вище ризик учинення рішень у чорній скриньці; у той час як спільна дія багатьох Агентів може розподіляти ризики, вона може просікатися втратою ключового вікна для ухвалення рішень через затримки в комунікації.
Еволюція Manus непомітно збільшила вроджений ризик розвитку штучного інтелекту. Наприклад, чорна діра конфіденційності даних: в медичних сценаріях Manus потребує миттєвого доступу до геномних даних пацієнтів; під час фінансових переговорів може здійснюватися доступ до неконфіденційної фінансової звітності підприємства; наприклад, пастка алгоритмічної упередженості, в рамках відбору персоналу Manus робить знижені пропозиції заробітної плати для кандидатів певної расової приналежності в порівнянні з середнім рівнем; при аудиті правових угод практично половина випадків помилкової оцінки умов нових галузей. Наприклад, для боротьби з вразливостями до атак, хакери використовують вбудовані в Manus певні голосові частоти, що призводить до помилкової оцінки діапазону цінових пропозицій опонента в ході переговорів.
Нам доводиться стикатися з жахливою болячкою AI системи: чим розумніша система, тим ширший її обхват атак.
Проте безпека завжди була терміном, що постійно згадується в web3, і в рамках трикутника Неможливого Віталіка (блокчейн мережа не може одночасно забезпечувати безпеку, децентралізацію та масштабованість) також виникло багато різних методів шифрування:
Модель безпеки нуль довіри (Zero Trust Security Model): Основна ідея моделі безпеки нуль довіри полягає в тому, що «не довіряти нікому, завжди перевіряти», тобто навіть якщо пристрій знаходиться в мережі, йому не слід автоматично довіряти. Ця модель підкреслює необхідність строгої перевірки особи та авторизації кожного запиту на доступ для забезпечення безпеки системи.
Децентралізований ідентифікатор (DID): DID - це набір стандартів ідентифікаторів, які дозволяють сутності отримувати ідентифікацію у спосіб, який можна перевірити та зберегти без потреби централізованого реєстру. Це втілює новий шаблон децентралізованої цифрової ідентичності, який часто порівнюють з ідентичністю на основі самовладання та є важливою складовою Web3.
Повністю гомоморфне шифрування (Fully Homomorphic Encryption, FHE) - це передова технологія шифрування, яка дозволяє виконувати будь-які обчислення на зашифрованих даних без їх дешифрування. Це означає, що третя сторона може операціювати з шифротекстом, і результат після розшифрування буде співпадати з результатом операції над звичайним текстом. Ця властивість має важливе значення для сценаріїв, де потрібно виконувати обчислення, не розголошуючи початкові дані, наприклад, в хмарних обчисленнях та зовнішньому обробці даних.
Модель нульового довіри та технологія DID мають певну кількість проектів, які проводять атаки в багаторічному биковому ринку; деякі з них досягають успіху, а інші затоплюються в хвилях криптографії. Як наймолодша форма шифрування: повністю гомоморфне шифрування (Fully Homomorphic Encryption, FHE), воно також є потужним засобом вирішення проблем безпеки у епоху штучного інтелекту. Повністю гомоморфне шифрування (FHE) - це технологія, яка дозволяє виконувати обчислення на зашифрованих даних.
Як вирішити?
Спочатку, на рівні даних. Усі введені користувачем дані (включаючи біологічні ознаки, голосовий тон) оброблюються в зашифрованому стані, і навіть сам Manus не може розшифрувати початкові дані. Наприклад, у випадку медичної діагностики геномні дані пацієнта участь у аналізі беруть у формі шифротексту, щоб уникнути витоку біологічної інформації.
На рівні алгоритмів. За допомогою FHE навіть розробники не можуть побачити шляхи вирішення штучного інтелекту, які реалізовані в «шифрувальному навчанні моделі».
На рівні співпраці. Комунікація між декількома агентами використовує поріг шифрування, порушення одного вузла не призводить до розголошення глобальних даних. Навіть під час вправ з оборони та нападу в ланцюжку поставок, зловмисник, який проникає в кілька агентів, не може отримати повноцінний бізнес-огляд.
А через обмеження техніки, безпека web3 може не мати прямого контакту з більшістю користувачів, але водночас має тонку мережу непрямих інтересів, в цьому темному лісі, якщо не забезпечити себе зброєю, то ніколи не вийти зі статусу "поросят".
uPort був запущений на головній мережі Ethereum в 2017 році і, ймовірно, є одним з перших проектів децентралізованої ідентичності (DID), які були запущені на головній мережі.
Щодо моделі нульового довіри, NKN запустив свою основну мережу у 2019 році.
Мережа розуму - перший проект FHE, який вийшов на головну мережу, і першим співпрацював з ZAMA, Google, DeepSeek тощо.
uPort та NKN вже є проектами, про які мало хто чув, схоже, що проекти з безпеки дійсно не привертають уваги спекулянтів, чи зможе Mind network уникнути цього прокляття та стати лідером у сфері безпеки, залишаємося на чеку.
Майбутнє настало. Чим штучний інтелект ближче до людського, тим більше потребує нелюдської системи оборони. Вартість FHE полягає не лише в вирішенні поточних проблем, але й у підготовці до епохи сильного штучного інтелекту. На цій небезпечній дорозі до загального штучного інтелекту FHE - не вибір, а необхідність для виживання.
Контент має виключно довідковий характер і не є запрошенням до участі або пропозицією. Інвестиційні, податкові чи юридичні консультації не надаються. Перегляньте Відмову від відповідальності , щоб дізнатися більше про ризики.
Manus принесла світло AGI, безпека штучного інтелекту знову зазнає змін
Написав: 0xResearcher
Manus показав SOTA (State-of-the-Art) результати на тестах GAIA, що свідчить про його перевагу над великими моделями Open AI на тому ж рівні. Іншими словами, він може самостійно виконувати складні завдання, такі як міжнародні комерційні переговори, які включають аналіз умов контракту, стратегічне передбачення, розробку рішень та навіть координацію юридичного та фінансового відділів. У порівнянні з традиційними системами, Manus відзначається своєю здатністю динамічно розкладати цілі, міжмодальною мислительною здатністю та підвищенням навчальної здатності за допомогою підвищеного навчання. Він може розкласти велике завдання на сотні виконавчих підзадач, одночасно обробляти різні типи даних та постійно покращувати ефективність своїх рішень за допомогою підвищеного навчання, знижуючи рівень помилок.
!
Поруч з швидким розвитком технологій, Manus знову викликає розкол у галузі стосовно шляху еволюції штучного інтелекту: чи AGI здобуде всесвітнє господарство у майбутньому, чи MAS буде домінувати в співробітництві?
Це варто розпочати з концепції дизайну Manus, вона містить два можливі варіанти:
Один із шляхів AGI. Шляхом постійного підвищення рівня інтелекту одного особистості, наближаючи його до загальної рішучої здатності людини.
Існує ще один шлях - MAS шлях. Як суперкоординатор, він керує тисячами агентів у вертикальних галузях, спільно діючи.
На поверхні ми говоримо про різні розходження шляхів, насправді ми говоримо про основні суперечності розвитку штучного інтелекту: як забезпечити баланс між ефективністю та безпекою? Чим ближче окрема інтелектуальність до Загальної Інтелектуальної Агентури (AGI), тим вище ризик учинення рішень у чорній скриньці; у той час як спільна дія багатьох Агентів може розподіляти ризики, вона може просікатися втратою ключового вікна для ухвалення рішень через затримки в комунікації.
Еволюція Manus непомітно збільшила вроджений ризик розвитку штучного інтелекту. Наприклад, чорна діра конфіденційності даних: в медичних сценаріях Manus потребує миттєвого доступу до геномних даних пацієнтів; під час фінансових переговорів може здійснюватися доступ до неконфіденційної фінансової звітності підприємства; наприклад, пастка алгоритмічної упередженості, в рамках відбору персоналу Manus робить знижені пропозиції заробітної плати для кандидатів певної расової приналежності в порівнянні з середнім рівнем; при аудиті правових угод практично половина випадків помилкової оцінки умов нових галузей. Наприклад, для боротьби з вразливостями до атак, хакери використовують вбудовані в Manus певні голосові частоти, що призводить до помилкової оцінки діапазону цінових пропозицій опонента в ході переговорів.
Нам доводиться стикатися з жахливою болячкою AI системи: чим розумніша система, тим ширший її обхват атак.
Проте безпека завжди була терміном, що постійно згадується в web3, і в рамках трикутника Неможливого Віталіка (блокчейн мережа не може одночасно забезпечувати безпеку, децентралізацію та масштабованість) також виникло багато різних методів шифрування:
Модель нульового довіри та технологія DID мають певну кількість проектів, які проводять атаки в багаторічному биковому ринку; деякі з них досягають успіху, а інші затоплюються в хвилях криптографії. Як наймолодша форма шифрування: повністю гомоморфне шифрування (Fully Homomorphic Encryption, FHE), воно також є потужним засобом вирішення проблем безпеки у епоху штучного інтелекту. Повністю гомоморфне шифрування (FHE) - це технологія, яка дозволяє виконувати обчислення на зашифрованих даних.
Як вирішити?
Спочатку, на рівні даних. Усі введені користувачем дані (включаючи біологічні ознаки, голосовий тон) оброблюються в зашифрованому стані, і навіть сам Manus не може розшифрувати початкові дані. Наприклад, у випадку медичної діагностики геномні дані пацієнта участь у аналізі беруть у формі шифротексту, щоб уникнути витоку біологічної інформації.
На рівні алгоритмів. За допомогою FHE навіть розробники не можуть побачити шляхи вирішення штучного інтелекту, які реалізовані в «шифрувальному навчанні моделі».
На рівні співпраці. Комунікація між декількома агентами використовує поріг шифрування, порушення одного вузла не призводить до розголошення глобальних даних. Навіть під час вправ з оборони та нападу в ланцюжку поставок, зловмисник, який проникає в кілька агентів, не може отримати повноцінний бізнес-огляд.
А через обмеження техніки, безпека web3 може не мати прямого контакту з більшістю користувачів, але водночас має тонку мережу непрямих інтересів, в цьому темному лісі, якщо не забезпечити себе зброєю, то ніколи не вийти зі статусу "поросят".
uPort та NKN вже є проектами, про які мало хто чув, схоже, що проекти з безпеки дійсно не привертають уваги спекулянтів, чи зможе Mind network уникнути цього прокляття та стати лідером у сфері безпеки, залишаємося на чеку.
Майбутнє настало. Чим штучний інтелект ближче до людського, тим більше потребує нелюдської системи оборони. Вартість FHE полягає не лише в вирішенні поточних проблем, але й у підготовці до епохи сильного штучного інтелекту. На цій небезпечній дорозі до загального штучного інтелекту FHE - не вибір, а необхідність для виживання.