Нові виклики в епосі злиття AI та Web3: проблеми безпеки DeFAI викликають увагу
Нещодавно Стамбульський тиждень блокчейну (IBW 2025) зосередився на тенденціях інтеграції AI та Web3, ставши важливою платформою для обговорення безпеки Web3 цього року. Протягом двох днів заходу кілька експертів галузі провели глибоке обговорення поточного стану застосування технологій AI в сфері децентралізованих фінансів (DeFi) та викликів безпеки.
З розвитком великих мовних моделей (LLM) та AI-агентів формується нова фінансова парадигма — децентралізовані фінанси на основі штучного інтелекту (DeFAI). Проте ця інновація також викликала нові вектори атак і загрози безпеці.
Деякі керівники безпеки компанії зазначили: "Хоча DeFAI має великі перспективи, він також змушує нас переосмислити механізми довіри в децентралізованих системах. На відміну від смарт-контрактів, які базуються на фіксованій логіці, процес прийняття рішень AI-агентів підлягає впливу різних факторів, таких як контекст, час або навіть історичні взаємодії. Ця непередбачуваність не тільки посилює ризики, але й створює можливості для зловмисників."
AI代理 в основному є агентами, які здатні приймати автономні рішення та виконувати їх на основі логіки штучного інтелекту, зазвичай авторизованими користувачем, протоколом або DAO. Найтиповішим представником є AI торговий робот. На даний момент більшість AI агентів все ще працюють на архітектурі Web2, покладаючись на централізовані сервери та API, що робить їх вразливими до атак, маніпуляцій з моделями або підробки даних. Як тільки їх захоплять, це не тільки може призвести до втрати коштів, але й потенційно вплине на стабільність всього протоколу.
Експерти також обговорили типовий сценарій атаки: коли AI-торговий агент, що працює у користувача DeFi, моніторить повідомлення в соціальних мережах як торгові сигнали, зловмисники можуть публікувати фальшиві тривоги, наприклад, "якийсь протокол зазнав атаки". Це може спонукати AI-агента негайно розпочати екстрене розпродаж, що не лише призведе до втрати активів користувача, але й може викликати коливання на ринку, які зловмисники можуть використати через переднє торгівлю (Front Running).
Щодо цих ризиків, учасники конференції вважають, що безпека AI-агентів не повинна бути покладена на одну сторону, а має бути спільною відповідальністю користувачів, розробників та третіх сторін безпеки.
Користувачам слід чітко розуміти межі повноважень, наданих агенту, обережно надавати права та звертати увагу на перевірку високоризикових операцій AI-агента. Розробники повинні впроваджувати заходи безпеки на етапі проектування, такі як посилення підказок, ізоляція в пісочниці, обмеження швидкості та логіка відкату. Треті сторони безпеки повинні проводити незалежну перевірку моделі поведінки AI-агента, інфраструктури та способів інтеграції в блокчейн, а також співпрацювати з розробниками та користувачами для виявлення ризиків і пропозиції заходів з їх усунення.
Деякий експерт з безпеки попередив: "Якщо продовжувати розглядати AI-агентів як 'чорну скриньку', то аварії в реальному світі - це лише питання часу." Він запропонував розробникам, які досліджують напрямок DeFAI: "Як і у випадку зі смарт-контрактами, логіка поведінки AI-агентів також реалізується за допомогою коду. Оскільки це код, існує можливість атак, тому необхідно проводити професійний аудит безпеки та тестування на проникнення."
Варто зазначити, що цього року, з офіційним запуском програми видачі ліцензій на блокчейн-проекти Комісією з капітальних ринків Туреччини (CMB), IBW, одна з найвпливовіших блокчейн-подій Європи, ще більше зміцнила своє положення в галузі. Ця подія залучила понад 15 тисяч учасників з усього світу, включаючи розробників, ініціаторів проектів, інвесторів та регуляторів, що яскраво демонструє високий рівень уваги галузі до теми інтеграції штучного інтелекту та Web3.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
22 лайків
Нагородити
22
8
Поділіться
Прокоментувати
0/400
MetaverseVagabond
· 21год тому
Ех, хто несе відповідальність за ризики безпеки?
Переглянути оригіналвідповісти на0
ConsensusDissenter
· 07-15 18:49
Усе є ризиком безпеки, відпустіть і грайте!
Переглянути оригіналвідповісти на0
BlockchainArchaeologist
· 07-13 00:49
Дивно, що у штучного інтелекту можуть бути вразливості.
Безпека DeFAI стає фокусом: нові виклики в інтеграції штучного інтелекту та Web3
Нові виклики в епосі злиття AI та Web3: проблеми безпеки DeFAI викликають увагу
Нещодавно Стамбульський тиждень блокчейну (IBW 2025) зосередився на тенденціях інтеграції AI та Web3, ставши важливою платформою для обговорення безпеки Web3 цього року. Протягом двох днів заходу кілька експертів галузі провели глибоке обговорення поточного стану застосування технологій AI в сфері децентралізованих фінансів (DeFi) та викликів безпеки.
З розвитком великих мовних моделей (LLM) та AI-агентів формується нова фінансова парадигма — децентралізовані фінанси на основі штучного інтелекту (DeFAI). Проте ця інновація також викликала нові вектори атак і загрози безпеці.
Деякі керівники безпеки компанії зазначили: "Хоча DeFAI має великі перспективи, він також змушує нас переосмислити механізми довіри в децентралізованих системах. На відміну від смарт-контрактів, які базуються на фіксованій логіці, процес прийняття рішень AI-агентів підлягає впливу різних факторів, таких як контекст, час або навіть історичні взаємодії. Ця непередбачуваність не тільки посилює ризики, але й створює можливості для зловмисників."
AI代理 в основному є агентами, які здатні приймати автономні рішення та виконувати їх на основі логіки штучного інтелекту, зазвичай авторизованими користувачем, протоколом або DAO. Найтиповішим представником є AI торговий робот. На даний момент більшість AI агентів все ще працюють на архітектурі Web2, покладаючись на централізовані сервери та API, що робить їх вразливими до атак, маніпуляцій з моделями або підробки даних. Як тільки їх захоплять, це не тільки може призвести до втрати коштів, але й потенційно вплине на стабільність всього протоколу.
Експерти також обговорили типовий сценарій атаки: коли AI-торговий агент, що працює у користувача DeFi, моніторить повідомлення в соціальних мережах як торгові сигнали, зловмисники можуть публікувати фальшиві тривоги, наприклад, "якийсь протокол зазнав атаки". Це може спонукати AI-агента негайно розпочати екстрене розпродаж, що не лише призведе до втрати активів користувача, але й може викликати коливання на ринку, які зловмисники можуть використати через переднє торгівлю (Front Running).
Щодо цих ризиків, учасники конференції вважають, що безпека AI-агентів не повинна бути покладена на одну сторону, а має бути спільною відповідальністю користувачів, розробників та третіх сторін безпеки.
Користувачам слід чітко розуміти межі повноважень, наданих агенту, обережно надавати права та звертати увагу на перевірку високоризикових операцій AI-агента. Розробники повинні впроваджувати заходи безпеки на етапі проектування, такі як посилення підказок, ізоляція в пісочниці, обмеження швидкості та логіка відкату. Треті сторони безпеки повинні проводити незалежну перевірку моделі поведінки AI-агента, інфраструктури та способів інтеграції в блокчейн, а також співпрацювати з розробниками та користувачами для виявлення ризиків і пропозиції заходів з їх усунення.
Деякий експерт з безпеки попередив: "Якщо продовжувати розглядати AI-агентів як 'чорну скриньку', то аварії в реальному світі - це лише питання часу." Він запропонував розробникам, які досліджують напрямок DeFAI: "Як і у випадку зі смарт-контрактами, логіка поведінки AI-агентів також реалізується за допомогою коду. Оскільки це код, існує можливість атак, тому необхідно проводити професійний аудит безпеки та тестування на проникнення."
Варто зазначити, що цього року, з офіційним запуском програми видачі ліцензій на блокчейн-проекти Комісією з капітальних ринків Туреччини (CMB), IBW, одна з найвпливовіших блокчейн-подій Європи, ще більше зміцнила своє положення в галузі. Ця подія залучила понад 15 тисяч учасників з усього світу, включаючи розробників, ініціаторів проектів, інвесторів та регуляторів, що яскраво демонструє високий рівень уваги галузі до теми інтеграції штучного інтелекту та Web3.