Злиття AI та Web3: Виклики безпеки, що виникають з появою DeFAI
Нещодавно на заході Blockchain Week, що проходив в Стамбулі, інтеграція AI та Web3 стала гарячою темою. Експерти з безпекових компаній та блокчейн-проектів провели детальну дискусію про стан застосування технології AI в сфері децентралізованих фінансів (DeFi) та безпекові виклики, які вона приносить.
З розвитком великих мовних моделей та AI-агентів поступово формується нова фінансова модель, відома як "DeFAI" (децентралізовані фінансові штучні інтелекти). Однак ця інновація також призводить до нових загроз безпеці та потенційних ризиків.
Експерти зазначають, що на відміну від традиційних смарт-контрактів, які базуються на фіксованій логіці, процес прийняття рішень AI-агентів підлягає впливу багатьох факторів, таких як контекст, час і навіть історичні взаємодії. Ця непередбачуваність не тільки збільшує ризики системи, але й надає потенційним зловмисникам можливість для атаки.
AI-агенти по суті є інтелектуальними системами, які здатні приймати автономні рішення та виконувати їх на основі логіки ШІ, зазвичай уповноважені користувачем, протоколом або децентралізованою автономною організацією (DAO). Наразі AI-торгові роботи є найтиповішими представниками серед них. Більшість AI-агентів все ще працюють на архітектурі Web2, покладаючись на централізовані сервери та API, що робить їх уразливими до різноманітних атак, таких як атаки ін'єкцій, маніпуляція моделлю або підробка даних. Як тільки зловмисник захопить їх, це може призвести не лише до втрати коштів, але й вплинути на стабільність всього протоколу.
Експерти також обговорили типовий сценарій атаки: коли AI-трейдер, який працює для користувачів DeFi, моніторить повідомлення в соціальних мережах як торгові сигнали, зловмисники можуть опублікувати фальшиві тривоги, наприклад, стверджуючи, що певний протокол зазнає атаки. Це може спонукати AI-агента негайно розпочати екстрену ліквідацію, що не лише призведе до втрат активів користувача, але й може викликати коливання ринку, які зловмисники можуть використати через арбітражні угоди та інші засоби.
Щодо цих ризиків, учасники конференції одностайно вважають, що безпека AI-агентів не повинна покладатися на одну сторону, а має бути результатом спільних зусиль користувачів, розробників та третіх сторін безпеки.
Для користувачів важливо чітко розуміти, які повноваження має агент, обережно надавати дозволи та уважно стежити за високоризиковими операціями AI-агента. Розробники повинні впроваджувати заходи безпеки на етапі проектування, такі як зміцнення підказок, ізоляція в пісочниці, обмеження швидкості та логіка відкату. Треті сторони безпеки повинні надавати незалежний аудит поведінки моделі AI-агента, інфраструктури та способів інтеграції в блокчейн, а також співпрацювати з розробниками та користувачами для виявлення ризиків та пропонування заходів з їх пом'якшення.
Експерти застерігають, що якщо продовжувати розглядати AI-агентів як "чорну скриньку", то це лише питання часу, коли у реальному світі станеться аварія. Розробникам, які досліджують напрямок DeFAI, рекомендується усвідомити, що логіка поведінки AI-агентів також реалізується за допомогою коду, тому існує можливість атаки, і необхідно провести професійний аудит безпеки та тестування на проникнення.
З розвитком та впровадженням технології блокчейн питання безпеки стають все більш актуальними. Цей тиждень блокчейну залучив безліч розробників, проектних команд, інвесторів та регуляторів з усього світу, які спільно обговорюють майбутній розвиток галузі та стратегії реагування.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
13 лайків
Нагородити
13
3
Поділіться
Прокоментувати
0/400
ser_we_are_ngmi
· 14год тому
ngmi... ai вже втручається в defi
Переглянути оригіналвідповісти на0
SmartContractPhobia
· 08-01 20:06
Знову з'явився новий спосіб атаки, який мене тривожить.
Поява DeFAI: нові виклики безпеки, що виникають внаслідок злиття AI та Web3
Злиття AI та Web3: Виклики безпеки, що виникають з появою DeFAI
Нещодавно на заході Blockchain Week, що проходив в Стамбулі, інтеграція AI та Web3 стала гарячою темою. Експерти з безпекових компаній та блокчейн-проектів провели детальну дискусію про стан застосування технології AI в сфері децентралізованих фінансів (DeFi) та безпекові виклики, які вона приносить.
З розвитком великих мовних моделей та AI-агентів поступово формується нова фінансова модель, відома як "DeFAI" (децентралізовані фінансові штучні інтелекти). Однак ця інновація також призводить до нових загроз безпеці та потенційних ризиків.
Експерти зазначають, що на відміну від традиційних смарт-контрактів, які базуються на фіксованій логіці, процес прийняття рішень AI-агентів підлягає впливу багатьох факторів, таких як контекст, час і навіть історичні взаємодії. Ця непередбачуваність не тільки збільшує ризики системи, але й надає потенційним зловмисникам можливість для атаки.
AI-агенти по суті є інтелектуальними системами, які здатні приймати автономні рішення та виконувати їх на основі логіки ШІ, зазвичай уповноважені користувачем, протоколом або децентралізованою автономною організацією (DAO). Наразі AI-торгові роботи є найтиповішими представниками серед них. Більшість AI-агентів все ще працюють на архітектурі Web2, покладаючись на централізовані сервери та API, що робить їх уразливими до різноманітних атак, таких як атаки ін'єкцій, маніпуляція моделлю або підробка даних. Як тільки зловмисник захопить їх, це може призвести не лише до втрати коштів, але й вплинути на стабільність всього протоколу.
Експерти також обговорили типовий сценарій атаки: коли AI-трейдер, який працює для користувачів DeFi, моніторить повідомлення в соціальних мережах як торгові сигнали, зловмисники можуть опублікувати фальшиві тривоги, наприклад, стверджуючи, що певний протокол зазнає атаки. Це може спонукати AI-агента негайно розпочати екстрену ліквідацію, що не лише призведе до втрат активів користувача, але й може викликати коливання ринку, які зловмисники можуть використати через арбітражні угоди та інші засоби.
Щодо цих ризиків, учасники конференції одностайно вважають, що безпека AI-агентів не повинна покладатися на одну сторону, а має бути результатом спільних зусиль користувачів, розробників та третіх сторін безпеки.
Для користувачів важливо чітко розуміти, які повноваження має агент, обережно надавати дозволи та уважно стежити за високоризиковими операціями AI-агента. Розробники повинні впроваджувати заходи безпеки на етапі проектування, такі як зміцнення підказок, ізоляція в пісочниці, обмеження швидкості та логіка відкату. Треті сторони безпеки повинні надавати незалежний аудит поведінки моделі AI-агента, інфраструктури та способів інтеграції в блокчейн, а також співпрацювати з розробниками та користувачами для виявлення ризиків та пропонування заходів з їх пом'якшення.
Експерти застерігають, що якщо продовжувати розглядати AI-агентів як "чорну скриньку", то це лише питання часу, коли у реальному світі станеться аварія. Розробникам, які досліджують напрямок DeFAI, рекомендується усвідомити, що логіка поведінки AI-агентів також реалізується за допомогою коду, тому існує можливість атаки, і необхідно провести професійний аудит безпеки та тестування на проникнення.
З розвитком та впровадженням технології блокчейн питання безпеки стають все більш актуальними. Цей тиждень блокчейну залучив безліч розробників, проектних команд, інвесторів та регуляторів з усього світу, які спільно обговорюють майбутній розвиток галузі та стратегії реагування.