L'émergence de DeFAI : La fusion de l'IA et du Web3 apporte de nouveaux défis en matière de sécurité

robot
Création du résumé en cours

Fusion de l'IA et du Web3 : les défis de sécurité posés par l'émergence de DeFAI

Récemment, lors de l'événement Blockchain Week qui s'est tenu à Istanbul, la fusion de l'IA et du Web3 est devenue un sujet brûlant. Plusieurs experts provenant d'entreprises de sécurité et de projets blockchain ont engagé des discussions approfondies sur l'état actuel de l'application de la technologie IA dans le domaine de la finance décentralisée (DeFi) et les défis de sécurité qu'elle entraîne.

Avec le développement rapide des grands modèles de langage et des agents d'IA, un nouveau modèle financier appelé "DeFAI" (financement décentralisé de l'intelligence artificielle) est en train de se former progressivement. Cependant, cette innovation a également entraîné de nouveaux dangers de sécurité et des risques potentiels.

IBW 2025 : Fusion de l'IA et du Web3, nouveaux défis de sécurité sous la montée de DeFAI

Les experts soulignent qu'à la différence des contrats intelligents traditionnels basés sur une logique fixe, le processus de décision des agents IA est influencé par de nombreux facteurs, tels que le contexte, le temps et même les interactions historiques. Cette imprévisibilité augmente non seulement le risque pour le système, mais offre également des opportunités aux attaquants potentiels.

Les agents IA sont essentiellement des entités intelligentes capables de prendre des décisions et d'exécuter des actions de manière autonome sur la base de la logique IA, généralement autorisés à fonctionner par des utilisateurs, des protocoles ou des organisations autonomes décentralisées (DAO). Actuellement, les robots de trading IA sont les représentants les plus typiques. La plupart des agents IA fonctionnent encore sur une architecture Web2, dépendant de serveurs et d'API centralisés, ce qui les rend vulnérables à divers types d'attaques, telles que les attaques par injection, la manipulation des modèles ou la falsification des données. Une fois piratés par des attaquants, cela peut non seulement entraîner des pertes financières, mais aussi affecter la stabilité de l'ensemble du protocole.

Les experts ont également discuté d'un scénario typique d'attaque : lorsque l'agent de trading AI d'un utilisateur DeFi surveille les messages sur les réseaux sociaux comme signaux de trading, un attaquant pourrait publier de fausses alertes, par exemple en prétendant qu'un certain protocole est sous attaque. Cela pourrait inciter l'agent AI à déclencher immédiatement une opération de liquidation d'urgence, entraînant non seulement des pertes d'actifs pour l'utilisateur, mais aussi provoquant des fluctuations du marché, que l'attaquant pourrait exploiter par des moyens tels que le trading anticipé.

Concernant ces risques, les experts présents s'accordent à dire que la sécurité des agents IA ne doit pas être assurée par un seul acteur, mais nécessite une collaboration entre les utilisateurs, les développeurs et les agences de sécurité tierces.

Pour les utilisateurs, il est important de bien comprendre l'étendue des autorisations détenues par l'agent, de faire preuve de prudence lors de l'octroi de ces autorisations et de surveiller de près les opérations à haut risque de l'agent AI. Les développeurs doivent mettre en œuvre des mesures de défense dès la phase de conception, telles que le renforcement des invites, l'isolement en bac à sable, la limitation de la fréquence et la logique de retour. Les entreprises de sécurité tierces doivent fournir un examen indépendant du comportement des modèles d'agent AI, de l'infrastructure et des méthodes d'intégration sur la chaîne, et travailler avec les développeurs et les utilisateurs pour identifier les risques et proposer des mesures d'atténuation.

Les experts avertissent que si l'on continue à considérer les agents d'IA comme une "boîte noire", il ne s'agit que d'une question de temps avant qu'un accident de sécurité ne se produise dans le monde réel. Pour les développeurs qui explorent la direction de DeFAI, il est conseillé de reconnaître que la logique de comportement des agents d'IA est également mise en œuvre par du code, et qu'il existe donc une possibilité d'attaque, nécessitant un audit de sécurité professionnel et des tests d'intrusion.

Avec le développement et l'application continus de la technologie blockchain, les problèmes de sécurité connexes attirent également de plus en plus l'attention. Cet événement de la semaine de la blockchain a attiré de nombreux développeurs, porteurs de projets, investisseurs et régulateurs du monde entier pour discuter ensemble des orientations futures de l'industrie et des stratégies de réponse.

IBW 2025 : Fusion de l'IA et du Web3, nouveaux défis de sécurité sous l'essor de DeFAI

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 3
  • Partager
Commentaire
0/400
ser_we_are_ngmivip
· Il y a 14h
ngmi... même les IA s'en mêlent dans le defi
Voir l'originalRépondre0
SmartContractPhobiavip
· 08-01 20:06
Une nouvelle méthode d'attaque me rend encore anxieux.
Voir l'originalRépondre0
P2ENotWorkingvip
· 08-01 19:54
Petites nouvelles 30 000 nœuds ont disparu
Voir l'originalRépondre0
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)