A fusão de IA e Web3: os desafios de segurança trazidos pela ascensão do DeFAI
Recentemente, durante o evento Blockchain Week realizado em Istambul, a fusão entre AI e Web3 tornou-se um tópico popular. Vários especialistas de empresas de segurança e projetos de blockchain discutiram em profundidade o estado atual da aplicação da tecnologia AI no campo das finanças descentralizadas (DeFi) e os desafios de segurança que ela traz.
Com o rápido desenvolvimento dos grandes modelos de linguagem e dos agentes de IA, um novo modelo financeiro conhecido como "DeFAI" (finanças de inteligência artificial descentralizada) está gradualmente se formando. No entanto, essa inovação também trouxe novas vulnerabilidades de segurança e riscos potenciais.
Os especialistas apontam que, ao contrário dos contratos inteligentes baseados em lógica fixa, o processo de decisão dos agentes de IA é influenciado por diversos fatores, como contexto, tempo e até interações históricas. Essa imprevisibilidade não só aumenta o risco do sistema, mas também oferece oportunidades para possíveis atacantes.
Os agentes de IA são essencialmente entidades inteligentes capazes de tomar decisões e executar ações de forma autônoma com base na lógica de IA, geralmente autorizados a operar por usuários, protocolos ou organizações autônomas descentralizadas (DAO). Atualmente, os robôs de negociação de IA são os representantes mais típicos. A maioria dos agentes de IA ainda opera com base na arquitetura Web2, dependendo de servidores e APIs centralizados, o que os torna vulneráveis a vários tipos de ataques, como injeção, manipulação de modelos ou adulteração de dados. Uma vez sequestrados por atacantes, isso não apenas pode resultar em perdas financeiras, mas também pode afetar a estabilidade de todo o protocolo.
Os especialistas também discutiram um cenário típico de ataque: quando o agente de negociação de IA que um utilizador de DeFi está a executar está a monitorizar mensagens nas redes sociais como sinais de negociação, um atacante pode publicar alarmes falsos, como afirmar que um determinado protocolo foi atacado. Isso pode levar o agente de IA a iniciar imediatamente uma operação de liquidação de emergência, o que não só resulta na perda de ativos do utilizador, mas também pode provocar flutuações no mercado, que podem ser exploradas pelo atacante através de métodos como a negociação antecipada.
Em relação a esses riscos, os especialistas presentes concordaram que a segurança dos agentes de IA não deve ser responsabilidade de um único lado, mas sim um esforço conjunto de usuários, desenvolvedores e instituições de segurança de terceiros.
Para os usuários, é necessário entender claramente o escopo de permissões que o agente possui, conceder permissões com cautela e monitorar de perto as operações de alto risco do agente de IA. Os desenvolvedores devem implementar medidas de defesa já na fase de design, como endurecimento de prompts, isolamento em sandbox, limitação de taxa e lógica de retrocesso. As empresas de segurança de terceiros devem fornecer uma revisão independente do comportamento do modelo do agente de IA, da infraestrutura e da forma como é integrada na blockchain, colaborando com desenvolvedores e usuários para identificar riscos e propor medidas de mitigação.
Especialistas alertam que, se continuarem a ver os agentes de IA como uma "caixa-preta", será apenas uma questão de tempo até que ocorram acidentes de segurança no mundo real. Para os desenvolvedores que estão a explorar a direção do DeFAI, recomenda-se que reconheçam que a lógica de comportamento dos agentes de IA também é implementada por código, e, portanto, existe a possibilidade de serem atacados, necessitando de auditorias de segurança e testes de penetração profissionais.
Com o contínuo desenvolvimento e aplicação da tecnologia blockchain, as questões de segurança relacionadas também têm recebido cada vez mais atenção. Este evento da semana do blockchain atraiu a participação de inúmeros desenvolvedores, projetos, investidores e reguladores de todo o mundo, que se reuniram para discutir a direção futura do setor e as estratégias de resposta.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
DeFAI em ascensão: A fusão da IA e do Web3 traz novos desafios de segurança
A fusão de IA e Web3: os desafios de segurança trazidos pela ascensão do DeFAI
Recentemente, durante o evento Blockchain Week realizado em Istambul, a fusão entre AI e Web3 tornou-se um tópico popular. Vários especialistas de empresas de segurança e projetos de blockchain discutiram em profundidade o estado atual da aplicação da tecnologia AI no campo das finanças descentralizadas (DeFi) e os desafios de segurança que ela traz.
Com o rápido desenvolvimento dos grandes modelos de linguagem e dos agentes de IA, um novo modelo financeiro conhecido como "DeFAI" (finanças de inteligência artificial descentralizada) está gradualmente se formando. No entanto, essa inovação também trouxe novas vulnerabilidades de segurança e riscos potenciais.
Os especialistas apontam que, ao contrário dos contratos inteligentes baseados em lógica fixa, o processo de decisão dos agentes de IA é influenciado por diversos fatores, como contexto, tempo e até interações históricas. Essa imprevisibilidade não só aumenta o risco do sistema, mas também oferece oportunidades para possíveis atacantes.
Os agentes de IA são essencialmente entidades inteligentes capazes de tomar decisões e executar ações de forma autônoma com base na lógica de IA, geralmente autorizados a operar por usuários, protocolos ou organizações autônomas descentralizadas (DAO). Atualmente, os robôs de negociação de IA são os representantes mais típicos. A maioria dos agentes de IA ainda opera com base na arquitetura Web2, dependendo de servidores e APIs centralizados, o que os torna vulneráveis a vários tipos de ataques, como injeção, manipulação de modelos ou adulteração de dados. Uma vez sequestrados por atacantes, isso não apenas pode resultar em perdas financeiras, mas também pode afetar a estabilidade de todo o protocolo.
Os especialistas também discutiram um cenário típico de ataque: quando o agente de negociação de IA que um utilizador de DeFi está a executar está a monitorizar mensagens nas redes sociais como sinais de negociação, um atacante pode publicar alarmes falsos, como afirmar que um determinado protocolo foi atacado. Isso pode levar o agente de IA a iniciar imediatamente uma operação de liquidação de emergência, o que não só resulta na perda de ativos do utilizador, mas também pode provocar flutuações no mercado, que podem ser exploradas pelo atacante através de métodos como a negociação antecipada.
Em relação a esses riscos, os especialistas presentes concordaram que a segurança dos agentes de IA não deve ser responsabilidade de um único lado, mas sim um esforço conjunto de usuários, desenvolvedores e instituições de segurança de terceiros.
Para os usuários, é necessário entender claramente o escopo de permissões que o agente possui, conceder permissões com cautela e monitorar de perto as operações de alto risco do agente de IA. Os desenvolvedores devem implementar medidas de defesa já na fase de design, como endurecimento de prompts, isolamento em sandbox, limitação de taxa e lógica de retrocesso. As empresas de segurança de terceiros devem fornecer uma revisão independente do comportamento do modelo do agente de IA, da infraestrutura e da forma como é integrada na blockchain, colaborando com desenvolvedores e usuários para identificar riscos e propor medidas de mitigação.
Especialistas alertam que, se continuarem a ver os agentes de IA como uma "caixa-preta", será apenas uma questão de tempo até que ocorram acidentes de segurança no mundo real. Para os desenvolvedores que estão a explorar a direção do DeFAI, recomenda-se que reconheçam que a lógica de comportamento dos agentes de IA também é implementada por código, e, portanto, existe a possibilidade de serem atacados, necessitando de auditorias de segurança e testes de penetração profissionais.
Com o contínuo desenvolvimento e aplicação da tecnologia blockchain, as questões de segurança relacionadas também têm recebido cada vez mais atenção. Este evento da semana do blockchain atraiu a participação de inúmeros desenvolvedores, projetos, investidores e reguladores de todo o mundo, que se reuniram para discutir a direção futura do setor e as estratégias de resposta.