La fusión de la IA y Web3: Desafíos de seguridad derivados del surgimiento de DeFAI
Recientemente, en el evento de la Semana de Blockchain celebrado en Estambul, la fusión de la IA y Web3 se convirtió en un tema candente. Varios expertos de empresas de seguridad y proyectos de blockchain llevaron a cabo una profunda discusión sobre el estado actual de la aplicación de la tecnología de IA en el campo de las finanzas descentralizadas (DeFi) y los desafíos de seguridad que conlleva.
Con el rápido desarrollo de los modelos de lenguaje a gran escala y los agentes de IA, está surgiendo un nuevo modelo financiero conocido como "DeFAI" (finanzas de inteligencia artificial descentralizada). Sin embargo, esta innovación también ha traído nuevos riesgos de seguridad y potenciales peligros.
Los expertos señalan que, a diferencia de los contratos inteligentes tradicionales basados en lógica fija, el proceso de toma de decisiones de los agentes de IA se ve influenciado por diversos factores, como el contexto, el tiempo e incluso las interacciones históricas. Esta imprevisibilidad no solo aumenta el riesgo del sistema, sino que también ofrece oportunidades para posibles atacantes.
Los agentes de IA son esencialmente entidades inteligentes que pueden tomar decisiones y ejecutar acciones de forma autónoma basadas en la lógica de IA, generalmente autorizados para operar por usuarios, protocolos u organizaciones autónomas descentralizadas (DAO). Actualmente, los robots de trading de IA son uno de los ejemplos más típicos. La mayoría de los agentes de IA aún funcionan en una arquitectura Web2, dependiendo de servidores centralizados y API, lo que los hace vulnerables a varios ataques, como inyecciones, manipulación de modelos o alteración de datos. Una vez que son secuestrados por un atacante, no solo puede resultar en la pérdida de fondos, sino que también puede afectar la estabilidad de todo el protocolo.
Los expertos también discutieron un escenario típico de ataque: cuando un agente de comercio de IA que opera un usuario de DeFi está monitoreando mensajes en redes sociales como señales de comercio, un atacante podría publicar alarmas falsas, como afirmar que un protocolo está bajo ataque. Esto podría inducir al agente de IA a iniciar inmediatamente operaciones de liquidación de emergencia, lo que no solo resultaría en pérdidas de activos para el usuario, sino que también podría provocar fluctuaciones en el mercado, que el atacante podría aprovechar a través de técnicas como el front-running.
En respuesta a estos riesgos, los expertos presentes coincidieron en que la seguridad de los agentes de IA no debe ser responsabilidad de una sola parte, sino que requiere el esfuerzo conjunto de usuarios, desarrolladores y agencias de seguridad de terceros.
Para los usuarios, es importante comprender claramente el alcance de los permisos que posee el agente, otorgar permisos con precaución y prestar atención a las operaciones de alto riesgo del agente de IA. Los desarrolladores, por su parte, deben implementar medidas de defensa desde la fase de diseño, como el refuerzo de las palabras clave, el aislamiento en sandbox, la limitación de velocidad y la lógica de retroceso. Las empresas de seguridad de terceros deben proporcionar una revisión independiente del comportamiento del modelo del agente de IA, de la infraestructura y de la forma en que se integra en la cadena, y trabajar junto con los desarrolladores y usuarios para identificar riesgos y proponer medidas de mitigación.
Los expertos advierten que si se sigue considerando a los agentes de IA como una "caja negra", los accidentes de seguridad en el mundo real son solo una cuestión de tiempo. Para los desarrolladores que están explorando la dirección de DeFAI, se les recomienda que reconozcan que la lógica de comportamiento de los agentes de IA también está implementada por código, por lo que también existe la posibilidad de ser atacados, y se necesita realizar auditorías de seguridad y pruebas de penetración profesionales.
Con el continuo desarrollo y aplicación de la tecnología blockchain, los problemas de seguridad relacionados también han recibido cada vez más atención. Este evento de la semana de blockchain ha atraído a numerosos desarrolladores, representantes de proyectos, inversores y reguladores de todo el mundo para discutir conjuntamente la dirección futura de la industria y las estrategias de respuesta.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
El surgimiento de DeFAI: La fusión de AI y Web3 trae nuevos desafíos de seguridad
La fusión de la IA y Web3: Desafíos de seguridad derivados del surgimiento de DeFAI
Recientemente, en el evento de la Semana de Blockchain celebrado en Estambul, la fusión de la IA y Web3 se convirtió en un tema candente. Varios expertos de empresas de seguridad y proyectos de blockchain llevaron a cabo una profunda discusión sobre el estado actual de la aplicación de la tecnología de IA en el campo de las finanzas descentralizadas (DeFi) y los desafíos de seguridad que conlleva.
Con el rápido desarrollo de los modelos de lenguaje a gran escala y los agentes de IA, está surgiendo un nuevo modelo financiero conocido como "DeFAI" (finanzas de inteligencia artificial descentralizada). Sin embargo, esta innovación también ha traído nuevos riesgos de seguridad y potenciales peligros.
Los expertos señalan que, a diferencia de los contratos inteligentes tradicionales basados en lógica fija, el proceso de toma de decisiones de los agentes de IA se ve influenciado por diversos factores, como el contexto, el tiempo e incluso las interacciones históricas. Esta imprevisibilidad no solo aumenta el riesgo del sistema, sino que también ofrece oportunidades para posibles atacantes.
Los agentes de IA son esencialmente entidades inteligentes que pueden tomar decisiones y ejecutar acciones de forma autónoma basadas en la lógica de IA, generalmente autorizados para operar por usuarios, protocolos u organizaciones autónomas descentralizadas (DAO). Actualmente, los robots de trading de IA son uno de los ejemplos más típicos. La mayoría de los agentes de IA aún funcionan en una arquitectura Web2, dependiendo de servidores centralizados y API, lo que los hace vulnerables a varios ataques, como inyecciones, manipulación de modelos o alteración de datos. Una vez que son secuestrados por un atacante, no solo puede resultar en la pérdida de fondos, sino que también puede afectar la estabilidad de todo el protocolo.
Los expertos también discutieron un escenario típico de ataque: cuando un agente de comercio de IA que opera un usuario de DeFi está monitoreando mensajes en redes sociales como señales de comercio, un atacante podría publicar alarmas falsas, como afirmar que un protocolo está bajo ataque. Esto podría inducir al agente de IA a iniciar inmediatamente operaciones de liquidación de emergencia, lo que no solo resultaría en pérdidas de activos para el usuario, sino que también podría provocar fluctuaciones en el mercado, que el atacante podría aprovechar a través de técnicas como el front-running.
En respuesta a estos riesgos, los expertos presentes coincidieron en que la seguridad de los agentes de IA no debe ser responsabilidad de una sola parte, sino que requiere el esfuerzo conjunto de usuarios, desarrolladores y agencias de seguridad de terceros.
Para los usuarios, es importante comprender claramente el alcance de los permisos que posee el agente, otorgar permisos con precaución y prestar atención a las operaciones de alto riesgo del agente de IA. Los desarrolladores, por su parte, deben implementar medidas de defensa desde la fase de diseño, como el refuerzo de las palabras clave, el aislamiento en sandbox, la limitación de velocidad y la lógica de retroceso. Las empresas de seguridad de terceros deben proporcionar una revisión independiente del comportamiento del modelo del agente de IA, de la infraestructura y de la forma en que se integra en la cadena, y trabajar junto con los desarrolladores y usuarios para identificar riesgos y proponer medidas de mitigación.
Los expertos advierten que si se sigue considerando a los agentes de IA como una "caja negra", los accidentes de seguridad en el mundo real son solo una cuestión de tiempo. Para los desarrolladores que están explorando la dirección de DeFAI, se les recomienda que reconozcan que la lógica de comportamiento de los agentes de IA también está implementada por código, por lo que también existe la posibilidad de ser atacados, y se necesita realizar auditorías de seguridad y pruebas de penetración profesionales.
Con el continuo desarrollo y aplicación de la tecnología blockchain, los problemas de seguridad relacionados también han recibido cada vez más atención. Este evento de la semana de blockchain ha atraído a numerosos desarrolladores, representantes de proyectos, inversores y reguladores de todo el mundo para discutir conjuntamente la dirección futura de la industria y las estrategias de respuesta.