La percée du modèle Manus suscite une réflexion sur les voies de développement de l'IA. Les technologies de sécurité Web3 pourraient devenir essentielles.
La percée des performances du modèle Manus suscite une réflexion sur les voies de développement de l'IA
Récemment, le modèle Manus a réalisé des performances révolutionnaires dans le benchmark GAIA, surpassant les modèles de langage de grande taille de même catégorie. Cela signifie que Manus peut accomplir de manière autonome des tâches complexes telles que des négociations commerciales internationales, impliquant l'analyse des clauses contractuelles, l'élaboration de stratégies et la génération de propositions, et peut même coordonner les équipes juridiques et financières.
Les avantages de Manus se manifestent principalement dans trois domaines : la capacité de décomposition dynamique des objectifs, la capacité de raisonnement multimodal et la capacité d'apprentissage renforcé par la mémoire. Il peut décomposer des tâches complexes en centaines de sous-tâches exécutables, tout en traitant différents types de données, et en améliorant continuellement l'efficacité décisionnelle et en réduisant le taux d'erreur grâce à l'apprentissage par renforcement.
Cette avancée révolutionnaire a de nouveau suscité des discussions dans le domaine de l'intelligence artificielle sur les voies de développement futures : faut-il s'orienter vers le développement de l'intelligence artificielle générale (AGI) ou privilégier un système multi-agents (MAS) en collaboration ?
La philosophie de conception de Manus suggère deux possibilités : la première est le chemin de l'AGI, qui consiste à améliorer continuellement le niveau d'intelligence individuelle pour le rapprocher des capacités de décision globale des humains ; la seconde est le chemin du MAS, qui agit en tant que super coordinateur pour diriger des milliers d'agents intelligents spécialisés à travailler en collaboration.
En surface, il s'agit d'un débat sur les voies technologiques, mais en réalité, cela reflète une contradiction profonde sur la manière de trouver un équilibre entre efficacité et sécurité dans le développement de l'IA. Plus l'intelligence individuelle se rapproche de l'AGI, plus le risque d'opacité dans son processus de décision est élevé ; tandis que la collaboration entre plusieurs intelligences peut réduire les risques, elle peut également entraîner des occasions manquées de décisions clés en raison des délais de communication.
Les progrès de Manus amplifient également les risques inhérents au développement de l'IA, tels que la confidentialité des données, les biais algorithmiques et les attaques adversariales. Par exemple, dans le cadre médical, Manus doit accéder aux données sensibles des patients ; lors des négociations financières, des informations financières d'entreprise non divulguées peuvent être impliquées. Dans le processus de recrutement, il peut y avoir des discriminations salariales à l'égard de certains groupes ; lors de l'examen de contrats juridiques, le jugement sur les clauses des secteurs émergents peut présenter un taux d'erreur élevé. De plus, des hackers peuvent perturber le jugement de Manus lors des négociations en implantant des fréquences vocales spécifiques.
Ces défis soulignent un fait inquiétant : plus les systèmes d'IA sont intelligents, plus leur surface d'attaque potentielle est étendue.
Dans le domaine du Web3, la sécurité a toujours été un point central. Dans le cadre du "triangle impossible" proposé par le fondateur d'Ethereum, Vitalik Buterin (les réseaux blockchain ne peuvent pas réaliser simultanément la sécurité, la décentralisation et l'évolutivité), plusieurs technologies cryptographiques en ont découlé :
Modèle de sécurité Zero Trust : basé sur le principe "ne faire confiance à personne, toujours vérifier", qui impose une authentification et une autorisation strictes pour chaque demande d'accès.
Identité décentralisée (DID) : une nouvelle norme d'identité numérique décentralisée permettant la vérification d'identité sans autorité d'enregistrement centrale.
Cryptographie entièrement homomorphe (FHE) : permet de calculer des données en état chiffré, protégeant la vie privée des données tout en réalisant la valeur des données.
Parmi ces technologies, la FHE est considérée comme un outil important pour résoudre les problèmes de sécurité à l'ère de l'IA. Elle peut fournir une protection à plusieurs niveaux :
Niveau des données : Toutes les informations saisies par l'utilisateur (y compris les caractéristiques biométriques, la voix, etc.) sont traitées en état de cryptage, même le système d'IA lui-même ne peut pas déchiffrer les données originales.
Niveau algorithmique : mettre en œuvre "l'entraînement de modèles cryptés" via FHE, garantissant que le processus de décision de l'IA ne soit pas espionné par des tiers.
Niveau de collaboration : La communication entre plusieurs agents utilise le chiffrement par seuil, le compromis d'un seul nœud ne conduira pas à une fuite de données au niveau global.
Bien que la technologie de sécurité Web3 n'ait peut-être pas de lien direct avec les utilisateurs ordinaires, elle a un impact profond sur les intérêts des utilisateurs. Dans cet environnement plein de défis, il est essentiel d'améliorer constamment les mesures de sécurité.
Certains projets ont déjà fait des progrès dans ces domaines. Par exemple, uPort a lancé une solution d'identité décentralisée en 2017, et NKN a publié un mainnet basé sur un modèle de confiance zéro en 2019. Dans le domaine de FHE, Mind Network est devenu le premier projet à lancer un mainnet et a collaboré avec plusieurs organismes renommés.
Avec les technologies de l'IA se rapprochant de plus en plus du niveau d'intelligence humaine, les systèmes de défense non traditionnels deviennent de plus en plus importants. Des technologies comme FHE ne résolvent pas seulement les problèmes actuels, mais posent également les bases pour l'ère de l'IA forte à venir. Sur le chemin vers l'AGI, ces technologies de sécurité sont devenues des éléments essentiels.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
6 J'aime
Récompense
6
3
Partager
Commentaire
0/400
CascadingDipBuyer
· 07-20 21:01
C'est tous des pigeons.
Voir l'originalRépondre0
MetadataExplorer
· 07-20 20:59
Hmm ? Les multi-agents ne sont pas très fiables.
Voir l'originalRépondre0
consensus_whisperer
· 07-20 20:36
L'IA est en marche, qui se soucie encore des risques ?
La percée du modèle Manus suscite une réflexion sur les voies de développement de l'IA. Les technologies de sécurité Web3 pourraient devenir essentielles.
La percée des performances du modèle Manus suscite une réflexion sur les voies de développement de l'IA
Récemment, le modèle Manus a réalisé des performances révolutionnaires dans le benchmark GAIA, surpassant les modèles de langage de grande taille de même catégorie. Cela signifie que Manus peut accomplir de manière autonome des tâches complexes telles que des négociations commerciales internationales, impliquant l'analyse des clauses contractuelles, l'élaboration de stratégies et la génération de propositions, et peut même coordonner les équipes juridiques et financières.
Les avantages de Manus se manifestent principalement dans trois domaines : la capacité de décomposition dynamique des objectifs, la capacité de raisonnement multimodal et la capacité d'apprentissage renforcé par la mémoire. Il peut décomposer des tâches complexes en centaines de sous-tâches exécutables, tout en traitant différents types de données, et en améliorant continuellement l'efficacité décisionnelle et en réduisant le taux d'erreur grâce à l'apprentissage par renforcement.
Cette avancée révolutionnaire a de nouveau suscité des discussions dans le domaine de l'intelligence artificielle sur les voies de développement futures : faut-il s'orienter vers le développement de l'intelligence artificielle générale (AGI) ou privilégier un système multi-agents (MAS) en collaboration ?
La philosophie de conception de Manus suggère deux possibilités : la première est le chemin de l'AGI, qui consiste à améliorer continuellement le niveau d'intelligence individuelle pour le rapprocher des capacités de décision globale des humains ; la seconde est le chemin du MAS, qui agit en tant que super coordinateur pour diriger des milliers d'agents intelligents spécialisés à travailler en collaboration.
En surface, il s'agit d'un débat sur les voies technologiques, mais en réalité, cela reflète une contradiction profonde sur la manière de trouver un équilibre entre efficacité et sécurité dans le développement de l'IA. Plus l'intelligence individuelle se rapproche de l'AGI, plus le risque d'opacité dans son processus de décision est élevé ; tandis que la collaboration entre plusieurs intelligences peut réduire les risques, elle peut également entraîner des occasions manquées de décisions clés en raison des délais de communication.
Les progrès de Manus amplifient également les risques inhérents au développement de l'IA, tels que la confidentialité des données, les biais algorithmiques et les attaques adversariales. Par exemple, dans le cadre médical, Manus doit accéder aux données sensibles des patients ; lors des négociations financières, des informations financières d'entreprise non divulguées peuvent être impliquées. Dans le processus de recrutement, il peut y avoir des discriminations salariales à l'égard de certains groupes ; lors de l'examen de contrats juridiques, le jugement sur les clauses des secteurs émergents peut présenter un taux d'erreur élevé. De plus, des hackers peuvent perturber le jugement de Manus lors des négociations en implantant des fréquences vocales spécifiques.
Ces défis soulignent un fait inquiétant : plus les systèmes d'IA sont intelligents, plus leur surface d'attaque potentielle est étendue.
Dans le domaine du Web3, la sécurité a toujours été un point central. Dans le cadre du "triangle impossible" proposé par le fondateur d'Ethereum, Vitalik Buterin (les réseaux blockchain ne peuvent pas réaliser simultanément la sécurité, la décentralisation et l'évolutivité), plusieurs technologies cryptographiques en ont découlé :
Modèle de sécurité Zero Trust : basé sur le principe "ne faire confiance à personne, toujours vérifier", qui impose une authentification et une autorisation strictes pour chaque demande d'accès.
Identité décentralisée (DID) : une nouvelle norme d'identité numérique décentralisée permettant la vérification d'identité sans autorité d'enregistrement centrale.
Cryptographie entièrement homomorphe (FHE) : permet de calculer des données en état chiffré, protégeant la vie privée des données tout en réalisant la valeur des données.
Parmi ces technologies, la FHE est considérée comme un outil important pour résoudre les problèmes de sécurité à l'ère de l'IA. Elle peut fournir une protection à plusieurs niveaux :
Niveau des données : Toutes les informations saisies par l'utilisateur (y compris les caractéristiques biométriques, la voix, etc.) sont traitées en état de cryptage, même le système d'IA lui-même ne peut pas déchiffrer les données originales.
Niveau algorithmique : mettre en œuvre "l'entraînement de modèles cryptés" via FHE, garantissant que le processus de décision de l'IA ne soit pas espionné par des tiers.
Niveau de collaboration : La communication entre plusieurs agents utilise le chiffrement par seuil, le compromis d'un seul nœud ne conduira pas à une fuite de données au niveau global.
Bien que la technologie de sécurité Web3 n'ait peut-être pas de lien direct avec les utilisateurs ordinaires, elle a un impact profond sur les intérêts des utilisateurs. Dans cet environnement plein de défis, il est essentiel d'améliorer constamment les mesures de sécurité.
Certains projets ont déjà fait des progrès dans ces domaines. Par exemple, uPort a lancé une solution d'identité décentralisée en 2017, et NKN a publié un mainnet basé sur un modèle de confiance zéro en 2019. Dans le domaine de FHE, Mind Network est devenu le premier projet à lancer un mainnet et a collaboré avec plusieurs organismes renommés.
Avec les technologies de l'IA se rapprochant de plus en plus du niveau d'intelligence humaine, les systèmes de défense non traditionnels deviennent de plus en plus importants. Des technologies comme FHE ne résolvent pas seulement les problèmes actuels, mais posent également les bases pour l'ère de l'IA forte à venir. Sur le chemin vers l'AGI, ces technologies de sécurité sont devenues des éléments essentiels.