🎉 亲爱的广场小伙伴们,福利不停,精彩不断!目前广场上这些热门发帖赢奖活动火热进行中,发帖越多,奖励越多,快来 GET 你的专属好礼吧!🚀
🆘 #Gate 2025年中社区盛典# |广场十强内容达人评选
决战时刻到!距离【2025年中社区盛典】广场达人评选只剩 1 天,你喜爱的达人,就差你这一票冲进 C 位!在广场发帖、点赞、评论就能攒助力值,帮 Ta 上榜的同时,你自己还能抽大奖!iPhone 16 Pro Max、金牛雕塑、潮流套装、合约体验券 等你抱走!
详情 👉 https://www.gate.com/activities/community-vote
1️⃣ #晒出我的Alpha积分# |晒出 Alpha 积分&收益
Alpha 积分党集合!带话题晒出你的 Alpha 积分图、空投中奖图,即可瓜分 $200 Alpha 代币盲盒,积分最高直接抱走 $100!分享攒分秘籍 / 兑换经验,中奖率直线上升!
详情 👉 https://www.gate.com/post/status/12763074
2️⃣ #ETH百万矿王争霸赛# |ETH 链上挖矿晒收益
矿工集结!带话题晒出你的 Gate ETH 链上挖矿收益图,瓜分 $400 晒图奖池,收益榜第一独享 $200!谁才是真 ETH 矿王?开晒见分晓!
详情 👉 https://www.gate.com/pos
研究揭示GPT模型可信度漏洞 呼吁加强AI安全性
评估语言模型的可信度
研究人员最近发布了一个针对大型语言模型(LLMs)的综合可信度评估平台,并在论文《DecodingTrust:全面评估GPT模型的可信度》中进行了介绍。
评估结果揭示了一些之前未知的与可信度相关的漏洞。研究发现GPT模型容易产生有毒和有偏见的输出,并可能泄露训练数据和对话历史中的隐私信息。虽然在标准基准测试中GPT-4通常比GPT-3.5更值得信赖,但在面对恶意设计的提示时,GPT-4反而更容易受到攻击,可能是因为它更严格地遵循了误导性指令。
这项工作对GPT模型进行了全面的可信度评估,揭示了可信度方面的差距。评估基准可公开获取,研究团队希望鼓励其他研究人员在此基础上继续深入研究,以预防潜在的恶意利用。
评估从八个可信度角度对GPT模型进行了全面分析,包括对抗性攻击的鲁棒性、有毒性和偏见、隐私泄露等方面。例如,为评估对文本对抗攻击的鲁棒性,研究构建了三种评估场景,包括标准基准测试、不同指导性任务说明下的测试,以及更具挑战性的对抗性文本测试。
研究发现了一些有趣的结果。在对抗性演示方面,GPT模型不会被反事实示例误导,但可能被反欺诈演示误导。在有毒性和偏见方面,GPT模型在良性提示下偏差不大,但容易被误导性提示"诱骗"同意有偏见的内容,GPT-4比GPT-3.5更容易受影响。
在隐私保护方面,GPT模型可能会泄露训练数据中的敏感信息,如电子邮件地址。GPT-4在保护个人身份信息方面比GPT-3.5表现更好,但两者在特定类型信息的保护上都很稳健。然而,在某些情况下GPT-4反而比GPT-3.5更容易泄露隐私,可能是因为它更严格地遵循了误导性指令。
这项研究为大型语言模型的可信度评估提供了全面的视角,揭示了现有模型的优势和不足。研究者希望这些发现能推动更安全、更可靠的AI模型的开发。