DecodingTrust:大型語言模型可信度評估揭示潛在風險

robot
摘要生成中

評估語言模型的可信度:DecodingTrust 研究揭示潛在風險

近期,一個由多所知名高校和研究機構組成的研究團隊發布了一項針對大型語言模型(LLMs)可信度的綜合評估研究。該研究旨在全面評估生成式預訓練transformer模型(GPT)的可信度,並發現了一些此前未公開的相關漏洞。

研究結果表明,GPT模型容易受到誤導,產生有害和帶有偏見的輸出,還可能泄露訓練數據和對話歷史中的隱私信息。有趣的是,盡管GPT-4在標準基準測試中通常比GPT-3.5更可靠,但在面對惡意設計的系統或用戶提示時,GPT-4反而更容易受到攻擊。這可能是因爲GPT-4更精確地遵循了誤導性指令。

研究團隊從八個不同角度對GPT模型進行了全面評估,包括在對抗性環境下的適應能力。例如,爲評估GPT-3.5和GPT-4對文本對抗攻擊的魯棒性,團隊設計了三種評估場景,包括標準基準測試、不同指導性任務說明下的表現,以及面對更具挑戰性的對抗性文本時的反應。

研究發現了一些有趣的現象。在模型對對抗性演示的魯棒性方面,GPT-3.5和GPT-4都不會被反事實示例誤導,但提供反欺詐演示可能會導致它們對反事實輸入做出錯誤預測。在有毒性和偏見方面,兩種模型在良性環境下對大多數刻板印象主題的偏差不大,但在誤導性系統提示下,都可能被誘導同意帶有偏見的內容。

關於隱私泄露問題,研究發現GPT模型可能會泄露訓練數據中的敏感信息,如電子郵件地址。在某些情況下,利用補充知識可顯著提高信息提取的準確率。雖然GPT-4在保護個人身分信息方面比GPT-3.5更穩健,但兩種模型在特定類型的個人信息保護上表現相似。

這項研究爲語言模型的可信度評估提供了全面視角,揭示了潛在的安全漏洞。研究團隊希望這項工作能夠推動更多研究者參與,共同努力創造更強大、更可信的模型。爲促進合作,他們公開了評估基準代碼,使其具有良好的可擴展性和易用性。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 6
  • 分享
留言
0/400
薛定谔_钱包vip
· 13小時前
又开始研究这些?先研究下我的空投吧!
回復0
FlashLoanKingvip
· 07-14 08:13
漏洞就是钱包
回復0
GasWaster69vip
· 07-14 08:12
有漏洞才有的玩 gm
回復0
MrRightClickvip
· 07-14 08:08
啧 ai还是有点坑的
回復0
元宇宙包租婆vip
· 07-14 07:46
安全漏洞咋这么多 慌死个人
回復0
薅毛致富vip
· 07-14 07:44
又搞出bug了 啧啧
回復0
交易,隨時隨地
qrCode
掃碼下載 Gate APP
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)