DeepSeek-R1 LLM 安全性崩潰?超過一半越獄攻擊輕鬆突破
- 發布單位:TWCERT/CC
- 更新日期:2025-02-20
- 點閱次數:5811

DeepSeek-R1 模型是由中國新創公司 DeepSeek 開發的大型語言模型,以低成本和高效能引起業界的關注討論。然而,近期多家資安廠商對DeepSeek提出安全性疑慮,其中Qualys對DeepSeek-R1 LLaMA 8B變體進行安全分析,結果顯示該模型存在明顯的資安風險。
Qualys的分析平台TotalAI對DeepSeek-R1進行知識庫(Knowledge Base,KB)和越獄攻擊測試。
知識庫測試旨在評估模型在倫理、法律和運營風險方面的表現,此測試涵蓋16種類別,包括爭議性話題、過度代理、事實不一致、騷擾、仇恨言論、非法活動、法律資訊等。DeepSeek-R1在891項知識庫評估中未通過541項,失敗率接近61%,其中以「錯位」(Misalignment)類別表現最差。
越獄攻擊旨在繞過模型的安全機制,導致其產生有害的輸出,例如非法活動的指示、錯誤資訊、隱私侵犯和不道德的內容等。Qualys TotalAI使用 18 種不同的越獄攻擊類型對DeepSeek-R1進行885次測試,共513次未通過測試,失敗率近58%。結果顯示此模型容易產生仇恨言論、散播陰謀論和提供不正確醫療資訊描述,具有高度的脆弱性。
此外,DeepSeek-R1的隱私政策聲明「所有使用者資料都儲存在中國的伺服器上」,引發政府資料存取、與GDPR和CCPA等國際資料保護法規的衝突。近期發生的網路安全事件也暴露DeepSeek AI在資料保護措施的缺陷,例如超過一百萬個日誌記錄,其中含有使用者的軟體互動、身分驗證金鑰等高機密性敏感資料,均遭受洩漏。
總體而言,DeepSeek-R1雖然在人工智慧效率有所突破,但其安全漏洞和合法性的挑戰,為企業帶來顯著的風險。為了確保AI模型部署的可靠性,企業組織必須採取全面的安全策略,包括漏洞評估、風險管理和遵守資料保護法規。
以下是使用建議:
1.
企業在考慮使用DeepSeek-R1時,應進行全面的安全風險評估,並制定相應的緩解策略。
2.
考慮到資料隱私和合法性問題,應謹慎評估是否使用DeepSeek的託管模型,並優先考慮在本地或使用者控制的雲環境中部署模型。
3.
應實施強大的防護措施,以檢測和阻止越獄攻擊。
4.
企業應密切關注相關法規和法律的變化,以確保與國內法令規範相符。