技術自身缺陷不容忽視
依托龐大參數規模、海量訓練數據、強大算力資源,大模型作為人工智能領域最熱門的技術分支,已在多個領域表現出超越人類的能力。
“金融、醫療、教育、政務、製造等眾多領域都在積極探索大模型安全應用範式,以應對大模型安全風險。”常永波介紹,伴隨大模型的深度應用,產學研用各方都在加強大模型安全威脅和防禦技術體系研究。在原有可信人工智能治理體系框架基礎上,提升大模型的魯棒性、可解釋性、公平性、真實性等能力成為行業研究熱點。安全評測技術和安全防禦技術的不斷成熟,有效護航大模型發展。
WAIC 2024上,清華大學、中關村實驗室、螞蟻集團等機構聯合撰寫的《大模型安全實踐(2024)》白皮書(以下簡稱“白皮書”)正式發布。白皮書顯示,大模型技術存在自身缺陷,包括生成內容不可信、能力不可控以及外部安全隱患等問題。
“幻覺是大模型目前比較難解決的問題。”常永波說,模型在遵循語法規則的同時,可能產生虛假或無意義的信息。這一現象源於大模型基於概率推理的輸出方式。它可能導致對模糊預測的過度自信,從而編造錯誤或不存在的事實,影響生成內容的可信度。“智能湧現”是大模型的另一種效應,它可以讓模型展現出色性能,也具有突發性、不可預測性和不可控性等特徵。
另外,大模型的脆弱性和易受攻擊性使外部安全隱患難以消除。相關數據顯示,隨著大模型技術快速發展,相關網絡攻擊也在增多。
|