其中,香港警方近期披露一起涉案金額高達2億港元的多人AI換臉詐騙案尤為典型。據媒體報導,某公司職員受邀參加公司“多人視頻會議”時,先後將2億港元分別轉賬到5個本地銀行賬戶內。據警方調查,這場視頻會議中除了受害者外,其餘均為AI換臉後的詐騙人員。
不少業內專家表示,隨著文生視頻大模型Sora等多模態人工智能的探索和出現,人們可能陷入“眼見也不一定為實”的困局。“一直以來,銀行等部門將實時視頻用做檢驗身份的手段之一,如今其可靠性將面臨巨大挑戰。”沈福俊說,“隨著人工智能技術的迭代升級,這類違法行為還可能演變出更多形態。”
沈福俊坦言,對此類AI換臉和AI擬聲的惡性詐騙案件,若只依靠傳統監管手段已不能防堵,監管部門在提升自我科技能力儲備的同時,有必要引入新興技術,探索用AI技術監管AI的可能。
從消費者角度出發,沈福俊建議提升全民個人信息保護意識,謹防隱私洩露。“不管是在互聯網上還是社交軟件上,盡量避免過多地暴露自己的信息,在涉及轉賬交易等行為時,可以多角度詢問身份信息,反復驗證對方是否為本人。”
警惕“AI造謠” 小心“流量”變“流毒”
當前AIGC技術已在文本生成、圖片創作等方面廣泛應用,輸入幾個關鍵詞即可由AI快速生成一張畫或一篇文章。但一些用戶為博眼球、蹭熱度,卻將人工智能技術用以編“偽消息”,造“假通報”。
2023年6月,一條名為《浙江工業園現大火濃煙滾滾,目擊者稱有爆炸聲!》的視頻在網絡上流傳,引發網友關注。後經相關部門核實為謠言。據調查,當事人為給自己賬號漲粉引流,獲取更多利益,通過非法渠道購買了AI視頻生成軟件。該當事人將網絡熱門話題通過AI自動生成視頻產品,並上傳至多個熱門視頻平台。
|