】 【打 印】 
人工智能治理要堅持兩手抓
http://www.CRNTT.com   2023-08-29 14:55:28


  中評社北京8月29日電/據經濟日報報導,大模型的高速發展和滲透帶來生成式人工智能的廣泛應用,形形色色的生成式人工智能插件在短短幾個月內交互到了人類社會的生產生活中,引發新一輪智能化浪潮。正如數十年前計算機技術、互聯網革命引領了技術與生產方式的歷史性變革,生成式人工智能開始深刻地影響人們生活的方方面面。當我們使用生成式人工智能高效搜索、生成文本、提高工作效率,當我們感受訓練聊天機器人的新鮮感,當我們在文本之上使用圖像生成、音頻視頻生成,生成式人工智能的潛在風險也在不知不覺中逐漸滲透。

  科技創新的二元性歷來受到社會廣泛關注,從互聯網的數據隱私到智能機器人的道德倫理,再到生成式人工智能對於個人隱私的處理和引發潛在欺詐行為風險,如何規範應用值得我們深度思考。

  用戶會給生成式人工智能工具提供個人、公司或所屬社會組織的非公開信息,模型獲得了這些數據,便有可能在後續各類生成任務中洩露信息。過去擔憂手機APP等軟件在用戶未察覺時對其隱私進行觀察和調用,而在生成式人工智能應用場景中,亦存在隱私和信息洩露風險。例如,生成式人工智能可以被用來創建背景豐富、看似來源可靠的信息,進而誘導用戶點擊惡意鏈接或下載惡意軟件;可以塑造豐富立體的社交媒體形象,甚至模仿某人的聲音或外貌,引導造謠與詐騙;可以被訓練為向特定用戶推薦誤導性內容,或在某些情況下加強他們已有的偏見,等等。

  生成式人工智能可處理海量數據,但也給知識產權保護、個人隱私保護、打擊虛假信息等方面帶來新挑戰。積極推進人工智能治理,法治與社會教育是促進守正創新的兩大抓手。

  一方面,營造安全有序的法治環境,規範生成式人工智能服務。為減少虛假信息的傳播,建議明確禁止或限制其在特定領域的使用。例如,批量化的虛擬形象創建和對話;為降低隱私洩露風險,建議規定生成式人工智能使用個人數據時需經用戶同意,確保數據隱私得到保護,用戶有權決定哪些數據可以被使用,以及生成的內容如何使用;為減少對社會公序良俗的破壞,建議嚴格限制仇恨言論、歧視性內容創建。可考量設立專門的機構負責技術審查和認證,評估生成式人工智能系統的安全性、可信度、倫理問題等。

  同時,對於生成式人工智能系統出現問題時的法律責任和賠償機制,可考慮進行系統設計,對開發者、運營商以及使用者的責任分配展開討論。本質上,機器產生的任何行為都需要有主體負責,而生成式人工智能能否以及如何界定責任主體,是一個重要而緊迫的問題。自動駕駛的技術發展、商業應用和社會問題,為我們作出了可參考的探索。

  另一方面,加強對公眾的教育與培訓也至關重要。技術的風險不僅來源於自身,也來自於不當使用。如何讓公眾更好地理解技術、更明智地利用技術,進一步完善科技倫理體系,都需要強有力的社會教育作為支撐。要加強對公眾進行教育和培訓,強調倫理和法律約束,以提高對這些潛在風險的認識;要增強用戶對倫理和法律問題重要性的認識,特別是在生成內容時,明白不應該濫用工具;要鼓勵公眾充分瞭解生成式人工智能的邏輯和可解釋性、推斷和生成過程,鼓勵選擇更透明和可解釋的模型,以便更好理解生成內容的來源和原理,不輕信在看似嚴肅的行文和環境中插入的各類信息和煽動性觀點;要提醒用戶保護個人隱私和數據安全,不分享敏感信息尤其是機密信息;政府、行業、企業等相關各方應加強風險研判,有效防控人工智能的科技倫理風險,進一步加強行業自律,不斷推動科技向善、造福人類。

  (作者陳勁 系清華大學技術創新研究中心主任、教授)

掃描二維碼訪問中評網移動版 】 【打 印掃描二維碼訪問中評社微信  

 相關新聞: