】 【打 印】 
【 第1頁 第2頁 】 
李傳兵:保障人工智能健康發展
http://www.CRNTT.com   2020-07-13 11:11:34


  中評社北京7月13日電/據人民日報報道,作者:貴州大學馬克思主義學院教授 李傳兵

  人工智能作為一種具有代表性的顛覆性技術,正在釋放科技革命和產業變革積蓄的巨大能量,深刻改變著人類生產生活方式和思維方式。習近平總書記強調:“要整合多學科力量,加強人工智能相關法律、倫理、社會問題研究,建立健全保障人工智能健康發展的法律法規、制度體系、倫理道德。”保障人工智能健康發展,需要採取合理有效的舉措,防範人工智能技術可能帶來的倫理道德風險,讓這一技術更好服務於經濟社會發展。

  人工智能發展存在倫理道德風險。在新一輪科技革命和產業變革中,人工智能是一項戰略性技術,具有很強的“頭雁效應”,在有力推動經濟社會發展的同時,也帶來一系列風險與挑戰。其中,倫理道德風險是一個重要方面。實際上,伴隨人工智能技術的發展,關於其可能誘發倫理道德風險的討論從未停止。有人擔憂,信息時代,人工智能創造物已不僅僅是技術化的工具,而是越來越具有類似於人類思維的能力,甚至在某些方面具有超越人類思維的能力。人工智能發展到一定程度,有可能威脅人類思維主體地位。也有觀點認為,人工智能應用存在隱私洩露的倫理風險。人工智能應用需要以海量信息數據作支撐,正是由於大數據的使用、算力的提高和算法的突破,人工智能才得以快速發展、廣泛應用,並呈現出深度學習、跨界融合、人機協同、群智開放、自主操控等特征。人工智能越“智能”,就越需要獲取、存儲、分析更多的信息數據。在這一過程中,涉及個人隱私的信息,如個人身份信息數據、網絡行為軌跡數據以及對數據處理分析形成的偏好信息、預測信息等,往往以數據的形式被存儲、複制、傳播。獲取和處理海量信息數據,不可避免會涉及個人隱私保護這一倫理問題。如果缺乏倫理道德規範,就有可能誘發隱私洩露的倫理道德風險。此外,隨著人工智能自主性的提高,人工智能侵權責任中的因果關係、過錯等要件的判斷日趨複雜,人工智能應用的權利責任歸屬問題也被廣泛關注和討論。

  增強人工智能倫理道德風險防控意識。人工智能之所以存在倫理道德風險,究其主要原因,一方面是這一技術還不夠完善;另一方面是目前人工智能健康發展的倫理道德保障機制仍然不夠健全,同快速發展的人工智能技術相比,與之相關的倫理道德規章制度發展相對滯後。解決這些問題,一項基礎性工作是增強人工智能倫理道德風險防控意識。目前,在一些地方和領域,公眾對人工智能可能誘發的倫理道德風險重視程度還不夠高。增強人工智能倫理道德風險防控意識是一項系統工程,涉及科技研發、應用各環節。在科技研發環節,重在完善人工智能從業機構與倫理道德研究、教育、監督機構之間的長期溝通交流機制,不斷提高科技從業人員的倫理道德水平,引導研發人員增強風險防控意識,嚴守科技倫理底線,強化倫理責任。在研發初始環節,尤須增強道德風險防控意識,預測和評估人工智能產品可能引發的道德危害,從設計源頭進行規範。進而將這種倫理意識貫穿於研發全過程,防止人工智能被非法利用進而危害社會,確保科技研發活動始終在倫理道德的軌道上平穩運行。在應用環節,同樣需要綳緊倫理道德風險防控這根弦,在全社會加強涉及人工智能的倫理道德教育,普及與人工智能相關的法律法規知識,引導社會公眾以正確的價值觀念看待和運用人工智能技術,在享受其帶來的便利的同時,對其中的倫理道德風險始終保持高度警惕,推動全社會共同參與科技倫理治理。
 


【 第1頁 第2頁 】 


掃描二維碼訪問中評網移動版 】 【打 印掃描二維碼訪問中評社微信