】 【打 印】 
美軍啟用人工智能倫理原則
http://www.CRNTT.com   2020-05-08 12:07:32


  中評社北京5月8日電/據美“情報與偵察”網站5月4日報道,五角大樓已正式公布人工智能五大倫理原則,即負責、公平、可追蹤、可靠和可控。無論作戰還是非作戰人工智能系統,均須遵守上述原則,否則美國防部將不予部署。

  “負責”,指開發者和使用者須對人工智能系統的開發、部署、使用和造成的結果負責。根據官方指導文件,在開發階段,開發者需為人工智能系統確定合理的活動界限。以自動駕駛系統為例,必須確定其劇烈運動的上下界限,以免在使用時導致事故發生。在部署階段,使用者應為人工智能系統建立清晰的指揮鏈條,並明確操作者、指揮者的身份,避免發生混亂。

  “公平”,指五角大樓應最大限度減少人為偏差對人工智能系統的影響。眾所周知,機器學習的過程就是對人工輸入數據的分析過程。如果輸入者心存偏差,所輸入數據必然不全面,人工智能系統就失去了公平的學習環境。比如,人臉識別系統要提高識別率,需要對大量面部影像進行對比和判斷,如果被輸入的面部影像只局限於某一性別或某一種族,勢必導致人臉識別系統的準確率下降。

  “可追蹤”,指人工智能系統在其使用周期內的透明性,即從開發、部署到使用的各個環節都要留下準確的記錄,比如研發手段、數據源、設計程序、使用檔案等。技術專家或用戶可對此進行研究。一旦發生故障,他們可從研發數據庫或文檔查找源頭,及時、快速予以排除,避免人工智能系統失控。

  “可靠”,五角大樓給出的定義是“安全、穩定和有效”。具體而言,人工智能系統的可靠性建立在“可追蹤性”基礎上,即當系統出現不穩定現象或效率下降時,技術人員應對系統數據庫和傳感器記錄進行回溯追蹤,找出與正常狀態的不同之處並進行處理。比如,當自動駕駛系統出現不安全或不穩定苗頭時,技術人員須第一時間調閱開發者為其規定的活動界限並與實際界限對比,對變化因素進行及時糾正。正常情況下,可靠的人工智能系統會在無法做出判斷的情況下與操作人員或後方數據庫進行溝通,以確定最終結果。

  “可控”,指人工智能系統探測和避免意外發生的能力。五角大樓認為,可控的人工智能系統應具備足夠的抗干擾能力,並在發生意外或其他針對人類的惡意行為時,通過自動或手動方式停止工作。這種能力在設計階段就要嵌入人工智能系統。比如,一部自動駕駛車輛本不需要方向盤,但設計人員仍會安裝方向盤,就是為確保發生意外時乘坐者能夠切換為手動駕駛。

  來源:中國國防報

掃描二維碼訪問中評網移動版 】 【打 印掃描二維碼訪問中評社微信  

 相關新聞: