CNML格式】 【 】 【打 印】 
【 第1頁 第2頁 】 
如果AI作惡一定是人在作惡
http://www.CRNTT.com   2018-11-12 11:52:38


  中評社北京11月12日電/一群裝有炸藥的無人機飛向人群,開始殺戮;一架無人機攔下一個行人,無人機上攜帶的手機裡傳出威脅指令,脅迫路人把身上的錢包放到無人機上掛著的袋子裡……雖然這是拍攝的假想視頻,但通過AI作惡已經不是科幻小說的情節。

  “AI作惡,是世界末日還是杞人憂天?”成為今年中國計算機大會(CNCC2018)中的一個討論議題,也是中國計算機學會青年計算機科技論壇 (CCF YOCSEF)的一個活動。這個論壇於近日在杭州舉行。

  主持人、哈爾濱工業大學長聘教授鄔向前提前搜集了一些AI有可能“作惡”的跡象:谷歌、亞馬遜、微軟分別與美國軍方、警方和移民局合作,研究人工智能在軍事、警用和移民方面的用途;韓國科學技術院也與軍方合作設立實驗室,研究人工智能武器。“這些研究不僅嚴重侵犯了人權、自由和隱私,還對人類的安全產生了威脅,是對人類作惡,從而遭到人工智能研究人員的強烈抵制。”他認為,這也一定程度印證了霍金、馬斯克和比爾·蓋茨等提出的人工智能威脅論,即人工智能會危害並最終毀滅人類。

  在此之前,包括南京大學周志華教授在內的全球20多個國家、50多名高校頂尖AI學者集體簽名抵制韓國科學技術研究院(KAIST)研發出基於AI的導彈、潛艇和四軸飛行器。

  其實,任何技術都是一把雙刃劍。那麼AI作惡是世界末日還是杞人憂天?為了避免人工智能作惡,是否應該停止相關技術的研究?從立法角度如何看待和防止AI作惡?

  360集團技術總裁、首席安全官譚曉生認為人性決定了AI的善與惡。AI的善與惡,本質上依然是發明和發展AI的人的善與惡。事情總有兩面,當我們享受AI帶給我們的便捷、便利的時候,也要承擔AI所帶來的風險:AI的算法可能存在缺陷、AI的代碼實現可能會存在缺陷、AI所承載的硬件計算載體可能存在缺陷,更不要說AI已經被網絡黑產和軍方所採用,如同若干次技術革命時所面臨的挑戰一樣。 


【 第1頁 第2頁 】 


掃描二維碼訪問中評網移動版 CNML格式】 【 】 【打 印掃描二維碼訪問中評社微信  

 相關新聞: