】 【打 印】 
阿媒:誰來確立元宇宙的倫理道德?
http://www.CRNTT.com   2022-08-23 17:11:47


  中評社北京8月23日電/據參考消息報道,阿聯酋《海灣時報》網站8月17日發表題為《誰來確立元宇宙的倫理道德?》的文章,作者是英國倫敦大學學院創新與公共用途研究所博士喬希·恩茨明格、美國赫爾特國際商學院教授馬克·埃斯波西托以及美國赫爾特國際商學院教授特倫斯·倫敦。全文摘編如下:

  元宇宙時代還沒到來,一旦到來,它絕不會局限於某家公司控制的單一域名。

  元宇宙并不是一個新概念。科幻小說家尼爾·斯蒂芬森在1992年出版的《雪崩》一書中創造了這個詞。該書描述了一種超級資本主義的反烏托邦,在這種反烏托邦中,人類集體選擇在虛擬環境中生活。到目前為止,人們在現實世界中的體驗一點也不比反烏托邦少。大多數令人身臨其境的數字環境都有霸淩、騷擾、虛擬性侵等元素,它們都與“發展迅速并試圖打破陳規”的數字平台有關。這一切都不應讓人感到意外。有關新技術的倫理道德規範始終落後於創新本身。這就是為什麼應該有獨立的機構針對虛擬世界制定管理規範的原因,而且越早越好。

  在2012年人工智能圖像識別技術取得重大突破後,企業和政府對該領域的興趣激增,這也引起倫理學家的注意。他們不停發表文章,提醒人們關注利用帶偏見的數據培訓人工智能的危險。為此,人們開發了一種新語言,以便將我們希望維護的價值觀納入新人工智能的應用程序中。

  由於有了這些提醒,我們才知道,正如紐約州立大學奧爾巴尼分校教授歐本克斯所指出的,人工智能實際上正在“使不平等自動化”,使執法過程中的種族偏見永久化。為了引起人們對這一問題的關注,麻省理工學院媒體實驗室的計算機專家布拉姆韋尼在2016年啓動了算法正義聯盟。

  這是第一波努力,旨在引起公衆對人工智能道德行為的關注。但這一努力引起的關注很快就被人工智能行業內部提出的自我監管削弱了。人工智能開發人員推出了技術工具包,進行內部和第三方評估,希望借此緩解公衆的擔憂。然而事實并非如此,因為大多數人工智能公司的商業模式與公衆希望它們維護的道德標准有明顯衝突。

  舉個最常見的例子,推特和臉書網站不會真正防範用戶濫用平台的各種不當行為,因為這樣做會破壞所謂“接觸”原則,當然也會影響平台收益。同樣,這些公司和其他一些技術公司已經利用價值榨取和規模經濟在各自的市場實現了近乎壟斷的地位,它們現在不會心甘情願放棄已經獲得的權力。

  最近,一些企業顧問和項目開始將人工智能的道德管理專業化,以解決名譽敗壞和操作風險。大型科技公司的人工智能研發者將被迫考慮一些問題,比如某個功能是應該設為默認加入項還是退出項,將一項任務委托給人工智能是否合適,以及用於訓練人工智能的應用程序是否可信等。為此,許多科技公司成立了所謂獨立的道德委員會,然而,一旦關注人工智能倫理和社會影響的研究人員調職後,這種形式的道德自治的可靠性就會受到質疑。

  要為元宇宙世界奠定良好的道德基礎,就要在行業自律成為常態之前先行建立制度監管。我們還必須記住元宇宙與人工智能已經有很大程度的不同。人工智能主要圍繞企業內部運營,而元宇宙注定會以消費者為中心,這意味著它將存在各種各樣的行為風險,而且大多數人尚未考慮到這些風險。

  美國電信法為規範社交媒體提供了依據,於是,社交媒體監管模式也被默認為元宇宙的管理模式。這應該讓我們所有人都感到擔憂。

  盡管我們可以輕而易舉地預見許多在數字環境中的侵害行為,但我們在社交媒體方面的經驗表明,我們可能低估了這些行為的影響程度以及它們帶來的連鎖反應。

  與其重複過去的錯誤,不如高估這些風險。一個完全數字化的環境為更窮盡地收集數據創造了可能性,這甚至包括個人生物特征數據。由於沒有人真正知道如何應對數字環境中出現的這些問題,所以很有必要在允許一個程序大範圍推廣之前使用監管沙盒為運行中的程序提供隔離環境。

  預測元宇宙會出現何種道德挑戰仍是可能的,但時間在一分一秒流逝。如果沒有有效的獨立監督,這個新的數字世界幾乎肯定會變得肆無忌憚,出現類似社交媒體和人工智能已經表現出來的各種被濫用和不公平現象,同時帶來更多我們連想也沒想到的風險。

掃描二維碼訪問中評網移動版 】 【打 印掃描二維碼訪問中評社微信  

 相關新聞: