】 【打 印】 
【 第1頁 第2頁 第3頁 第4頁 】 
將決策權“外包”給AI靠譜麼?
http://www.CRNTT.com   2021-06-24 10:12:55


 
  “儘管新理論模型產生的速度正在加快,但在過去20年中,這些數據集的預測精度幾乎沒有提高。”何黎勝告訴《中國科學報》,“其根本原因是我們的認知系統具有高度複雜性。”

  何黎勝解釋說,風險決策看似簡單。如果問大學生或高中生如何做風險決策,他們中的大多數人可能會說“我們先算出每個選項的期望價值,然後選擇期望價值最高的選項”。

  但風險決策比這複雜得多,受到多種認知和情感因素影響。以往研究者通過考慮這些影響因素,對風險決策行為提出了多種理論解釋模型。

  “近20年來,這種‘小數據集+小模型’的研究範式遇到了瓶頸,主要表現為我們對決策行為的解釋越來越多,但對決策行為的預測能力並沒有顯著提升。”何黎勝說,“這很大程度上取決於常用的‘小數據集’和‘小模型’(與深度神經網絡相比,常規的決策模型都是小模型)研究範式。小數據集不足以支撐像深度神經網絡這樣的‘大模型’,而‘小模型’又不足以支撐決策過程中複雜的認知與情感因素。”

  “大模型”顯身手

  “人工智能技術雖然發展迅速,但計算機不會有人類意義上的感情,短期內也不可能產生人類特征的情緒。”天津大學自動化學院副教授楊正瓴對《中國科學報》說,“這也許會成為人工智能的優勢,讓它在某些領域比人類做得更好。比如,利用‘大數據’的人工智能決策,的確可以幫助人類減少決策失誤。”

  近年來,不同學科之間的交叉研究提供了新的突破口,特別是行為決策、認知科學和機器學習等領域的交叉。

  “總體而言,在‘小模型’範圍內,前景理論的預測精度是上佳的,是迄今為止預測精度最好的風險決策模型之一。”何黎勝說,“如果我們把視野放到更廣闊的‘大模型’(例如深度神經網絡等機器學習算法),前景理論等小模型的預測劣勢就顯現出來了。”
 


 【 第1頁 第2頁 第3頁 第4頁 】 


掃描二維碼訪問中評網移動版 】 【打 印掃描二維碼訪問中評社微信