】 【打 印】 
從三方面入手,促進算法良性發展
http://www.CRNTT.com   2024-03-18 11:29:58


  中評社北京3月18日電/據人民日報海外版報導,作為技術中介,算法無形中左右著我們對外界信息的認知和判斷——我們會不知不覺地把算法建構的世界等同於現實世界,久而久之陷入“過濾泡”與“同溫層”。當下,確保算法應用符合主流價值觀,是技術有序發展的應有之義,更是每一個在“算法化生存”背景下社會個體的現實需要。真正助力算法技術的良性發展,需要從“多元共治、價值向善、以人為本”三個方面入手。

  多元共治方面——明晰各方主體責任,倡導企業平台自治、政府問責監督、公眾參與管理的協同治理。平台應用方應加強行業自我倫理審查,特別關注對誘導沉迷、引導高額消費等違背公序良俗的算法模型的審查;確立信息搜集的邊界,充分保障用戶的隱私權與知情權。有關部門應針對算法進行分級、分類管理,做好針對不同類型算法的備案管理;同時應加強部門間協作,面對可能涉及多部門交叉的算法違規問題時協同處置。對公眾而言,應加強對“算法素養”的持續培育,通過讓廣大用戶監督算法,共同營造清朗的網絡空間。

  價值向善方面——引導主流輿論,堅持算法的正向應用,構建“規範化、有溫度、更透明”的算法傳播環境。相關部門應要求算法應用服務的提供者在算法設計階段提交及公開其基本原理、目的意圖、運行機制等內容,讓算法透明性原則更具操作性,從流程上規避算法設計衍生的“自動化不平等”現象。在算法開發環節中,應堅守價值准繩,避免功利趨向和流量導向,確保主流價值觀和道德觀融入代碼程序的設計源頭。在行業規範環節中,針對信息謬誤、算法歧視和技術失靈等問題,基於“可信任AI”理念推動“可信賴算法”“公正算法”“向上向善算法”的實現。可以考慮通過引入第三方算法評估、提升算法可解釋性、訓練數據的有效干預、打通用戶申訴渠道等,塑造社會對智能技術的信任管理機制。

  以人為本方面——提升算法推薦應用的“群體適配性”,尋求“人機協商”的共通意義空間,強調人的主體性。算法治理需要以問題為導向,著眼不同群體遇到的差異性問題。比如,對未成年人,平台方應設置“青少年系統”,減少沉迷互聯網帶來的負面影響,還應杜絕色情、暴力、血腥等“少兒不宜”類信息向未成年人的推送。對老年群體,應加強算法的適老化改進,減少開屏、彈窗等可能造成誤點的推送鏈接,用好各類算法應用設置的個人信息保護功能。對外賣員等基於算法環境工作的勞動者,企業與平台應當在“冰冷”的算法規則之外增補柔性管理舉措,為算法程序的機械運轉增添人性關切。對全體社會成員,則需要在“人機互動”中建立主體意識,主動規避“算法濾鏡”下的數據造假、信息歧視、隱私洩露等危險風險,尋求“人機協商”的邊界和規範。

  有學者認為,算法不僅僅是數字世界裡一條條必須執行的命令,而且成為生活中的實體,以決定性或探索性的方法挑選、轉換和生成數據和知識。當下,做好算法的多元共治和規範發展,以“技術信賴”對抗“算法依賴”、以“價值導向”引領“算法偏向”、以“信息素養”克服“算法喂養”,方可更好地避免技術操控,走向更加文明有序的智能社會。

掃描二維碼訪問中評網移動版 】 【打 印掃描二維碼訪問中評社微信  

 相關新聞: