中評社北京3月17日電/光明日報發布文章表示,隨著人工智能技術的應用和發展,人們對它可能帶來的收益和風險的認識日益深刻。當下,人工智能的跳躍式發展在給人類社會帶來廣闊前景的同時,也給個人安全和保障帶來很大風險,增加了侵犯人類基本權利的可能性。然而,各國政府卻普遍存在欠缺權力、程序框架和資源以確保人工智能的發展和使用符合法律規定的能力。
如何從立法著手促進人工智能產業的健康發展,成為迫在眉睫的課題。
從跨國視角來看,碎片化的監管措施會妨礙跨境人工智能市場的形成,並威脅到數字主權。為此,歐盟出台了一系列措施鼓勵企業發展人工智能解決方案。本月底,《關於制定確立人工智能統一規則(人工智能法)以及修改部分聯盟法律的歐盟議會和歐盟理事會的條例的提案》(以下簡稱“草案”)將提交歐盟議會表決。如獲通過,意味著該法案將成為具有拘束力,可在歐盟成員國內直接適用的法律。
目前,草案已提交歐盟議會一讀。草案為調和人工智能的發展和利用與歐盟國家社會價值觀和公民基本權利保障,對人工智能的概念和分類,高風險人工智能系統的提供者、使用者及其他人的義務、法律後果等作了詳細的規定。鑒於當下人工智能技術的發展、利用以及流轉程度的加深,特別是在日益複雜的全球科技格局和國際關係背景下,有必要對相關動態予以進一步關注。
1.監管“黑箱”技術的核心訴求
統一人工智能立法對於歐盟而言,最重要的訴求就是要確保投放到歐盟市場的人工智能系統及其使用的安全性。近來,人工智能系統的平民化使得藏在“黑箱”裡的新技術變得觸手可及。人工智能變得可以與普通人“交流”,但是它的好多“想法”卻讓人產生不安。
怎麼才能確保人工智能尊重現行法律中所包含的價值觀和基本權利成為一個現實問題。人工智能可以“理解”歐盟社會的價值觀嗎?如何讓一個智能系統符合歐盟對於建立一個包容、寬容、公正、團結、非歧視的社會的期待?尊嚴、自由、平等、民主、法治、人權保障等理念如何經由對人工智能系統的分類處理、細化各類主體的職責和義務、完善有關程序,進而被強化、具體化、內化到人工智能安全規定本身之中?《歐盟基本權利憲章》所保障的基本權利又如何能通過人工智能系統得到推進,如:人性尊嚴、尊重私生活和保護個人數據、不受歧視權和男女平等、獲得有效救濟和公平審判的權利、辯護權和無罪推定等以及一些特殊群體的權利,如工人享有公平和公正的工作條件的權利、消費者權益保護、兒童權利和殘疾人的復歸社會,與人們的健康和安全有關的,如獲得高水平的環境保護和改善環境質量的權利。 |