您當前的位置:襄陽網 > 科技發展 > 消息正文

人工智能讓人類尷尬:倫理道德法律框架設計滯后

2017-11-21 來源:科技日報     編輯:襄陽

    索菲亞不是人,她只是個很聰明的機器人;索菲亞又是"人",不久前,她被沙特授予公民身份,加入人類籍.


    索菲亞很友好,與人談笑自如,甚至還會眼神交流,并在MV里與歌星王力宏"結了婚";索菲亞又很"恐怖",聲稱未來目標是想去上學,成立家庭,并——毀滅人類.


    無論這句話是調侃還是隱喻,設計出她的人類,尷尬了.


    在近日召開的"人工智能的技術、倫理與法律的關鍵科學問題"的香山科學會議上,中科院科技戰略咨詢研究院研究員李真真舉索菲亞的例子,是想提出一個問題:在技術高歌猛進的同時,人工智能不斷模糊著物理世界和個人的界限,不斷刷新人的認知和社會關系,延伸出復雜的倫理、法律和安全問題,但相應的規范和制度設計還存在盲區,這是一個極大的挑戰.


    "我國的人工智能技術可謂與世界發達國家‘同步’,但倫理和法律研究則嚴重滯后,這種‘缺位’會制約我們未來的發展."李真真說.


    為構建一個人工智能健康發展的倫理和法律環境,來自自然科學、人文社會科學領域的專家學者和產業界人士聚集在一起,嘗試跨越學科的鴻溝,尋找共同的交集,研討人工智能最基本的問題.


    人工智能很牛嗎? 牛,但也有可能犯大錯


    人工智能火了!人工智能牛了!很大程度歸功于近年來一只不斷進化的"狗"——阿爾法狗(AlphaGo).


    中科院院士張鈸簡單分析了人工智能發展的兩條路徑:一是符號主義,即從信息處理的宏觀層面去模擬智能;二是連接主義,即從網絡介觀層面去模擬人類行為.當人工智能的開拓者提出上述方向時,不少人認為不可能,但事實證明這兩條路都行得通.


    "人工智能第一次震撼,是IBM的‘深藍’程序打贏國際象棋冠軍,這是用計算機模擬人類下象棋的理性思考過程,證明了符號主義這一條路走得通."張鈸說.


    人工智能第二次對人類的"暴擊",是基于神經網絡的深度學習,AlphaGo拋棄了傳統圍棋程序的編程方法,創造性地利用機器學習,來獲取下棋的經驗與直覺,結果戰勝世界圍棋冠軍."更值得注意的是AlphaGo Zero從零開始,通過36小時自我學習,超越人類3000年的圍棋經驗,以100比0擊敗了上一版本的AlphaGo.這證明第二條路也走得通."張鈸說.


    "這讓人歡欣鼓舞,也令人擔憂."張鈸的"憂",指的是基于深度學習的人工智能系統存在的根本性缺陷——不可解釋和不可理解,就事論事,缺乏推廣能力,遇到新的情況一籌莫展等.因此當面對動態變化的環境,信息不完全、存在干擾與虛假信息時,人工智能系統性能就會顯著下降.


    "當前的人工智能與人類智能本質上是不同的."張鈸說,與人類相比,人工智能系統抗干擾能力(魯棒性)差,推廣能力弱,甚至可能犯大錯."基于深度學習的模式識別系統盡管可以準確地區分不同事物,但本質上不認識它們.與人類不一樣,它不會舉一反三,更不會‘知其所以然’.使用這樣的人工智能系統需要十分小心."


    "現在大家對人工智能有無限期待.圍棋有規則,現實生活中沒有規則.人工智能產品完成單項任務很牛,但遇到復雜情況,實際沒那么厲害."海爾公司CTO趙峰認為.


    人工智能可怕嗎? 遠慮尚"遠",近憂在即


    人工智能會威脅人類嗎?馬斯克、霍金、扎克伯格……科技和產業界的大腕對此的爭論和互懟一直沒有停歇.


    參加香山科學會議的科學家認為,人工智能威脅論擁躉者所指的"強人工智能"到來還比較遠,現在發展的多是擅長完成單項任務的"弱人工智能"."人工智能還在生長發展過程中,是否造成威脅估計是下一代科學家面臨的問題,我們現在的任務是把它‘養大’."不過,中科院院士何積豐也坦承,現在人工智能也有"內憂外患",如無人機黑飛亂飛管理亂象,恐怖主義黑客攻擊等.


    "世界上沒有免費的午餐,機器通過‘黑箱’學習(深度學習)方法取得的智能,由于與人類認知行為存在根本差異,因此也將帶來潛在的風險."張鈸說,人工智能全面超越人類智能并出現自我意識,是危險的,不過這是遠慮;但其不可解釋性會帶來"近憂",如將深度學習應用于軍事決策,萬一系統出現原則性決策失誤怎么辦?


    人類準備好了嗎? 遠遠沒有,急需跟進


    "人類現有的概念框架及知識儲備難以應對人工智能帶來的影響,也使我們不得不面對‘制度性風險’."李真真說,人工智能技術的社會應用迅速改變了人類的生存環境,重塑人的行為,也不斷挑戰諸如隱私、責任等概念內涵及其既有策略.


    李真真以"隱私"舉例說,傳統法律上,隱私是一種權利的概念,但現在它還可以是一種商品,即我們讓出一部分個人的隱私或信息以換取服務和產品,這就需要法律的及時跟進.再有,匿名化技術的發展為隱私保護提供了新的工具,但如果對于匿名化數據的法律概念和認定標準上沒有明確規定,很可能會導致數據的濫用.同時,隱私保護與國家安全、商業利益如何平衡,也是問題.再比如"責任",比較典型的就是自動駕駛系統的責任認定."還有人工智能的預測或決策,如預測犯罪,這將使我們面對一個更為復雜的法律問題."


    "法律具有滯后性,這就要求我們不斷地根據出現的新情況和新的社會難題,對人工智能帶來的影響進行倫理評估,以保障相關法律和政策的及時跟進."李真真說.


    人機可以和諧共處嗎? 嵌入倫理法律框架是最大的科學挑戰


    人工智能是否會產生歧視?答案是肯定的,這可以體現在數據選擇和算法上.


    有科學家研究,通過使用機器學習算法幫助銀行提供接受還是拒絕房貸的建議,無論如何,在審查神經網絡決策制定流程的結果時,發現黑人申請的批準率大大低于白人申請的批準率.


    這就是人工智能工具存在的"黑箱"般的不透明性.


    "人機關系中,智能機器與人類的價值觀和規范體系必須一致."李真真說,如何將人類的價值觀和規范嵌入人工智能系統,賦予AI以人性的光輝,成為當前所面臨最現實的挑戰.


    前有科幻小說家阿西莫夫著名的機器人學三大定律,近年來,國際人工智能界日益重視人工智能中的倫理與法律問題,并推動相關技術標準及社會規范的研討和制定,如IEEE全球人工智能與倫理倡議、阿西洛馬人工智能23條倫理原則,我國的《新一代人工智能發展規劃》也專門提出人工智能倫理與法律的三步走規劃."但是,將倫理與法律要求嵌入到AI系統,仍是全世界前沿性的科學難題,這需要技術、倫理、法律等控制手段配合使用、高度融合和跨學科合作."李真真說.


    "智能機器不是代替人,而是要協助人做好工作.人和機器各有優勢,要互相了解才能實現人機協作,但人還是人機關系的主導者.依照這種思想,才可能將人工智能引向人機合作的發展道路."張鈸說.

(<人工智能讓人類尷尬:倫理道德法律框架設計滯后>來源科技日報,版權歸原作者或科技日報所有,轉載請注明原文來源出處,本文鏈接:http://www.zwvbcq.icu/keji/201724478.html)

襄陽網版權及免責聲明:

1、凡本網注明 “來源:***(非襄陽網)” 的作品,均轉載自其它媒體,轉載目的在于傳遞更多信息,并不代表本網贊同其觀點和對其真實性負責。

2、如因作品內容、版權和其它問題需要同本網聯系的,請在30日內進行。

有關作品版權事宜請聯系:QQ:474560388 郵箱:[email protected]

注册绑卡秒送38元