環球創業頻道導航欄_fororder_WechatIMG203

    滾動   |   環球快訊   |   環球專訪   |   政策解讀   |   會員頁面   

怎樣提升人工智能的“道德水準”

2017-09-11 14:10:53  來源:光明日報  編輯:徐佳航   責編:許煬

圖片默認標題_fororder_1505071720607_1

觀眾在2017年世界機器人大會上觀看會寫書法的機器人。新華社發

圖片默認標題_fororder_1505071752201_1

觀眾在機器人大會上觀看機器人舞蹈表演。新華社發

  日前,2017世界機器人大會在京閉幕。其中最吸引觀眾眼球的是為期5天的機器人博覽會,各類智慧機器人讓人大開眼界。“長了”53根手指的鋼琴機器人,可以精準地演奏任何通過軟體輸入系統的曲譜,彈奏能力超越人類極限;身形小巧圓潤、會走路能交談的NAO機器人一亮相,讓人不禁想到電影《機器管家》裏智慧深情的機器人安德魯;還有可“走”進人體、為人類做手術的達芬奇機器人……

  然而,就在2017世界機器人大會開幕前兩天,埃隆·馬斯克等116名全球人工智能和機器人公司創始人發佈聯名公開信,呼籲聯合國採取行動禁止“殺手機器人”擴散。公開信指出:“人工智能武器一旦發展起來,會令武裝衝突的激烈程度躍升到前所未有的層級,而且會以人類難以想像的速度進化。”

  從前後兩則新聞的內容不難看出,人工智能具有雙面性。新一代人工智能的崛起,在給人類帶來驚喜和更高生産力的同時,也引發了不少擔憂。什麼樣的人工智能是人類需要的?如何避免人工智能挑戰人類安全或社會倫理道德?記者就此進行了採訪。

  人工智能怎麼區分“對”與“錯”

  人工智能早已在金融、醫療、廣告、軍事等領域被廣泛應用,引發人們對人工智能討論與擔憂的導火索,是自動駕駛汽車的面世。

  當一輛自動駕駛汽車行駛在馬路上,它需要根據實時路況,自主作出決策。紅燈停、綠燈行,黃燈亮了等一等,看到行人還要讓行。如果這些技術性動作都能夠做到,那當它遇到類似“電車困境”的情景,會如何選擇呢?

  設想一下,有五位行人突然出現在一輛急駛的自動駕駛汽車前面,在來不及剎車的情況下,自動駕駛汽車可以沿著既定路線行駛,這樣可能會撞死這五名行人;它也可以臨時轉向,但會撞上旁邊的綠化帶,這樣可能會讓它的乘客喪命。此刻,這輛汽車該如何抉擇?

  中國社科院哲學所研究員段偉文指出,新一代人工智能是以大數據為驅動,其核心是演算法。自動駕駛汽車在行駛中的每一個決策,都是通過演算法設定好的。數據和演算法並非完全客觀,數據的採集、標注和演算法的設計往往負載著價值。因此,數據解讀中的價值取向和演算法設計中的倫理考量,是決定人工智能區分道德上“對”與“錯”的關鍵。

  “人們對自動駕駛汽車這類智慧機器的擔心,主要源於對其演算法的不了解。不知道在遇到特殊的情景時,會以怎樣的優先次序進行決策。”段偉文認為,可引入醫學倫理中的“知情同意原則”,即人們在購買自動駕駛汽車時,就知道它會按怎樣的優先次序去做。比如功利論演算法的汽車,以傷害最小化為決策原則。相比于撞到五個行人,它會選擇傷害車上的一名乘客。而道義論演算法的汽車,則以行為的道德正義性作為決策原則。

  段偉文進一步指出,人類都沒有解決的“電車困境”難題,人工智能自然也很難給出完美答案。但是人工智能有可能基於它的海量數據和迅速反應能力,避免出現類似“電車困境”的情景。

  騰訊研究院未來科技中心高級研究員曹建峰認為,人們的這些擔憂是因為沒有和人工智能機器建立信任關係。“人工智能製造企業需要通過多種方式建立用戶信任,比如讓自動駕駛汽車可以向用戶解釋其決策。只有當用戶知道智慧機器為什麼這麼做、為什麼不那麼做的時候,人類與智慧機器之間的信任才會慢慢建立。”

  警惕人工智能演算法歧視

  演算法可以決定自動駕駛汽車在遭遇兩難選擇時,犧牲哪一方。同樣,它還可以決定很多。比如電子科技大學的智慧助困系統,它通過對學生的勤工儉學、食堂消費、校車、浴室等大量數據記錄的分析,根據這些外顯行為對學生的經濟狀況進行畫像,然後決定每月給哪些學生的飯卡自動充值。

  智慧助困系統這樣充滿人文關懷的演算法設計,是“高道德水準”人工智能的一個經典例子。然而,隨著人工智能的推廣普及,各種主觀或客觀的演算法歧視越來越引發人們的關注。

  “人工智能決策日益流行,演算法歧視是一個不容忽視的問題。”曹建峰舉例,在某網絡公司的廣告服務中,男性比女性看到更多高薪招聘廣告;在購物比價服務中,某網絡購物平臺隱瞞了自己及合作夥伴商品的運費,導致消費者看不到公正的比價結果;某犯罪風險評估演算法系統性地歧視黑人。

  基於大數據和演算法的人工智能,給人類社會生活中的各種事務和決策工作帶來了很大便利,也一直被標榜為客觀、準確、理性。然而,“演算法的設計者們是否可以不偏不倚地將既有法律或道德準則原封不動地編寫進程式,是值得懷疑的。規則代碼化帶來的不透明、不準確,甚至不公平等問題,值得深思和考究。”曹建峰坦言。

  段偉文也指出,人工智能演算法不可避免地要體現設計者與執行者的利益和價值取向。由於演算法的不透明和難以理解,有時候很難看出其中的歧視和不公。因此很多人在毫不知情的情況下,承受著各種微妙的歧視和精準的不公。

  曹建峰指出,在涉及信用評估、犯罪風險評估、雇傭評估等項目時,人工智能決策的結果將影響貸款額度、刑罰輕重、雇傭與否。“當越來越多的決策工作從人類向智慧機器讓渡,如何確保人工智能遵循人類倫理變得愈來愈重要。”

  探索人工智能領域立法

  “可能對於很多人來説,初識人工智能,是通過《終結者》《少數派報告》《機器管家》這樣的科幻電影。在這些電影中,機器人會比人類聰明,而且因具有自我意識而最終變得不為人所控制。”段偉文説,這些影片從不同維度折射了人們對智慧化未來的擔憂與思考。

  在大多數從事人工智能研究的專家看來,擬人化地看待人工智能,甚至擔憂其作為一個新物種毀滅人類,有些杞人憂天了。人工智能在單一領域可能比人類強很多,比如下棋、運算,但要讓人工智能像人類一樣能思考、有意識,短期內不太可能實現。

  “現階段探討人工智能倫理,主要是指加強人工智能設計倫理,旨在保證優先發展造福人類的人工智能,避免設計和製造出不符合人類價值和利益的人工智能。”上海交通大學科學史博士陳自富説。

  陳自富認為,人工智能倫理設計有三個方面需要關注。一是演算法設計中的倫理審計,考慮演算法中公平、效率之間的關係,避免使其成為“黑箱”。二是人工智能涉及的數據的所有權、隱私權和應用開發權的問題。三是人工智能開發中的倫理或政策限制問題,即哪些可以研發,哪些禁止研發,哪些優先研發等。

  “從我國人工智能發展現狀來看,前兩項都缺乏行業規範和相關標準及法規。”陳自富指出,一些西方國家在數據的所有權、隱私權和應用開發權的主動管理意識起步較早,對於技術開發中與社會各個利益群體之間的溝通,也有穩定的機制和監督方式。在這些方面,我國要奮起直追。

  現階段演算法的不透明性是一個普遍的問題。“企業可以對演算法主張商業機密或私有財産,一般使用者對演算法進行審查很困難。”曹建峰指出,在人工智能日益代替人類進行決策的時代,設計出驗證、知情同意、透明、可責、救濟等方面的機制,對於確保人工智能研發利用與人類社會的價值倫理一致,至關重要。

  “人工智能産品研發不僅是技術人員的事,還需要法律、倫理、哲學、社會等學科人員參與其中。IBM、谷歌等都在某種程度上建立了跨學科的人工智能倫理審查委員會,確保人工智能技術的有益性。建議我國針對人工智能研發人員,制定相關倫理準則。同時探索人工智能領域立法。”曹建峰説。(記者 龔亮 通訊員 趙雯)

分享到:

國際在線版權與信息産品內容銷售的聲明:

1、“國際在線”由中國國際廣播電臺主辦。經中國國際廣播電臺授權,國廣國際在線網絡(北京)有限公司獨家負責“國際在線”網站的市場經營。

2、凡本網註明“來源:國際在線”的所有信息內容,未經書面授權,任何單位及個人不得轉載、摘編、複製或利用其他方式使用。

3、“國際在線”自有版權信息(包括但不限于“國際在線專稿”、“國際在線消息”、“國際在線XX消息”“國際在線報道”“國際在線XX報道”等信息內容,但明確標注為第三方版權的內容除外)均由國廣國際在線網絡(北京)有限公司統一管理和銷售。

已取得國廣國際在線網絡(北京)有限公司使用授權的被授權人,應嚴格在授權範圍內使用,不得超範圍使用,使用時應註明“來源:國際在線”。違反上述聲明者,本網將追究其相關法律責任。

任何未與國廣國際在線網絡(北京)有限公司簽訂相關協議或未取得授權書的公司、媒體、網站和個人均無權銷售、使用“國際在線”網站的自有版權信息産品。否則,國廣國際在線網絡(北京)有限公司將採取法律手段維護合法權益,因此産生的損失及為此所花費的全部費用(包括但不限于律師費、訴訟費、差旅費、公證費等)全部由侵權方承擔。

4、凡本網註明“來源:XXX(非國際在線)”的作品,均轉載自其它媒體,轉載目的在於傳遞更多信息,豐富網絡文化,此類稿件並不代表本網贊同其觀點和對其真實性負責。

5、如因作品內容、版權和其他問題需要與本網聯繫的,請在該事由發生之日起30日內進行。