環球創業頻道導航欄_fororder_WechatIMG203

    滾動   |   環球快訊   |   環球專訪   |   政策解讀   |   會員頁面   

三問人工智能:將拷問倫理規範 你會愛上機器人嗎

2017-07-11 17:28:14  來源:人民日報  編輯:林洪洋   責編:許煬

  近來,美國一家公司生産的超倣真機器人Sophia在電視節目上與人類對答如流,成為“網紅”機器人。對話中,Sophia流露出的喜悅、驚奇、厭惡等表情真實得令人讚嘆,網友驚呼:快和真人分不清了!

  技術往往是一把雙刃劍。人工智能在迅速發展的同時,也帶來了一些困惑和挑戰。人工智能會産生自主意識和情感嗎?會不會因此給人類社會帶來衝擊?

  法律爭議

  假設無人車傷了人,那麼是開發者負責還是駕駛公司負責

  關於人工智能帶來的“倫理困境”,讓很多專家感到糾結。儘管這樣的場景在目前還只存在於設想中:一輛載滿乘客的無人駕駛汽車正在行駛,遭遇一位孕婦橫穿馬路的突發狀況,如果緊急剎車可能會翻車傷及乘客,但不緊急剎車可能會撞到孕婦。這種情況下,無人車會怎麼做?

  如果司機是人,那個瞬間完全取決於人的清醒判斷,甚至是本能或直覺。可當人工智能陷入人類“倫理困境”的極端情景時,其每一步都是通過演算法設定好了的。

  “無人車依靠的是人工智能大腦,它目前不可能做超出人類演算法中所設定範圍的行為決策。”浙江大學計算機學院教授吳飛説,將全國每年的交通事故數據“喂”給計算機,人工智能可以學習海量數據裏隱含的各種行為模式。簡單來説,就是無人車會從以往案例數據庫中選取一個與當前情景較相似案例,然後根據所選取案例來實施本次決策。

  但遇到完全陌生的情景,計算機會怎麼辦?“無人車第一個選擇仍然是搜索,即在‘大腦’中迅速搜索和當前場景相似度大於一定閾

  值的過往場景,形成與之對應的決斷。如果計算機搜索出來的場景相似度小于閾值,即找不到相似場景,則演算法可約束無人車隨機選擇一種方式處理。”吳飛説。

  “程式員可通過代碼來約定無人車如何做,但這種約定始終要遵循普遍的社會倫理。這個過程中,程式員要和倫理學家一同參與把關,程式員要將符合倫理的決策用代碼的形式體現出來,輸入到系統中。”吳飛認為。

  無人車傷害了人類,誰來負責呢?

  “當前人工智能尚未達到類人智慧或超人智慧水準,不能將人工智能作為行為主體對待。”浙江大學教授盛曉明説,從技術角度看,現在技術實現層次還很低,行為體出了問題肯定只能找它的設計者。從哲學角度看,賦予人工智能“主體”地位很荒誕。“主體”概唸有一系列限定,譬如具有反思能力、主觀判斷能力以及情感和價值目標設定等。人工智能不是嚴格意義上的“智慧”。

  “人工智能表現出來的智慧以及對人類社會道德行為規範的掌握和遵循,是基於大數據學習結果的表現,和人類主觀意識有本質的不同。人工智能不是生物,構不成行為主體,傳統司法審判無法照搬到人工智能身上。因此,人工智能不可以作為社會責任的承擔者。”中國社科院社會學研究所副研究員趙聯飛持同樣觀點。

  “以無人車為例,究竟由人工智能開發者負責,還是無人駕駛公司負責甚至任何的第三方負責,或者這幾者在何種情形下各自如何分擔責任,應當在相關人工智能的法律法規框架下通過制訂商業合同進行約定。”趙聯飛説。

  情感迷思

  人與人工智能出現類夫妻、父女等情感,將考問現代倫理規範

  科幻影迷一定不會忘記這幾個片段:電影《機械姬》的結尾,機器人艾娃産生了自主意識,用刀殺了自己的設計者;在電影《她》中,人類作家西奧多和化名為薩曼莎的人工智能作業系統産生了愛情。只可惜,西奧多發現薩曼莎同時與很多用戶産生了愛情,二者所理解的愛情原來根本不是一回事。

  儘管科幻電影對人工智能的描述偏向負面,但它也在一定程度上表達了人類的焦慮和擔憂。現實中,人工智能會擁有自主意識,和人類會産生情感嗎?

  “這要取決於如何界定‘産生’一詞。人工智能的自主性,仍然取決於所學習的樣板和過程。正如阿爾法狗對每一步對弈的選擇是從海量可能棋局中選擇一種走法一樣,這種自主在終極意義上是一種有限的自主,它實際上取決於所學習的那些內容。”在趙聯飛看來,人工智能意識和情感的表達,是對人類意識和情感的“習得”,而不會超過這個範圍。

  機器能不能超出對人類的學習,主動産生意識和情感?吳飛認為,以目前的研究來看,這是遙不可及的。但有一種假設的、可供探討的路徑是,通過把人的大腦認識通透,就可以造一個像人的大腦一樣的機器出來。“遺憾的是,我們對人的大腦如何産生意識和情感這些根本問題還了解不夠。”

  人工智能越來越像人,人類對機器有了感情怎麼辦?

  “人類是否會與人工智能産生感情,將取決於這種過程是否給人類帶來愉悅。正如互聯網發展早期的一句常用語所説——在互聯網上,沒人知道你是一條狗。這表明,當人類在不知道溝通者的身份時,只要對方能夠給自己帶來愉悅,感情就可能産生。”趙聯飛認為,這可能會對人類的交往模式帶來影響。比如説,未來,知識型的人工智能可以回答人們能夠想到的很多問題,從而導致個體學習方式、生活方式乃至社會化模式的變革。

  假如人與人工智能出現類夫妻、父女等情感,將考問現代倫理規範。“如果社會主流意見認為這種關係符合倫理,人們可能傾向於以類似于夫妻、父女之間的倫理準則來調節二者之間的關係;但如果人們始終認為,人與人工智能之間的關係是人佔主導地位的‘遊戲關係’,那麼相應的倫理標準也就無從談起。”趙聯飛説。

  未雨綢繆

  專家建議完善人工智能技術規範和法律約束

  面對人工智能帶來的種種衝擊,專家認為,上世紀50年代美國科幻小説家阿西莫夫提出的機器人三大定律,今天依然有借鑒意義。這三大定律是:機器人不得傷害人,也不得見人受到傷害而袖手旁觀;機器人應服從人的一切命令,但不得違反第一定律;機器人應保護自身的安全,但不得違反第一、第二定律。

  “歸根結底,人是智慧行為的總開關。”吳飛認為,人類完全可以做到未雨綢繆,應對人工智能可能帶來的威脅。

  “開發者應該始終把人工智能對社會負責的要求,放在技術進步的衝動之上。正如生物克隆技術,從提出克隆技術那一天開始,克隆的社會倫理問題就始終優先於克隆的技術問題。”趙聯飛認為,人類應該在開發人工智能的過程中,逐步積累控制人工智能的經驗和技術,尤其是防止人工智能失控的經驗和技術。

  在技術上加強對人工智能的控制是完全可行的。“人工智能儘管日益高級,但究其根本,仍然是在智慧程式對大量數據處理基礎上得到的結果。進行編程時,開發者可以通過程式對其進行安全設置。比如,如果識別出來是人類,要自動保持距離;不能做出攻擊性動作,從力學幅度上予以約束。”中科院自動化所研究員孫哲南説,還可以把人類的法律規範和道德要求用代碼的形式寫入機器,全部數字語言化,使其遵守人類的行為準則。

  “除了設計和建造要遵循技術規範,還可由政府有關部門牽頭,成立由人工智能技術專家、社會科學研究人員、政府管理人員為核心的人工智能管理委員會,對涉及人工智能的研究和開發項目進行審核評估,嚴格控制從技術轉化為産品的環節。”趙聯飛認為,此外,應從多個方面加強對人工智能的研究,跟蹤、了解人工智能的發展趨勢和實踐,開展以未來學為基本範式的研究。(記者  劉詩瑤)

分享到:

國際在線版權與信息産品內容銷售的聲明:

1、“國際在線”由中國國際廣播電臺主辦。經中國國際廣播電臺授權,國廣國際在線網絡(北京)有限公司獨家負責“國際在線”網站的市場經營。

2、凡本網註明“來源:國際在線”的所有信息內容,未經書面授權,任何單位及個人不得轉載、摘編、複製或利用其他方式使用。

3、“國際在線”自有版權信息(包括但不限于“國際在線專稿”、“國際在線消息”、“國際在線XX消息”“國際在線報道”“國際在線XX報道”等信息內容,但明確標注為第三方版權的內容除外)均由國廣國際在線網絡(北京)有限公司統一管理和銷售。

已取得國廣國際在線網絡(北京)有限公司使用授權的被授權人,應嚴格在授權範圍內使用,不得超範圍使用,使用時應註明“來源:國際在線”。違反上述聲明者,本網將追究其相關法律責任。

任何未與國廣國際在線網絡(北京)有限公司簽訂相關協議或未取得授權書的公司、媒體、網站和個人均無權銷售、使用“國際在線”網站的自有版權信息産品。否則,國廣國際在線網絡(北京)有限公司將採取法律手段維護合法權益,因此産生的損失及為此所花費的全部費用(包括但不限于律師費、訴訟費、差旅費、公證費等)全部由侵權方承擔。

4、凡本網註明“來源:XXX(非國際在線)”的作品,均轉載自其它媒體,轉載目的在於傳遞更多信息,豐富網絡文化,此類稿件並不代表本網贊同其觀點和對其真實性負責。

5、如因作品內容、版權和其他問題需要與本網聯繫的,請在該事由發生之日起30日內進行。