科學家:須建立“道德和倫理委員會”掌控人工智能
編輯: 母曼曄 | 時間: 2016-03-23 14:42:18 | 來源: 中國新聞網 |
悉尼大學電氣工程與信息工程學院計算機工程徐東教授在工作中。許薇薇攝
悉尼大學兩位機器學習專家在此間發出警告:必須建立“道德和倫理委員會”來保持掌控人工智能,否則我們可能會變得無力抵抗。
悉尼大學電氣工程與信息工程學院計算機工程徐東教授説,近日世界圍棋賽冠軍在人機大戰中的慘敗,重新引發了人們對人工智能(AI)設備未來會扮演何種角色的擔憂。
這位研究領域包括計算機視覺、機器學習和多媒體內容分析的教授説,現在的問題是,我們應該對人工智能中自我學習進行多少控制。
“科學家們和科技界的投資者在幾年前就已經對人工智能抱有巨大的熱情,但是這臺超級計算機的勝利終於讓公眾也認識到了它的能力。這是科技界的重大突破。”徐教授説。
徐東認為,超級計算機比人類思維的更強大。競技性遊戲,例如圍棋,實際上都是有關規則的,這對一台電腦來説很容易。一旦電腦掌握了這些規則,它就會很善於玩這些遊戲。一個人類玩家可以被情緒所影響,比如壓力或高興,但電腦並不會。一個人在一年之內能夠記下1000個棋局,但計算機能記住數萬或者數十萬盤棋。超級計算機可以隨時改進,如果它輸了一局,那麼它會對此進行分析,並且在下一局表現地更好。
徐東強調,如果超級計算機能夠完全模倣人類的大腦,具有憤怒或悲傷等人類情緒,它將會更加危險。
徐東認為,對於如谷歌和facebook這樣的公司來説,建立“道德和倫理委員會”來保持掌控,使科學研究不會走向錯誤的方向,發明出來的機器不會做出任何帶有惡意的事情。
悉尼大學複雜系統的高級講師麥克·哈爾花了多年時間來研究中國古代的棋盤遊戲背後的人工智能,他説:“圍棋可能是今天普遍在玩的最複雜的遊戲。和有極大數量可能棋局的國際象棋相比,圍棋甚至擁有比宇宙中的原子數量還要多的可能性的棋局。
哈爾説:“現在已經發展到了人工智能在簡單和複雜的任務中都可以智勝人類的階段。這是需要引發擔憂的,因為人工智能技術可能在未來達到一個階段,它被應用於防禦方面,在操縱過程中已經不需要人類是可能的,也就是説已成為真正自主的人工智能(AI )”。(中新網悉尼電 許薇薇)
新聞推薦
- 兩岸産業交流對接系列活動在江蘇舉辦2024-11-22
- 事關中國和東盟 這個論壇首次“亮相”世界互聯網大會烏鎮峰會2024-11-22
- 中國同巴西、南非、非盟共同發起開放科學國際合作倡議2024-11-22
- 【圖解】從多個“首次”看中國經濟企穩回升2024-11-21
- 中共中央臺辦、國務院臺辦在蘇州舉辦臺商座談會2024-11-21
- 台北多輛公交車登出大幅廣告 要求廢除2019版課綱2024-11-21