科學家:須建立“道德和倫理委員會”掌控人工智能
編輯: 母曼曄 | 時間: 2016-03-23 14:42:18 | 來源: 中國新聞網 |
悉尼大學電氣工程與信息工程學院計算機工程徐東教授在工作中。許薇薇攝
悉尼大學兩位機器學習專家在此間發出警告:必須建立“道德和倫理委員會”來保持掌控人工智能,否則我們可能會變得無力抵抗。
悉尼大學電氣工程與信息工程學院計算機工程徐東教授説,近日世界圍棋賽冠軍在人機大戰中的慘敗,重新引發了人們對人工智能(AI)設備未來會扮演何種角色的擔憂。
這位研究領域包括計算機視覺、機器學習和多媒體內容分析的教授説,現在的問題是,我們應該對人工智能中自我學習進行多少控制。
“科學家們和科技界的投資者在幾年前就已經對人工智能抱有巨大的熱情,但是這臺超級計算機的勝利終於讓公眾也認識到了它的能力。這是科技界的重大突破。”徐教授説。
徐東認為,超級計算機比人類思維的更強大。競技性遊戲,例如圍棋,實際上都是有關規則的,這對一台電腦來説很容易。一旦電腦掌握了這些規則,它就會很善於玩這些遊戲。一個人類玩家可以被情緒所影響,比如壓力或高興,但電腦並不會。一個人在一年之內能夠記下1000個棋局,但計算機能記住數萬或者數十萬盤棋。超級計算機可以隨時改進,如果它輸了一局,那麼它會對此進行分析,並且在下一局表現地更好。
徐東強調,如果超級計算機能夠完全模倣人類的大腦,具有憤怒或悲傷等人類情緒,它將會更加危險。
徐東認為,對於如谷歌和facebook這樣的公司來説,建立“道德和倫理委員會”來保持掌控,使科學研究不會走向錯誤的方向,發明出來的機器不會做出任何帶有惡意的事情。
悉尼大學複雜系統的高級講師麥克·哈爾花了多年時間來研究中國古代的棋盤遊戲背後的人工智能,他説:“圍棋可能是今天普遍在玩的最複雜的遊戲。和有極大數量可能棋局的國際象棋相比,圍棋甚至擁有比宇宙中的原子數量還要多的可能性的棋局。
哈爾説:“現在已經發展到了人工智能在簡單和複雜的任務中都可以智勝人類的階段。這是需要引發擔憂的,因為人工智能技術可能在未來達到一個階段,它被應用於防禦方面,在操縱過程中已經不需要人類是可能的,也就是説已成為真正自主的人工智能(AI )”。(中新網悉尼電 許薇薇)
新聞推薦
- 微視頻|合作共贏 惠及世界2024-11-05
- 數讀中國|跨境電商主體活躍 貿易新動能加速釋放2024-11-05
- 從“接訂單”到“造需求” 潮玩之都“玩”出新花樣2024-11-05
- 兩岸(川渝)青年就業創業發展交流會在成都舉辦2024-11-05
- 兩岸媒體人點讚“兩路”精神2024-11-05
- 漳州臺商投資區首家國企超市正式開業2024-11-05