霍金警告人工智能危險性 稱其若失控很難被阻止
| 編輯: 母曼曄 | 時間: 2016-06-29 15:47:22 | 來源: 中國新聞網 |

資料圖:著名天體物理學家霍金。記者 張子揚 攝
據外媒報道,著名天體物理學家史蒂芬·霍金認為,人工智能應該在符合倫理道德和安全措施要求的情況下開發,因為脫離人類控制之下的機器很難被阻止住。
美國知名記者拉裏·金對霍金進行了採訪。霍金在採訪中承認,他不認為發展人工智能一定能讓人類朝好的方向發展。
霍金表示:“當機器發展到能自己演化的重要階段之時,它們的目標與人類願望之間的相符程度就很難預料了。”
他指出,人工智能可以比人類的智慧發展得更快。

資料圖:著名天體物理學家霍金。
他説:“有益的人工智能可以與人類共存,並擴大人類的可能性。但失控的人工智能很難被阻止。在開發人工智能時必須保證符合道德倫理與安全措施的要求。”
他認為,有益的人工智能將出現在人類生活的各方面。
霍金説:“想像一下那些可以對科學家想法迅速作出評價、更早地查出癌症、並預測證券市場走勢的人工智能!它們將影響到我們的經濟,影響到我們的決策,並在整體上影響我們的生活。”
新聞推薦
- 多組數據看2025年中國外貿“含新量”“含綠量”“含智量”2026-01-16
- 生鮮果蔬、年宵花卉、特色美食齊上陣 節前消費新圖景活力涌動2026-01-16
- 2026年“鄉親相愛一家人”臺胞迎新春聯誼活動(寧德站)舉辦2026-01-16
- 台灣網友失散的親人找到了!90歲湖北老人隔海呼喚:“期盼侄孫回家”2026-01-16
- 四大洲花滑錦標賽下周北京上演 雙奧場館再迎世界級角逐2026-01-16
- 《東京夢華錄》《清明上河圖》同款美食,這份早餐“攻略”裏都有!2026-01-16






