首頁>>軍事>>滾動>>正文

軍事AI化正重塑未來戰爭圖景

2018-04-18 16:18:21|來源:科技日報|編輯:程亞惠

  近日,谷歌3100名員工聯名發出公開信,要求谷歌退出美國國防部人工智能軍事項目——Maven計劃,並承諾永不參與打造任何類型的戰爭科技。

  隨後,4月9日,聯合國《特定常規武器公約》政府專家小組在日內瓦召開會議,專項討論“殺人機器人”可能帶來的影響。那麼,以人工智能為基礎的軍事系統,能否代替人類做出恰當的軍事決策?人工智能與軍事真的不能共存嗎?

  引領了哪些軍事變革——無人化智慧化走向現實

  “人工智能在軍事領域的應用廣泛,包括軍用人工智能機器翻譯系統、智慧電子戰系統、自動情報與圖像識別系統、人工智能武器等等。”中國指揮與控制學會青工委副主任、國防科技大學軍事專家石海明對科技日報記者表示,“在遙遠的未來,人工智能也許會像一些科幻電影中描繪的那樣,使後人類戰爭從科幻變成現實。”

  人工智能在某些軍事領域已表達出超越人類的能力。在2016年舉行的一次模擬空戰對抗比賽中,人工智能系統通過靈活、迅捷的動作擊敗了具備更強武器系統的退役戰鬥機飛行員,就像一個象棋大師輸給了電腦。

  “目前在武器裝備和指揮控制方面,人工智能主要集中在陸地、海洋、太空等各類作戰機器人的研發應用和各類智慧炸彈的研發領域。隨著數據挖掘技術、大規模並行演算法及人工智能技術的不斷完善並廣泛應用在軍事上,情報、決策與作戰一體化將取得快速進展。”石海明説。實際上,能在無人控制的情況下搜索並消除目標的自主武器就是典型應用,也是當前人工智能軍事化的最主要應用。

  石海明介紹,能夠自主運作的軍用機器人被歸為致命性自主武器系統(LAWS),目前各國發展的無人飛行器、無人地面車輛、無人水面艇等能夠自主運作的武器系統在某種程度上都屬於LAWS的範疇。這些武器裝備體現出了較高的應用價值。

  “具有人工智能的軍事機器人將改變未來戰爭形態,促進軍事理論、體制編制、作戰人員、戰法戰術等多方面的變革,使未來戰爭呈現出無人化和智慧化的特點。”石海明指出。

  是否有局限性——複雜環境程式中容易失控

  2017年人工智能國際會議上,特斯拉首席執行官馬斯克、蘋果聯合創始人沃茲、研發“阿爾法圍棋”的深度思維公司哈薩比斯等人簽署公開信,呼籲聯合國應像禁止生化武器一樣,禁止在戰爭中使用致命的自主武器和“殺手機器人”。霍金也曾指出,脫離人類控制之下的機器很難被阻止住。

  石海明認為:“由於人工智能技術的發展局限,機器人可能將在環境或執行程式複雜的情況中出現失控現象,比如在單獨執行作戰任務或人機深度交流時。”

  2007年10月,美軍第三機步師一部帶著3台“利劍”機器人進攻一個反美武裝盤踞的據點時,由於沒有及時更換軟體,其中一台“利劍”竟把槍口瞄準美軍操作者,而且無論操作員如何發出“行動取消”的指令,失控的“利劍”就是停不下來,直至用火箭筒把它炸翻才化險為夷。

  但石海明還是對人工智能未來在軍事上的應用表達了謹慎的樂觀。他認為,“這樣的思潮在人類歷史上的技術革命時期都曾出現過,比如工業革命時期的盧德運動。這一現象的本質原因在於技術異化對人類的威脅。目前來看,人工智能在軍事領域的應用潮流勢不可擋,在可預見的時期內,人工智能將在情報偵察、後勤保障、無人作戰系統等領域發揮重要作用。”

  如何降低負面影響——人機結合、以人為主

  隨著越來越多的國家投入到軍用機器人的研究與開發中去,世界已在不知不覺中滑進了一場機器人軍備競賽。

  毋庸置疑,軍事機器人相比于士兵,主要在功能、體能、效能方面具有優勢。軍事機器人可以同時承擔多項複雜任務,作戰可以更加持久,在程式設定完備後能夠高效精準達成目標,失誤率較低。特別是完全自主機器人具有持續作戰時間長、反應能力快、生存能力強等優勢,將會進一步增加戰爭的強度,與人類戰士相比具有巨大的優勢。

  然而,有關戰爭責任的倫理問題就這樣出現了,參戰的自主機器人到底是不是戰鬥員?又應當承擔何種戰爭的責任?2008年,美軍海軍研究辦公室發表的一份報告認為,用於戰爭的自主機器人無法承擔法律責任。

  石海明指出,“想要盡可能降低人工智能的負面影響,首先要堅持人機結合、以人為主的原則,人類應當保證對軍事機器人的控制權,制定應對意外事件的應急機制,建立防範機器人失控的後臺程式。另外,應當加強人工智能的技術預測與評估,在充分試驗與分析的基礎上逐步推進人工智能技術的軍事應用。”

  (原標題:軍事AI化正重塑未來戰爭圖景)

標簽:

為您推薦

新聞
娛樂
體育
軍事
汽車
返回頂端