根據美國國防部的消息,該部門已與全球多家領先的前沿人工智能公司達成協定,允許它們在美國防部的機密網絡上部署先進的人工智能技術,用於合法作戰用途。這些公司包括美國太空探索技術公司(SpaceX)、開放人工智能研究中心(OpenAI)、谷歌、英偉達、Reflection、微軟和亞馬遜雲服(AWS)等。
美國國防部的聲明稱,這些協議將加速美國軍隊向人工智能優先作戰力量轉型,並增強美軍在所有作戰領域保持決策優勢的能力。

美國防部聲明截圖 (圖源:美國防部)
專家:AI在深刻改變現代戰爭
在人工智能(AI)快速發展的今天,人工智能在軍事上的運用會帶來哪些變化?中國國際問題研究院世界和平與安全研究所助理研究員謝卉在接受環球資訊《閃評》欄目專訪時認為:人工智能不是簡單的去增加一種新武器,而是在深刻地改變現代戰爭的組織形態,指揮模式和作戰方式。
從近年一些地區衝突可以看到,人工智能的軍事應用大體分為兩個方向,一類是用於軍事支撐體系,比如快速處理衛星、無人機、雷達和通信數據,幫助軍隊更快掌握戰場態勢,篩選目標,制定方案。
另一類是用於武器系統,比如無人機自主識別、目標規劃路線、協同作戰以及輔助火力控制等,它帶來的變化是深層次的。
過去軍事力量更多的比拼平臺火力和兵力規模,現在越來越轉向數據演算法算力和體系協同能力的競爭。人工智能可以提高情報處理效率和打擊精度,減少人員暴露在高風險戰場中的機會,也可能降低部分裝備和彈藥損耗,但同時它也會壓縮決策時間,加快戰爭的節奏,使從發現判斷到打擊這條鏈條越來越短。”
美推動AI深度介入軍事領域 加劇國際社會擔憂
美國多家媒體披露,伊朗前任最高領袖哈梅內伊在2月28日的空襲中遇害,正是美以依託人工智能技術與網絡間諜手段實現的。而就在同一天,伊朗南部一所小學遭襲,導致160多名學生遇難。美國《大西洋》月刊記者泰勒·奧斯汀·哈珀將這一事件定性為人工智能技術應用“目標識別錯誤”導致的平民傷亡事故。

英國廣播公司網站報道截圖:美國國防部長赫格塞思呼籲美軍更多地使用人工智能技術。
謝卉認為,美國推動大型科技企業深度進入軍事系統也會進一步模糊民用技術與軍事行動的邊界,加劇國際社會對人工智能軍事化失控的擔憂。
美國在軍事行動中加速使用人工智能,暴露出人工智能軍事化應用的現實隱憂,一些尚未充分驗證、透明度不足、責任邊界不清的技術,正在加速用於實戰場景,並直接影響目標識別、作戰決策和火力打擊這些關鍵環節。
人工智能確實可以提高情報分析、目標識別和作戰的規劃效率,但它並不意味著判斷一定準確,戰場環境高度複雜,數據可能過時,圖像可能模糊,通信也可能受到干擾,而且模型本身也可能存在偏差。
人工智能一旦被濫用於目標識別和打擊流程,就可能造成嚴重的平民傷亡,後果難以挽回。更需要警惕的是人類在戰爭決策中的作用可能被弱化,人工智能可以提供輔助分析,但是它不能替代人類做出生死決策。”
專家:AI應服務和平而不是讓戰爭更高效
人工智能技術在戰爭中被濫用,其倫理風險與安全隱患愈發突出。聯合國秘書長古特雷斯曾警告,人類命運不能交由演算法決定。那麼如何規制約束人工智能的發展?
中國國際問題研究院世界和平與安全研究所助理研究員謝卉認為,要讓人工智能真正地服務和平,不應該是讓戰爭更加高效,而應該是減少誤判,降低衝突升級的風險,並且更多地用於維和、排雷、人道救援、災害預警和危機管控等和平目標。
第一,必須堅持人類的最終控制,特別是涉及目標選擇、火力打擊和生死決策時,不能夠把決定權完全交給機器,人工智能可以輔助分析提供建議,但最終是否使用武力,必須由人來判斷,由人來負責。
第二,必須確保技術安全可靠,軍事環境高度複雜,數據可能不完整,通信可能受到干擾,模型也可能出現誤判,因此任何軍事人工智能系統在投入使用前都應該經過嚴格的測試和風險評估,越是接近殺傷鏈末端的系統,越要審慎使用,越要保留人工干預和緊急停止機制。
第三,必須明確責任邊界,人工智能用於軍事行動,不能導致責任不清。研發者、部署者、指揮員和使用者之間應該有清楚的責任劃分,一旦發生誤擊誤傷或者是系統失控,能夠追溯原因,認定責任,並且及時糾正。
第四,要加強國際規則建設。當前人工智能軍事化應用發展很快,但是相關的國際規範仍然不完善。國際社會應該以聯合國為主渠道,推動主要的軍事大國,人工智能技術領先的國家和廣大的發展中國家共同參與,就自主武器、人機控制、平民保護、責任追究這些問題形成基本的共識。”
來源:總臺環球資訊
記者:楊卓英
簽審:王菲
監製:劉軼瑤