商傳媒|何映辰/台北報導
隨著人工智慧(AI)技術不斷發展,各國軍隊正逐步將生成式人工智慧(Generative AI)導入戰情室,透過大型語言模型(LLM)為指揮官提供戰場建議。這項趨勢正重塑情報分享、與大型科技公司合作的模式,以及軍事決策的過程。
根據《MIT Technology Review》報導,相較於過去的 AI 技術,例如阿富汗戰爭時期用於篩檢監控畫面、辨識機槍卡車的演算法,新一代的對話式 AI 系統更進一步,開始承擔為決策者提供建議的角色。烏克蘭已開發出利用 AI 進行自主導航的無人機,而以色列則部署 AI 系統從情報數據中識別潛在目標。
早在十年前,AI 工具就已自動化了部分情報分析師的任務,例如從社群媒體或衛星影像中找出重要訊號。美國軍隊的 Maven 系統(主要採用 Palantir 技術)將這些分析整合,協助指揮官在全球範圍內選定目標。一位美國國防官員透露,軍事人員現已開始讓聊天機器人協助他們排出潛在目標的優先順序。
值得注意的是,AI 公司 Anthropic 開發的 Claude 模型已深度整合至美軍的作戰行動中。儘管美方已將 Anthropic 列為供應鏈風險,美國政府仍坦承,若要移除 Claude,預計將耗費長達六個月的時間。喬治城大學安全與新興科技中心(Center for Security and Emerging Technology)的分析也指出,中國軍方同樣在開發類似的 AI 輔助建議工具。
然而,AI 在軍事應用上仍存在顯著挑戰。生成式 AI 的輸出具有變異性,其提供的建議不總是實用、精確或正確,需要使用者仔細驗證。軍事專家警告,在高壓情境下,特別是需要快速決定目標時,軍事人員可能會在驗證 AI 輸出時便宜行事,導致誤判。此外,對 AI 系統的過度依賴,可能使軍官忽視複雜的戰場數據,或讓科技公司對資訊傳播產生不當影響力。
目前,大眾對於軍方使用 AI 及其潛在錯誤缺乏有效的監督與審查機制。五角大廈(Pentagon)一份一月份的備忘錄甚至將「負責的 AI」(responsible AI)形容為「烏托邦式的理想主義」。儘管如此,OpenAI 等 AI 公司仍積極爭取有利可圖的國防合約。五角大廈也計畫允許企業利用機密軍事數據訓練新的 AI 模型,這可能帶來將敏感情報納入模型本身的新安全風險。


