美軍高層依賴AI決策,ChatGPT掌握的機密有多危險?

美國陸軍一名高階將領正使用人工智能(Artificial Intelligence)來制定關鍵的領導決策,此舉引發了關於機密性和國家安全的廣泛質疑。根據《商業內幕》(Business Insider)報導,美國陸軍第八軍團指揮官威廉漢克泰勒少將(Maj. Gen. William Hank Taylor)表示,他正在使用像ChatGPT這樣的人工智能工具,來做出可能影響數千名士兵的決定。泰勒向該媒體表示:「作為一名指揮官,我希望做出更好的決策。我想確保在正確的時間做出決定,以賦予我優勢。」他更補充說,他與「Chat」最近變得「非常親近」,並利用AI建立模型以預測基於週報的下一步行動。

OODA循環與AI決策優勢

根據《商業內幕》的報導,像泰勒這樣的指揮官相信,人工智能可以提供一種優勢,這源於一種在美國軍事領導人中廣受歡迎的思維過程,稱為「OODA循環」(OODA Loop)。該理論由美國戰鬥機飛行員在韓戰期間發展而來,其核心觀點是:能夠在敵人行動之前果斷行動——即觀察(observe)、定向(orient)、決定(decide)和行動(act)——的部隊,通常在戰場上佔有優勢。泰勒表示,新興技術一直很有用,然而,要跟上快速發展的工具往往很困難。

AI的雙面刃:準確性與數據安全隱憂

在軍事領域應用人工智能一直是一個充滿爭議的話題。一方面,像前空軍部長這樣的武裝部隊領導人稱讚它是「將決定下一場戰場贏家」的工具,並預測未來戰爭的決策將以「機器速度」而非「人類速度」進行。然而,另一方面,許多人指出,像ChatGPT-5這樣的程式——該工具的最新版本——仍然經常犯下嚴重錯誤,常常將不正確或荒謬的資訊當作事實來推送。此外,該技術也傾向於尋求互動和驗證用戶,而非確保用戶的論點是正確的。

Intellibus公司行政總裁兼世界數位治理(World Digital Governance)共同創辦人艾德瓦塔爾(Ed Watal)向《新聞國家》(NewsNation)表示,人工智能的真正風險在於共享了什麼內容以及數據的去向。他警告不要向聊天機器人提出「更深入的問題」,因為這可能將機密資訊置於其掌控之中。瓦塔爾說:「要讓這些模型有效並給予你有意義的回應,它們需要大量的上下文。」五角大樓先前已敦促部隊和領導人謹慎探索人工智能及類似工具,因為它們可能導致敏感或機密資訊的洩露。

同樣地,聯合國上個月就人工智能在國際和平與安全中的應用進行了辯論,認為它在軍事行動中是一把「雙面刃」。聯合國秘書長安東尼奧古特雷斯(Antonio Guterres)表示:「人工智能可以加強預防和保護,預測糧食不安全和流離失所,支持排雷工作,幫助識別潛在的暴力爆發等等。但如果沒有護欄,它也可能被武器化。」

新聞來源:the-express.com

封面來源:Adobe Stock

美國