
虛擬實境裝置公司 Oculus 創辦人、軍工科技企業 Anduril 行政總裁 Palmer Luckey 近日在電視訪談表示,應允許人工智能在戰爭中參與生死決策,再次引起關於「殺手機械人」的倫理爭議。這位身家達 35 億美元(約港幣 273 億元)科技企業家認為,若戰爭目標是減少平民傷亡,採用精準度更高 AI 系統反而具「道德優越性」。
主張精準技術勝過人類控制
Luckey 在 Fox News 節目指出,涉及生死抉擇問題「道德負擔過於沉重、風險過於關鍵」,各國應不惜代價採用最先進技術,無論是人工智能、量子技術或其他工具。他直言選擇性能較差技術只為維護「我們從不讓機器下殺人命令」道德姿態,不能真正帶來更高人道標準。
關鍵並非人為劃定「機械人不能決定誰生誰死」紅線,而是盡可能提升效率和準確性,減少誤傷及錯誤決策。這表態與 Anduril 業務方向高度一致,該公司自 2017 年成立以來專注研發無人機、地面車輛、監視塔台及各類感應器,並透過名為 Lattice 的 AI 指揮與控制平台整合這些硬件。
OpenAI 加入軍事 AI 合作
2024 年 12 月初,Anduril 宣布與 OpenAI 建立戰略合作夥伴關係,計劃在國家安全領域「負責任地部署」先進人工智能技術。合作首先聚焦反無人機系統等防禦用途,協助偵測及擊落威脅美軍無人機,提升實時探測、評估及應對空中威脅能力。OpenAI 發言人強調合作符合公司規定,因聚焦防禦系統。
科技企業在軍用 AI 研發立場正悄然鬆動。Google 今年年初悄然刪除此前承諾「不將 AI 應用於武器等有害用途」關鍵表述,促使業界再度討論科技公司在戰爭中的角色邊界。
核武控制與 AI 引發警惕
AI 裝備不斷演進背景下,外界更關注這類技術會否引入核武控制體系。2024 年 5 月,美國曾公開承諾核武器控制權必須始終由人類掌握,並呼籲中俄作出同樣保證。惟不久後五角大樓表示希望利用 AI「增強」核指揮、控制及通訊系統能力,微妙表態變化令觀察人士警惕。
去年有研究團隊使用 GPT-4、GPT-3.5、Claude 2.0、Llama-2-Chat 及 GPT-4-Base 等多種大型模型進行國際衝突情景模擬,結果顯示這些系統在博弈過程存在明顯升級傾向。有時在缺乏充分理由及預警情況下主動選擇動用核武,甚至出現類似「既然有這種武器,那就用吧」激進表述,突顯將生死決策外判給機器的巨大風險。
軍工企業快速擴張
Anduril 目前估值達 305 億美元(約港幣 2,379 億元),員工超過 6,000 人,2025 年獲得 25 億美元(約港幣 195 億元)融資。公司最近獲美軍 9,960 萬美元(約港幣 7.77 億元)合約,開發新一代指揮控制系統原型,協助現代化戰場通訊。Luckey 確認公司計劃上市,指「像 Anduril 這樣的公司若要贏得價值數萬億美元合約,不可能以私人公司形式運作」。
他亦透露公司武器系統已在烏克蘭摧毀價值數億美元俄羅斯軍事資產。隨著 AI 戰機、無人集群及自動化防禦系統快速發展,圍繞「應否讓機器決定人類生死」討論正成為科技倫理與國際安全領域核心議題之一,各國在追逐技術優勢與堅守人道底線之間面臨尖銳矛盾。雖然近 60 個國家軍方已支持美國發起「負責任使用軍事 AI」政治宣言,但關於自主武器系統能否應用國際人道法原則,仍存在高度不確定性。
資料來源:cnBeta
分享到 :
最新影片

Follow 我們 :
|
鍾意就快D Share啦!
|
|
|


