2024年10月14日 星期一

夏洛山:AI武器上戰場前夕 再引道德擔憂

夏洛山:AI武器上戰場前夕 再引道德擔憂

 

【大紀元2024年10月14日訊】美國還需要多長時間才能做好與致命的自主攻擊機器人並肩作戰的準備?儘管答案還不確定,但可能不會很久。技術的發展使這種可能性相當的真實,同時也伴隨著嚴重的道德風險。

 

在2022年烏克蘭戰爭爆發之前,小型無人機就已經開始改變戰爭面貌。隨著人工智能的快速發展,最新的攻擊和偵察無人機在自主能力的加持下,能夠在更少甚至無需操作員介入的情況下完成更多更複雜的任務。

 

10月10日,總部位於華盛頓的安杜里爾工業公司(Anduril)推出了Bolt系列便攜式垂直起降(VTOL)自主飛行器(AAV),為完成戰場上各種複雜任務提供了可能性。Bolt的基本型專為情報、監視、偵察(ISR)和搜救任務而設計。Bolt-M則是在原始的Bolt基礎上發展而來的攻擊型變體,旨在為地面部隊提供致命的精確火力,自主執行準確追蹤和打擊目標的作戰任務,同時為操作員提供四個簡單的決策方式:觀察、遵循什麼規則、如何參與,以及何時發動攻擊。

 

Bolt-M專為快速部署而設計,具有操作簡單、便於攜帶的特點,可提供自主航路點導航、追蹤和交戰方式選項。它具有超過40分鐘的續航時間和可以掩護地面部隊作戰的大約20公里的控制範圍。而且,Bolt-M的彈藥有效載荷達到3磅,可對靜止或移動的地面目標包括輕型車輛、步兵、戰壕等目標進行毀滅性打擊。

 

目前,不管是戰場上的烏克蘭軍隊還是美國陸軍的第一人稱視角無人機(FPV,First-person view)操作員,都需要進行特殊培訓才能執行任務,而且還有許多操作限制。人工智能的Bolt-M給FPV操作員帶來的好處是,不再需要複雜的操作訓練就可以勝任作戰要求,並提供比現有無人機更多的信息和功能。

 

安杜里爾公司與美國海軍簽訂了一份合同,在美國海軍陸戰隊「建制内精確火力-輕型部隊」(OPF-L,Organic Precision Fires-Light)項目背景下開發一種自主攻擊型無人機。其核心技術體現在安杜里爾公司開發的Lattice平台提供的人工智能軟件。操作員只需要在戰場監視器上繪製邊界框,設定一些規則,就可以讓無人機自主地完成作戰任務。

 

Bolt-M的自主能力來自Lattice平台,該平台可以整合來自各種感測器和原始數據庫的信息,並將這種能力與各種無人機融合。Lattice平台在整個殺傷鏈上為無人機提供了儘可能多的自主能力,並讓人類參與其中,以便他們能夠更快地做出更好的決策。

 

一旦人工智能識別出目標,操作員就可以給Bolt-M指定一個目標區域,不管這個目標所在位置是否超出視覺監視範圍,即使目標是移動的,系統也能夠準確跟蹤和瞄準目標。無人機內置的視覺和導引算法,能夠在無人機與操作員失去連接的情況下,保持終端導引,並發動有效攻擊。

 

Bolt-M還可以幫助其操作員了解戰場上正在發生的情況,並按照操作員的指令跟蹤、監視和攻擊目標。比如俄羅斯的龜殼坦克或加裝防護偽裝的其它車輛,也許電腦無法識別,系統仍然可以將這種洞察力反饋給操作員,讓操作員做出決定。關鍵是,這些具有致命殺傷能力的無人機可以在鏈路斷開失去操作員控制的情況下,仍能保持對目標的控制並自主完成先前操作員發出的命令。

 

但是,Bolt-M的自主攻擊能力還是突破了五角大樓原則極限,即機器人武器應該始終有人參與致命決策。五角大樓保留了一份人工智能道德原則清單,其中規定人類必須能夠對人工智能武器「做出適當的判斷,並對開發、部署和使用負責」。去年,五角大樓就試圖澄清什麼是允許的,什麼是不允許的,同時留出空間,以便在情況改變時調整規則。

 

隨著無人機在戰場上更加有效,對自主攻擊無人機的需求也在迅速增加。而像安杜里爾公司這樣的工業部門,在技術上實現無人機自主攻擊能力幾乎已不成問題,關鍵是如何在道德約束和致命自主攻擊之間取得平衡。工業部門不會去解決道德層面的問題,但是他們要根據政府的政策、參與規則的限制、管理和約束條件,以及使用者的要求,使系統儘可能強大。

 

然而,烏克蘭戰場的重要教訓之一是戰場條件可能變化得非常快。不同國家,無論是盟友還是對手,都會有不同的關於自主致命武器開發和使用的道德標準,這在很大程度上取決於戰場上發生的事情。這種不確定性或沒有共識的後果是嚴重的,因為雖然五角大樓和美國各部門大力強調人工智能的道德,以及確保使用致命武力的「人在循環中」的必要性,但幾乎無法保證對手會接受類似的約束。這給五角大樓帶來前所未有的風險,這也是為什麼在作戰行動和武器開發方面,目前美國軍方、政府和工業部門有如此多的努力來優化人工智能、自主性和機器學習的使用。

 

美國陸軍一直在為此積極努力,確保與人工智能安全相關的後續步驟實施。最近,美國陸軍啟動了「100天」人工智能風險評估計劃,以確保、強化和改進人工智能系統在道德約束下的發展。這些努力強調人類和機器能力的重要性。

 

不僅五角大樓要求必須遵循關於「人在致命武力循環中」的原則,而且美國陸軍技術開發人員也認識到,先進的人工智能計算方法,在某些方面根本無法複製人類至關重要的關鍵且更主觀的意識,比如道德、直覺、意識、情感等等。這些只是決策核心的許多明顯人類屬性的一小部分,但這些屬性在作戰行動中可能是至關重要的。缺少人類屬性的單純技術,不僅存在道德風險,也可能不能完美應對複雜的戰場局面。

 

責任編輯:連書華

 

 

沒有留言:

張貼留言