AI軍備應用爭議

多年來從事大數據業務,最不希望發生的事情,終究無法避免。美國國防部長奧斯汀(Lloyd Austin)早前在一個有關科技倫理的活動上發言:「我們將不得不學會在戰場上信任人工智能(AI)。」他提出一個在未來戰爭中令人震驚的場景,涉及美軍利用AI的快速發展和衍生的倫理挑戰。

美國陸軍未來司令部(Army Futures Command)指揮官穆雷(John Murray)說:「假設在戰場上3公里外偵測到無人機群,對手有100架半自動或全自動無人機,當中有些負責攻擊,其他則分別作偵查、干擾、指揮和控制等任務。要在電光火石間識別無人機的角色並作快速應對,超乎人類所能,故非借助人工智能不可。」上述情況在伊拉克和阿富汗似曾相識,名為C-RAM的自動化防空系統可應付間瞄火力武器的威脅,攔截導彈、火箭彈與炮彈,當啟動自動交戰功能後,最終須以人手控制方可關閉。儘管美軍稱至今為止,C-RAM已經375次成功攔截敵軍向高價值戰區發射的飛彈和迫擊炮彈,並未有造成誤傷或附帶損害。

穆雷認為,未來戰爭關鍵不在於AI技術,也並非對這些複雜系統建立信任,重點是有否相關的備戰能力和狀態,可迫使敵人卻步,他形容這是未來司令部存在的真正意義。從作戰角度看,速度乃重要取勝關鍵之一,毫無疑問,機器擁有更快的反應,能同時追蹤多個事物,且不會因此疲倦或產生恐懼。

然而,筆者覺得把AI用於戰爭絕非人類之福,應該及早制止。面對AI在軍武方面的應用日增,歐洲監管機構有截然不同的取態。歐洲議會近日規定:「使用自主武器系統瞄準目標並採取致命行動的決定,始終必須由人類發動,並在符合相稱性和必要性原則的基礎上,進行有意義的控制和判斷。」換言之,全自動決策的自主武器應被列入違法範疇。雖然圍繞此議題的爭論不絕,惟依當前相關技術的發展速度與方向判斷,以AI驅動的大規模集群武器仍屬大勢所趨。

車品覺_紅杉資本中國專家合夥人、阿里巴巴商學院特聘教授暨學術委員會委員