如果智能自主武器是戰(zhàn)爭的未來,那么美國也就別無選擇,只能努力應(yīng)對它的復(fù)雜性。
國會(huì)任命了一個(gè)國家人工智能安全委員會(huì),最近,它得出結(jié)論,”我們可以期待人工智能能力的大規(guī)模擴(kuò)散”。最近的利比亞沖突似乎驗(yàn)證了關(guān)于人工智能(AI)的這一結(jié)論,根據(jù)聯(lián)合國的一份報(bào)告,忠于利比亞將軍哈利法-哈夫塔爾的士兵,使用了土耳其制造的Kargu-2無人機(jī),”追捕并遙控參與”撤退的部隊(duì)。目前還不清楚Kargu-2是否使用了它的智能自主能力,但是,土耳其政府承認(rèn)它可以提供這種能力。
同樣,俄羅斯在入侵烏克蘭期間也使用了KUB-BLA游蕩彈藥,據(jù)說還有柳葉刀3。當(dāng)然,這里的一些細(xì)節(jié)也很模糊。一些分析家對KUB-BLA是否擁有人工智能自主能力持懷疑態(tài)度,而且,關(guān)于使用柳葉刀3的說法,不是來自獨(dú)立核實(shí)的戰(zhàn)場圖像,而來自俄羅斯國有國防集團(tuán)Rostec。正是該集團(tuán)擁有柳葉刀3的制造商。更加令人困惑的是:在每種情況下,無人機(jī)的自主操作顯然是一種選擇,盡管它可能不會(huì)被行使。這使得核查工作變得相當(dāng)困難。
不那么模糊的是,美國需要考慮關(guān)于自主武器不擴(kuò)散和反擴(kuò)散的政策。這種政策需要根據(jù)特定武器的軍事價(jià)值、對區(qū)域和全球競爭的影響以及獲取的難易程度,進(jìn)行細(xì)微的調(diào)整和風(fēng)險(xiǎn)告知。在某些情況下,美國應(yīng)將自主武器視為外交政策中的另一個(gè)工具:廣泛分享武器以支持盟友并削弱對手。在其他情況下,美國應(yīng)該積極追求不擴(kuò)散和反擴(kuò)散,甚至包括對美國使用某些自主武器也采取有約束力的限制。
認(rèn)清擴(kuò)散的風(fēng)險(xiǎn)
嚴(yán)格來說,自主武器只是一種能夠自行選擇和攻擊目標(biāo)的武器。實(shí)際上,任何可以想象到的武器系統(tǒng)都可以讓它變成自主武器。閑置彈藥、地雷、主動(dòng)防護(hù)系統(tǒng)以及反火箭、火炮和迫擊炮系統(tǒng)都在使用先端技術(shù),根據(jù)細(xì)節(jié),就可能屬于自主武器的范疇。
中國最近公布了能夠發(fā)射無人機(jī)群的無人母艦,俄羅斯也正在研究用于反潛戰(zhàn)的海底潛行器群,而印度則已經(jīng)展示了一個(gè)能夠自主打擊士兵和車輛的75架無人機(jī)群。人工智能(AI)的發(fā)展是一個(gè)關(guān)鍵的推動(dòng)因素,它可以保證更好地探測物體和改善決策。因此,基于AI的自主武器是一個(gè)關(guān)鍵的新興問題。然而,嚴(yán)格來說,人工智能并不是一個(gè)系統(tǒng)自主的必要條件。不過,這篇文章將基于人工智能的系統(tǒng)作為當(dāng)前的主題。
系統(tǒng)的廣泛性意味著對擴(kuò)散的關(guān)注有很大的不同。美國可能不需要太擔(dān)心防御性系統(tǒng)的擴(kuò)散;它甚至可以鼓勵(lì)擴(kuò)散,以保護(hù)關(guān)鍵基礎(chǔ)設(shè)施免受多架無人機(jī)的攻擊。
美國向阿拉伯聯(lián)合酋長國出售F-35戰(zhàn)斗機(jī)的”會(huì)”與”不會(huì)”的動(dòng)態(tài),說明了細(xì)節(jié)的重要性。美國國防部高級研究計(jì)劃局(DARPA)的實(shí)驗(yàn)發(fā)現(xiàn),人工智能駕駛的F-16戰(zhàn)斗機(jī)在斗狗中占了上風(fēng)。該技術(shù)仍處于非常初級的階段,模擬并不是現(xiàn)實(shí),但是,未來具有類似能力的作戰(zhàn)系統(tǒng),可能會(huì)大大影響區(qū)域權(quán)力平衡。因此,出口和更廣泛的擴(kuò)散問題,應(yīng)基于對現(xiàn)有力量平衡以及自主武器如何塑造這種力量的仔細(xì)評估。
一般來說,人工智能自主系統(tǒng)的軍事價(jià)值來自于質(zhì)量和速度。從理論上講,讓人類從擺脫循環(huán)使用可以降低系統(tǒng)成本,使行為者可以部署更多的系統(tǒng),并有可能壓倒大型、昂貴的平臺?;蛘咭粋€(gè)國家可以創(chuàng)建廣泛的戰(zhàn)斗網(wǎng)絡(luò),在一個(gè)地區(qū)分配大量廉價(jià)的自主武器。人工智能也可能允許更快的戰(zhàn)術(shù)決策,更迅速地完成從感覺到?jīng)Q策的循環(huán)過程。自主武器的可負(fù)擔(dān)性表明它們可能有利于防御。不過,由于應(yīng)用如此廣泛,一時(shí)很難得出明確的結(jié)論。
系統(tǒng)的可靠性也是一個(gè)關(guān)鍵因素。人道主義者喜歡強(qiáng)調(diào)自主錯(cuò)誤的風(fēng)險(xiǎn)。畢竟機(jī)器視覺的自主武器可能很容易被欺騙,也許會(huì)殺害平民。但是,可靠性也有重大的軍事后果。未能摧毀目標(biāo)的武器,就是對資源的浪費(fèi),甚至使士兵處于危險(xiǎn)之中。它也可能產(chǎn)生戰(zhàn)略影響,比如危機(jī)的意外升級或展示實(shí)力的失敗。
盡管武器設(shè)計(jì)者肯定會(huì)致力于建造可靠的自主武器,但人工智能的不可預(yù)測性、數(shù)據(jù)依賴性和計(jì)算限制,很可能會(huì)限制系統(tǒng)的可靠程度。各國的風(fēng)險(xiǎn)容忍度也會(huì)不同:美國幾十年前就放棄了化學(xué)武器,部分原因是它們太不可靠;巴沙爾-阿薩德政府在正在進(jìn)行的敘利亞內(nèi)戰(zhàn)中廣泛使用化學(xué)武器。對于一個(gè)試圖鎮(zhèn)壓國內(nèi)反對派團(tuán)體的專制政權(quán)來說,一些不可靠的東西可能比錯(cuò)誤更有特點(diǎn)。
建造簡單的基于人工智能的自主武器,表面上幾乎是微不足道,甚至很容易在網(wǎng)上找到建造自主彩彈槍炮塔的指導(dǎo)。然而,要建立一個(gè)強(qiáng)大的系統(tǒng),以適應(yīng)戰(zhàn)場上的眾多復(fù)雜情況,那就要困難得多。識別人是一回事,那么坦克或裝甲運(yùn)兵車呢?如果下雨、下雪、有霧或只是陰天怎么辦?如果目標(biāo)被部分遮擋怎么辦?如果坦克上畫著一個(gè)大”Z”怎么辦?如果各國采用未經(jīng)測試和不可靠的自主武器,根本沒有去充分考慮到這些因素,那么美國實(shí)際上可能要鼓勵(lì)更可靠的系統(tǒng)的擴(kuò)散。這可能包括提供技術(shù)援助以評估和提高系統(tǒng)的可靠性,提供訓(xùn)練有素的人工智能算法,或提供完整的武器。
基于人工智能的自主武器擴(kuò)散的可能性,也會(huì)有所不同。為了考慮擴(kuò)散途徑,我們將考慮一個(gè)假想的自主戰(zhàn)斗機(jī),即F-AI。
擴(kuò)散途徑
假定到了2050年,美國正在使用一種新的戰(zhàn)斗機(jī),即F-AI。F-AI幾乎能完全自主:它可以識別和對付對手的戰(zhàn)斗機(jī),根據(jù)外部數(shù)據(jù)反饋避開對手的防空系統(tǒng),執(zhí)行人類指定的任務(wù),并執(zhí)行基本活動(dòng),如規(guī)劃路線、空中加油和降落。F-AI比上一代空中優(yōu)勢戰(zhàn)斗機(jī)包括一些系統(tǒng)升級,然而,它的主要變化是AI戰(zhàn)斗芯片。人工智能戰(zhàn)斗芯片是在戰(zhàn)斗中允許高度精確的自主運(yùn)動(dòng),預(yù)測敵人的運(yùn)動(dòng),并選擇和發(fā)射一系列的彈藥。DARPA的人工智能狗斗實(shí)驗(yàn)可以說是有先見之明,其中F-AI徹底地主宰了天空。自然,美國不希望戰(zhàn)機(jī)落入壞人之手。為此,美國需要擔(dān)心三件事:系統(tǒng)捕獲、非法販運(yùn)和本土開發(fā)。
2011年,伊朗聲稱通過欺騙全球定位系統(tǒng)和干擾通信,捕獲了一架洛克希德-馬丁公司的RQ-170哨兵無人機(jī)。美國否認(rèn)伊朗做到這一點(diǎn),但顯然需要考慮這種可能性,特別是在系統(tǒng)納入更大的自主權(quán)之后。人工智能有脆弱性,其中一個(gè)像素的變化甚至可能導(dǎo)致系統(tǒng)看到一只狗,而不是隱形轟炸機(jī)。這其實(shí)也就說明系統(tǒng)捕獲也是F-AI的一個(gè)風(fēng)險(xiǎn)。即使沒有這一點(diǎn),系統(tǒng)也可能在日常戰(zhàn)斗中被奪走。
系統(tǒng)設(shè)計(jì)會(huì)是擴(kuò)散風(fēng)險(xiǎn)的一個(gè)主要因素。假設(shè)F-AI合理地完好無損,對手可以打破任何網(wǎng)絡(luò)安全措施,并且軟件沒有自我清除,那么代碼在支持對手的本土開發(fā)方面可能是無用的。戰(zhàn)斗核心系統(tǒng)可能會(huì)根據(jù)F-AI的特定參數(shù)和組件進(jìn)行優(yōu)化,如推重比、轉(zhuǎn)彎率、武器系統(tǒng)范圍和類型以及飛行控制器。
即使人工智能的戰(zhàn)斗核心部件可以被完全提取出來,它在一個(gè)新的系統(tǒng)中也可能完全會(huì)沒有用處。
系統(tǒng)設(shè)計(jì)也將是非法轉(zhuǎn)移風(fēng)險(xiǎn)的一個(gè)主要因素。如果人工智能戰(zhàn)斗核心系統(tǒng)可以被有意義地分離,武器販運(yùn)就會(huì)成為一個(gè)大問題。一個(gè)對手或其他感興趣的國家可以試圖只偷取人工智能控制系統(tǒng)。就像網(wǎng)絡(luò)武器一樣,戰(zhàn)斗核心系統(tǒng)可能作為硬盤被偷運(yùn)出去。
如果一個(gè)國家試圖建造自己的F-AI怎么辦?軍民兩用技術(shù)的困境,可能會(huì)變得很嚴(yán)重,因?yàn)槊裼煤蛙娪萌斯ぶ悄芄ぷ鲝耐饷婵纯赡芎芟嗨?,都是利用類似的設(shè)備、硬件和人才。
任何自主武器系統(tǒng)都必須經(jīng)過武器開發(fā)的正常階段。這意味著建立需求,采購零件,制造飛機(jī),并確保這該死的東西能飛起來。這意味著測試場、生產(chǎn)設(shè)施、獲得技術(shù)專家、培訓(xùn)用戶和維護(hù)人員,以及管理操作的組織支持。
此外,人工智能專用系統(tǒng)可能需要滿足其他軍事標(biāo)準(zhǔn),例如對微芯片進(jìn)行輻射加固,以抵御核爆炸的輻射。很少有民用人工智能應(yīng)用需要對微芯片進(jìn)行輻射加固,民用太空項(xiàng)目除外。因此,也可能需要大規(guī)模生產(chǎn)輻射加固的人工智能芯片或輻射加固的商業(yè)人工智能芯片的設(shè)施。所有這些都可能成為情報(bào)收集和分析的目標(biāo),或者,如果需要的話,通過攔截專用部件或破壞來反擴(kuò)散。
如果人工智能的戰(zhàn)斗核心部件不能被有意義地分離,那么F-AI的武器販運(yùn)可能就不是一個(gè)問題。主要武器系統(tǒng)的貿(mào)易往往會(huì)引起公眾的極大關(guān)注,比如最近美國決定向?yàn)蹩颂m出售MQ-1C無人機(jī)。因此,試圖用草圖購買F-AI的行為也會(huì)受到關(guān)注。作為一個(gè)物理上的大型平臺,F(xiàn)-AI無疑需要各種各樣的維護(hù)人員,而且,有人可能會(huì)注意到F-AI的失蹤。即使對手成功地完成了”十一羅漢”式的搶劫,抓住了F-AI,普通的出口控制措施仍然很重要:執(zhí)法調(diào)查,核實(shí)F-AI運(yùn)輸時(shí)的最終用戶和用途;以及檢查貨物中的違禁品。
當(dāng)然,對于較小的自主系統(tǒng)來說,武器販運(yùn)仍可能是一個(gè)問題。2021年2月,以色列宣布它正在調(diào)查20名建造和販運(yùn)游蕩彈藥的嫌疑人,這些彈藥不一定是自主武器,但”處于自主殺傷力的最前沿”。雖然正常的出口管制措施在這里也適用–以色列的走私事件似乎是一次正常的警方調(diào)查,但如果基于人工智能的自主性改變了規(guī)則,復(fù)雜性就來了。如果人工智能的存在改變了出口控制規(guī)則–誰可以購買武器,買家是否可以轉(zhuǎn)讓,需要哪些類型的批準(zhǔn)–那么技術(shù)核查就成為一個(gè)重大挑戰(zhàn)。
專門的人工智能芯片的存在可能會(huì)提供一些指標(biāo),但可能不會(huì)有什么線索。如果武器使用人工智能來幫助指導(dǎo)人類的目標(biāo),但人類仍然要決定摧毀什么呢?武器設(shè)計(jì)和規(guī)格的其他方面也可能提供線索。一個(gè)沒有通訊接收器或允許遠(yuǎn)程操作的軟件的武裝無人平臺很可能,但不一定能夠進(jìn)行自主打擊。細(xì)節(jié)可能是特異性的,執(zhí)法、出口管制和情報(bào)人員有責(zé)任對自主的可能性作出判斷。
接下來怎么辦?
美國不太可能在短期內(nèi)裝備F-AI,當(dāng)然對手和盟友也不可能,但是,許多國家正在建造、開發(fā)和越來越多地部署基于AI的自主系統(tǒng)。總的來說,美國需要一個(gè)細(xì)致入微的、了解風(fēng)險(xiǎn)的不擴(kuò)散和反擴(kuò)散方法,認(rèn)識到自主武器包括一系列廣泛的系統(tǒng)。這一分析指出了美國及其盟友的幾個(gè)考慮因素。
首先,系統(tǒng)設(shè)計(jì)是擴(kuò)散風(fēng)險(xiǎn)的一個(gè)關(guān)鍵因素。如果自主武器的人工智能和自主性不能與整個(gè)武器有意義地分開,那么擴(kuò)散風(fēng)險(xiǎn)就會(huì)減少,甚至可能會(huì)大大減少。作為更廣泛的測試和評估活動(dòng)的一部分,武器設(shè)計(jì)者需要考慮新的自主功能如何容易被操縱。設(shè)計(jì)者還需要考慮在系統(tǒng)被捕獲的情況下,基于人工智能的功能如何能夠隨時(shí)被保護(hù)、提取、使用和銷毀。最佳做法將需要被編入明確的標(biāo)準(zhǔn),以適用于整個(gè)自主武器生態(tài)系統(tǒng)。
第二,不擴(kuò)散政策應(yīng)取決于武器的相對軍事價(jià)值,特別是系統(tǒng)的可靠性。在某些情況下,美國可能希望鼓勵(lì)可靠系統(tǒng)的擴(kuò)散:提供技術(shù)援助培訓(xùn)以提高可靠性,提供已經(jīng)開發(fā)的人工智能系統(tǒng),或提供完整的武器。相反,對于可能影響微妙軍事平衡的系統(tǒng),美國應(yīng)該非常謹(jǐn)慎。這意味著要進(jìn)行建模、模擬、戰(zhàn)爭游戲和其他分析,以弄清自主系統(tǒng)真正影響最大的地方。在其他情況下,特別是針對自主核武器和大規(guī)模殺傷性無人機(jī)群,美國甚至應(yīng)該考慮對其自身發(fā)展進(jìn)行約束性限制。自主核武器給美國帶來了潛在的災(zāi)難性風(fēng)險(xiǎn),而大規(guī)模無人機(jī)群代表了潛在的重大不對稱威脅,其風(fēng)險(xiǎn)類似于傳統(tǒng)的大規(guī)模毀滅性武器。
第三,網(wǎng)絡(luò)戰(zhàn)能力應(yīng)在任何不擴(kuò)散和反擴(kuò)散努力中發(fā)揮關(guān)鍵作用。在防御方面,人工智能戰(zhàn)斗核心系統(tǒng)必須得到很好的保護(hù),防止網(wǎng)絡(luò)盜竊,并保護(hù)網(wǎng)絡(luò)不受企圖的攻擊。這可能會(huì)產(chǎn)生權(quán)衡:一個(gè)獨(dú)立的人工智能戰(zhàn)斗核心系統(tǒng)可能更容易保護(hù),而一個(gè)高度集成的系統(tǒng)可能需要與系統(tǒng)設(shè)計(jì)者廣泛分享。在進(jìn)攻方面,網(wǎng)絡(luò)攻擊可能被用來滲出對手的進(jìn)展數(shù)據(jù),毒害人工智能訓(xùn)練數(shù)據(jù),或破壞對手的系統(tǒng)。如果人工智能的真正軍事價(jià)值源于決策速度,那么巧妙地放慢人工智能的算法速度可能會(huì)產(chǎn)生有意義的軍事效果。
最后,美國需要更好地參與到關(guān)于自主武器的全球?qū)υ捴小C绹诤艽蟪潭壬戏磳θ蛟絹碓蕉嗟慕棺灾魑淦鞯暮粲?,?qiáng)調(diào)這種武器現(xiàn)有戰(zhàn)爭法上的適用性。美國反對廣泛禁止自主武器是一個(gè)正確立場,特別是對防御性系統(tǒng)和低風(fēng)險(xiǎn)自主武器的限制,如雷達(dá)尋的游蕩彈藥。
然而,美國也可能需要與禁令支持者合作,或至少盡量減少他們的反對意見,以建立全球防擴(kuò)散努力。為此,美國應(yīng)考慮支持關(guān)于條約的正式討論,前提條件是全面禁止所有自主武器的問題必須得到解決。紅十字國際委員會(huì)關(guān)于自主武器的聲明,為談判提供了一個(gè)基于風(fēng)險(xiǎn)的方法,其重點(diǎn)是可預(yù)測性和目標(biāo)。這也將作為一個(gè)工具,在自主武器對美國安全構(gòu)成重大威脅的領(lǐng)域,如自主核武器和無人機(jī)群,推進(jìn)不擴(kuò)散。
最終,防止自主武器擴(kuò)散可能是一個(gè)令人困擾的挑戰(zhàn),其中技術(shù)和地緣政治背景將發(fā)揮重要作用。但是,如果人工智能和自主武器是戰(zhàn)爭的未來,那么美國別無選擇,只能去努力解決這些復(fù)雜問題。
來源:《國家利益》網(wǎng)2022年6月13日Zachary Kallenborn的文章