據報道,俄羅斯軍方目前正在應用人工智能和大數據技術,測試用軟件代替士兵做出作戰決策,以應對迅雷不及掩耳的軍事打擊。對盛產黑客和數學家的“戰斗民族”來說,將機器和程序用於作戰毫不令人意外,將人工智能(AI)應用於戰爭始終是人們關注和爭議的焦點。
對此,軍事專家李路介紹:“機器自主啟動防御反擊模式,在技術上並無難度。事實上,在眾多防空、反導預警體系中早已開始應用。目前,機器之間已實現基於規則的多平台協調,許多防空和導彈防御系統的操作人員與系統通過協作並識別和確認敵方目標后,發射自主攔截器,隨后系統自主探測並截獲目標。”
國防科技大學軍事專家石海明副教授告訴記者:“在智能化戰爭時代,智能化系統應該是對人的補充,人工智能更大的價值是從高層級介入戰爭,協助作戰指揮和控制。”
智能化戰爭帷幕已漸拉開
“目前看來,盡管信息化戰爭還在軍事領域主導,但智能化戰爭的帷幕已逐漸拉開。”石海明指出,將人工智能應用到作戰上已有先例,層出不窮的武裝機器人系統和應用廣泛的無人機就是最明顯的例子。“在大國角逐的重要空間,表面上看似風平浪靜,但各種運用尖端科技的無人化、智能化作戰武器與平台已越來越多。”
例如,曾在多艘美“尼米茲”級核動力航母上成功起降的X-47B察打一體無人機,既具有極強的隱身性,又完全由電腦操控而無需人工干預。
石海明表示,近年來,人工智能的發展方向出現較大變化,即採用大強度計算和數據驅動來發展智能。如果計算機系統能基於大數據和深度學習,對人類的價值就會很大。這一進路與以往科學家試圖模擬人腦的思維過程來打造人工智能,大不相同,傳統進路進展緩慢。
對此,李路介紹,大數據方面,目前還未聽說將其用於實戰的官方報道。即使是北約組織的內部演習中,也尚未使用大數據技術進行分析決策。但是在非戰爭軍事行動中,大數據技術早已廣泛使用。尤其是反恐領域,利用大數據篩查可疑分子、降低恐襲風險已經是日常反恐的重要手段。
2013年波士頓馬拉鬆爆炸案中,恐怖分子以高壓鍋和背包為作案工具展開襲擊。事后,有人在網上同時搜索上述兩種工具,警方立即利用大數據技術捕捉相關信息,進而調查搜索者的目的,大大降低了恐襲風險。
機器尚不能完全替代人類決策
據俄軍方披露,有專家認為前述應用程序有助於進行獨特的作戰策劃,並能推演現代化海戰武器的使用情況。機器真的可以代替人類做出作戰決策嗎?
李路介紹,在戰爭指揮和作戰規劃方面,人工智能不斷取得突破。以前規劃一次20分鐘的大型空中作戰行動一般需要40—50人耗時12小時,而採用自主技術之后該規劃有望在1小時內完成。
記者了解到,在人工智能介入戰爭指揮方面,美國國防高級研究計劃局(DARPA)研制的“深綠”系統最為出名。五角大樓試圖仿制曾戰勝人類棋手的超級計算機“深藍”,利用計算機造出一個智能化輔助系統,幫助指揮員決策,並隨著作戰進程不斷調整和改進,使作戰效能大幅提高。但經過多年研制后,該項目的主體目前已經暫停。
對此,石海明指出,目前,最需要作戰指揮控制的還是在較高層級的指控系統。美軍推出的第三次“抵消戰略”也認為,以智能化軍隊、自主化裝備和無人化戰爭為標志的軍事變革風暴正在來臨。為此,美國將通過發展智能化作戰平台、信息系統和決策支持系統,以及定向能、高超聲速、仿生、基因、納米等新型武器,到2035年前初步建成智能化作戰體系,對主要對手形成新的軍事“代差”。到2050年前智能化作戰體系將發展到高級階段,作戰平台、信息系統、指揮控制全面實現智能化甚至無人化,實現真正的“機器人戰爭”。
“當然,人工智能要實現與作戰系統較高層級的融合,必須結合更多的智能技術,例如超級電腦‘沃森’的基於自然語言的知識獲取和統計推理技術,超級電腦‘深藍’的基於規則驅動的暴力搜索技術等。”石海明說。
然而,李路認為,這並不意味著在重要攻擊行動中,機器可以完全替代人類決策。以當前的人工智能水平,機器對目標和威脅的判斷還相對簡單初級,對臨界點的判斷可靠度難以保証。
李路舉例說,2016年6月,英國某潛艇上的一枚三叉戟Ⅱ-D5潛射洲際導彈誤射向美國本土,情急之下英國將該情況通知美國。美得到消息后卻發現,本應自動搜索、自動響應的本土反導系統卻毫無反應。好在導彈並未安裝核彈頭,最終在美西部無人區上空自毀。
“假如當時自動反應機制及時反應並運行了,則理應觸發核報復機制,美國的核彈將會自動射向英國,后果將不堪設想。因此,在重大問題上機器替代人做出反擊決策,可能還有較長的路要走。”他說。
人工智能武器化爭議不斷
李路指出,機器人替代人來執行作戰任務已經成為現實。現在的爭論焦點在於,是否允許致命自主武器系統。
他介紹,目前國際人道法律對此類技術沒有任何具體規定,國際社會也未明確支持一個限制或禁止此類武器系統的條約。1949年簽署的戰爭人道主義《日內瓦公約》要求任何襲擊需要滿足“軍事必須、參與戰爭者和非參戰者差別對待、軍事目標價值及其潛在附帶傷害的平衡”3個條件。當前自動武器很難做出這些主觀判斷。學界對此也爭議不斷,許多重量級科學家反對人工智能武器化。馬斯克和霍金等人就曾簽署過一封公開信,呼吁禁止自動化武器。他們甚至稱完全人工智能的發展可能招致人類歷史的終結。
“在無人化戰爭中,作戰主體遠離戰場,無人化武器以一種‘非人性化’的方式殺人,像電子游戲一般視生命為草芥,沒有承擔戰爭危險的倫理性,也沒有對戰爭苦難的情感體驗,‘隔離因素’將戰爭的發動者與實施者區分了開來。”對此,石海明也擔憂,“也正因此,有關戰爭責任的倫理問題就出現了,到底參戰的自主機器人是不是戰斗員?又應當承擔何種戰爭的責任?”
石海明介紹,早在2008年,美軍海軍研究辦公室就發表一份報告認為,運用於戰爭的自主機器人無法承擔法律責任。
“的確,目前機器人還無法分辨平民和士兵,當然無法為自己的行為負責。如果軍用機器人自己沒有辦法承擔責任,是否需要其‘代理人’對其戰爭行為負責呢?這又引發了新的問題,誰是無人化戰爭中軍用機器人的‘代理人’?到底是程序設計者呢?還是戰場指揮官呢?相關戰爭責任的追究顯然已變成一個十分棘手的問題。”他說。
李路也指出,隨著技術的發展,相關爭論很可能會越來越現實和激烈。但根據歷史經驗來看,人類的理性恐怕很難阻止新技術軍事化的步伐。軍事領域自主化時代的到來可能只是時間問題。(記者 張強)