首頁>軍事>

策劃人:嘉樹、常馨尹

這兩天,土耳其出兵敘利亞的新聞,引發了不少關注。有很多人認為,這場武裝衝突之所以會爆發,有一個不可忽視的原因,那就是特朗普讓美國軍隊從敘利亞撤兵,而且還默許土耳其出兵。美國政府官員,對特朗普撤兵的決定也頗有微詞。

那撤兵到底對還是不對呢?不知道。因為我們誰都不清楚,特朗普手裡到底有什麼資訊,讓他做出了這樣的決定。也許他就是看了FOCUS新聞,拍腦袋決定的,也許他認真聽取了對於敘利亞局勢的詳細軍事情報,仔細斟酌後才作出的決定。

但有一件事恐怕很多人都有感知,那就是在這個時代,很多時候做決策已經不僅僅是靠人了。在各種場景下,通過科技能收集到的資料越來越多,一個人要做決策,面對的資訊複雜度越來越高。也許只有在人工智慧的輔助下,才能化繁為簡,形成最優策略。

這件事,在軍事領域其實就正在發生。

前段時間,《經濟學人》發表了一篇長文,叫做“戰爭的演算法”。這篇文章分享的諸多案例讓我意識到,人工智慧正在改變軍事決策的方方面面。

我之所以會關注這個話題,是因為今年2月,美國國防部對外發布了有史以來第一份人工智慧戰略檔案。在這份檔案裡他們說了一個值得關注的判斷:人工智慧已經準備好了,隨時可能會改變未來的戰場。

當時我就開始好奇了,到底怎麼個改變法呢?《經濟學人》的這篇文章,恰好提供了不少細節。比如說,情報。

我們都知道,情報一直都是在戰爭當中制勝的關鍵因素。但其實,在戰場上,難的不一定是獲取情報,而是從情報中挖掘有價值的資訊。現在,能用來收集情報的裝置已經非常多了,衛星、偵察機,甚至是手機、電腦裝置。這些裝置提供的海量資料怎麼處理,才是真正的問題。

比如說,在2011年,美國光是靠無人機獲取的影像,就有327000個小時,也就是大約37年的影像。這麼多影像,光靠人眼看,那肯定是處理不過來的。

人工智慧演算法,恰恰就能用來處理這樣的資料。4年前,實驗室裡的影象分類演算法,就已經超越了人類的表現。到了2018年,用演算法已經可以做到,從一張圖裡找出很多個不同的物體並且把它們進行分類。

基於這樣的技術,美國國防部就在前兩年成立了一個叫做“演算法戰爭”的團隊。這個團隊的工作就是要利用深度學習演算法,從戰地的影像裡發現可疑的行為。

當然,演算法能處理的不僅是影象資料。還記得斯諾登洩露的美國“天網”計劃麼?這項計劃的一部分,是監督可疑人士的通訊記錄。這個專案裡就用上了人工智慧來分析恐怖分子的情報。

比如,在巴基斯坦地區,誰在過去的一個月裡從拉合爾去過邊境城鎮白沙瓦?誰比平時更頻繁地關閉手機或者更換手機裝置?這些都是儲存在手機端的一些零碎資訊,量很大又很容易被忽略。而美國會把這些資料用機器學習進行處理,然後用演算法判斷出,誰可能是給恐怖組織傳信的人。

假如沒有人工智慧,這些資訊就算擺在眼前,恐怕也難以從中剔除出有效情報。可以說,演算法讓戰場上的資訊,變得更加透明了。

不過,說到這,咱們還只是講了演算法在軍事行動當中最基礎的應用,充當情報員。但如果人工智慧會思考,那肯定不甘心只當情報員,一定會想在軍隊的權力架構裡往上爬,比如說,幫助指揮官制定戰略,做出軍事決策。

在今天,往這個方向努力的人工智慧公司,可不在少數。

文章裡介紹了一家叫做“北方之箭”的以色列公司。這家公司就能通過處理大量的資料,幫助指揮官部署戰鬥。這些資料通常包括敵方位置、武器型別、地理位置和天氣狀況等等資訊。另外演算法還會綜合考慮以往的經驗資料,給出不同的決策選項。

這種工作要是讓人做,那得看地圖、看錶格、做各種分析,一般來說得花上十幾、二十個小時才能完成。文章裡雖然沒說北方之箭做得有多快,但猜都能猜到,一定節省了不少時間。

除此之外,人工智慧做決策,還有一種模式,就是在一個模擬的戰爭環境裡執行演算法。英國的國防部購買了一個由遊戲公司開發的軟體,用來模仿複雜的操作環境,各種真實環境的資料都可以輸入進去被人工智慧演算法處理。

從這些案例來看,戰爭“智慧化”似乎已經是必然的趨勢。國防大學的教授李明海在一篇評論裡,曾經把“智慧化戰爭”的未來機制總結得很清楚。他說未來的戰爭會成為“演算法博弈”,由“機器主戰”,從“人腦決策”向“智慧決策”轉變。

如果你想感受一下,這樣的戰爭是什麼樣的,那你可以看一下1970年。在那年的一場軍事行動裡,很多人對未來戰爭的想象其實已經成為現實了。

這場戰爭是越南戰爭,這次軍事行動的代號是“白色冰屋”。

當時美軍利用海軍戰機,在越南的叢林裡投放了一些電子監聽裝置。比如麥克風,用來監聽敵軍腳步聲或者卡車點火聲,再比如嗅覺感測器,可以嗅出人類尿液中的氨,追蹤敵軍的行蹤。這些資料被傳導到無人機和電腦上,演算法處理後,就會生成投放炸彈的區域。幾分鐘之內,戰機就會根據演算法的指令起飛。

之所以說這場軍事行動,是未來戰爭的縮影,是因為它恰好展現了人工智慧參與到軍事行動當中的每一個環節:從收集情報、到處理情報,再到做出轟炸決策。

不過,智慧化的戰爭形態,從實際操作和倫理層面考慮,也有不少值得擔憂之處。其中最大的隱患,恐怕就是可解釋性。

我們都知道,深度學習就像是一個黑盒子,它為什麼會做出一個決策,自己都無法解釋。假如深度學習演算法被用到戰爭決策當中,我們又怎麼能理解一個決策背後的合理性呢?

人總認為自己是最有智慧的,但也許演算法比我們看得更全面,考慮得更長遠呢?當演算法的決策和人的決策衝突,而人又無法理解決策背後的理由時,到底應該相信誰呢?

不過,有一個不可忽視的事實是,就算演算法能做決策,它也無法幫助人類承擔決策的後果。所以,我認為最適合演算法的位置,還是充當人類的軍師。因為演算法再先進,戰爭也是人類的政治活動。

  • 東風家族日益強大,美國亞太老巢不安穩,五角大樓急尋新防禦手段
  • 6架陣風即將到貨,戰力可相當殲10C?印度:500架舊戰機等著換呢