首頁>軍事>

編譯:枕戈

人工智慧有望提高軍事效率,但也對多國聯合軍事行動和決策構成了獨特的挑戰,多數學者和決策者對此尚未有過研究探索。人工智慧資料與資源密集的特性,對共享和互操作構成了障礙,從而阻礙了聯合行動。人工智慧還將加快戰爭速度,並加深盟國之間的不信任感,讓盟國/夥伴國複雜的決策過程變得更為緊張。為迎接這些挑戰,併為人工智慧戰爭做好準備,決策者需要在制度、程式和技術層面尋求解決方案,以簡化決策、增強互操作性。

如今的軍事行動通常是由同盟國家或多邊同盟聯合執行的,即透過國家間的正式或非正式行動。盟國在軍事和外交上進行合作,應對共同威脅並實現共同目標,從而產生政治和軍事利益。政治上,在國內和國際觀眾的眼中,多國聯合行動或可賦予軍事行動合法性。由盟國和夥伴國結成的廣泛聯盟對軍事行動的支援,可以作為一種暗示,讓公眾覺得行動是正義的,有助於反駁有關軍事行動不當或試圖打破現狀的說法。從軍事角度看,聯盟和同盟使各國能夠共同分擔行動任務。與由一個國家提供所有人員裝置的單邊行動不同,聯盟允許在所有成員國之間進行分工。為促進合作,盟國經常參與協商決策,制定共同的行動程式,建立綜合指控網路,採購可在戰場上整合的互操作武器系統,以及參加聯合軍事演習。

雖然聯盟和多邊同盟可以加強成員國安全及軍事行動效率,但這種機制會給軍事行動的決策和協調造成困難。首先,聯盟和同盟必須解決軍事力量一體化和協調問題。現代軍事行動需要參與部隊的密切協調,共享情報來指導規劃和任務執行,武器系統能夠相互通訊和協同作戰。每個聯盟成員國的軍隊有不同的裝備、政策和戰術,意味著一個國家的軍隊可能無法與其盟國的軍隊完全融合。此外,夥伴國往往不願共享敏感的作戰和情報資訊。除了這些制度問題之外,還存在更常見的問題,如每個成員國有不同語言和軍事文化,可能也會妨礙緊急行動期間的互操作性。

其次,聯盟和多邊同盟領導人可能難以決定其聯盟應該採取什麼政策。雖然盟國通常面臨共同的威脅,有許多共同的政策目標,但每個國家仍然有自己的優先事項和目標。因此,國家領導人會對國內民眾做出迴應,去追求自己的國家利益,而這些利益有時可能與聯盟的目標相沖突。在最佳情況下,這些不同利益會導致制定決策時間表的協調問題。在最差情況下,它們會在合作伙伴之間產生不信任,引發對在危機期間被拋棄或被“連鎖捲入”不必要戰爭的擔憂。

雖然聯盟和同盟由擁有共同利益的成員國組成,但安全夥伴關係的正式化程度有很大差異,可能影響它們如何規劃和執行軍事行動。聯盟通常是指像北約這樣受條約約束的正式組織。條約明確規定各成員國所承擔的義務,這通常在不太正式的同盟中是找不到的。而多邊同盟通常是指臨時性、非正式的組織,專注於實現一個特定和狹隘的目標。例如,在2003年伊拉克戰爭期間,布什的“自願同盟”把30多個國家聚集在了一起。由於同盟的目標比較有限,因此它們往往是臨時組織,缺乏聯絡和協調機制,任務完成後就不復存在。本文中的分析適用於整個正規化組織,但人工智慧對聯盟的行動和決策提出的挑戰,對於缺乏正規化協調機制的多邊同盟來說更加棘手。為使本文其餘部分保持清晰,文章使用“聯盟”一詞描述各種正式的安全夥伴關係。

人工智慧對聯盟行動造成的障礙

在作戰層面,人工智慧可以使聯盟軍事力量的責任分擔和互操作性複雜化。人工智慧在安全領域的發展對聯盟軍事行動的協調提出了三個挑戰。

首先,並非所有國家都會以同樣的速度發展人工智慧的軍事應用。在一個聯盟中,一些國家擁有並能有效地運作人工智慧能力,而另一些國家則不能。這種不平等的技術分配可能會阻礙責任分擔和互操作性。其次,盟國需要迎接政治和技術挑戰,這些挑戰包括開發可互操作的人工智慧系統和共享人工智慧資料。資料往往難以共享,而各國又不願共享敏感資訊。第三,對手可能會使用人工智慧來破壞盟軍的軍事行動。

挑戰一:責任分擔與互操作性

儘管人工智慧的國際關注度激增,但並非所有國家都具有強大的人工智慧能力,尤其在軍事應用方面。最近一項研究發現,各國“利用人工智慧創新潛力”為政府服務的能力存在顯著差異。像英、德、美這樣的國家對人工智慧基礎儲備較強,而西班牙、土耳其和黑山等盟國則較弱。這種人工智慧技術的不平等,可能是由開發部署新技術所需的組織、財務和人力資本的差異以及政府支援差異造成的。人工智慧的不均衡分佈將對盟國和夥伴國在危機期間分配軍事任務產生重要影響。應用人工智慧並將其整合到軍隊的能力不同,可以創造出人工智慧“強國”和“弱國”。像德國這樣的國家擁有強大的技術產業,有財政資助研究和採購,並維持國防機構,這些機構有足夠的技能和靈活度來整合新的人工智慧技術。實際上,這些國家中有許多已經建立了管理軍事人工智慧發展的政府機構。如美國在2018年建立了聯合人工智慧中心,負責協調國防部的人工智慧專案。其他國家缺乏這些資源,也無法積極追求新的人工智慧能力。許多經濟實力較弱的北約成員國將國防開支重點放在常規部隊的現代化建設和冷戰時期硬體的更新上,而不是在人工智慧的發展上。

即使一個國家擁有發展人工智慧能力的資源,公眾對人工智慧軍事系統的有限支援也會阻礙這種努力。反對意見可能來自人工智慧功能的不確定性,也可能來自道德和倫理方面——反對將使用武力的決定權交給計算機。最近一項跨國調查發現,在美國的主要盟國中,公眾明顯不贊成使用致命性自主武器。當然,自主武器和人工智慧不同,但人工智慧被整合到大多數自主系統的軟體架構中,專家和公眾經常把兩者混為一談。在韓國和德國,分別有74%和72%的當地居民反對使用致命性自主武器(美國這一資料為52%)。這兩個國家是美國的親密盟友,擁有幾十個美國軍事設施,駐紮著6萬多名美國軍人。

國內外不溫不火的公眾支援可能在兩方面阻礙聯盟的軍事行動。首先,公眾對使用人工智慧的反對可能會導致決策者限制在軍事行動中使用人工智慧。比如在將來發生敵對行動時,韓國或德國政府可能會反對盟國在其領土上使用帶有人工智慧的致命武器系統。實際上,來自公眾和激進組織的倡導已經導致越來越多的國家,包括美國盟友巴基斯坦和約旦,呼籲禁止使用致命自主武器系統。

其次,開發人工智慧的地方工程師和研究人員可能會拒絕與軍方簽訂人工智慧合同。人工智慧發展的中斷可能會阻礙新能力的部署,並在政府和民用企業間產生不信任。例如,谷歌員工抗議谷歌公司參與國防部的“Maven”專案,該專案使用人工智慧分析軍用無人機採集的影片。員工在寫給公司CEO的信中指出,“谷歌不應從事戰爭事務”,並解釋說公司不應該“將其技術的道德責任外包給第三方”,這項由美國國防部支援的人工智慧專案將“不可挽回地損害谷歌品牌”。抵制活動最終導致谷歌終止了該合同,並引發了公眾對國防部人工智慧專案的批評。

一個聯盟中有人工智慧“強國”“弱國”的存在,可能會使軍事聯盟的核心原則——責任分擔變得複雜。一方面,人工智慧能力強的國家可以為聯盟行動做出專門貢獻,並專注於提供與人工智慧相關的能力。然而,如果人工智慧應用成為未來戰爭的必需品,人工智慧“弱國”可能無法為聯盟作戰做出貢獻。人工智慧“強國”隨後可能被迫承擔更多工作,這將帶來政治和作戰方面的問題。在政治上,人工智慧“強國”可能會抱怨“弱國”對任務貢獻不足,從而導致盟國之間關係緊張。在作戰上,能力差距可能會妨礙聯盟部署部隊或實現軍事目標。例如,在1999年北約領導的科索沃空戰期間,許多北約成員國的精確制導武器數量有限,而且缺乏對這些武器裝備的訓練使用,從而削弱了作戰能力。結果,空襲作戰的責任落在少數幾個盟國身上。在更大規模衝突中,責任分擔可能對維持行動或確保勝利至關重要。

挑戰二:資料共享與標準統一

隨著應用軍事人工智慧國家數量的增長,盟國集體行動的能力,在一定程度上取決於為人工智慧系統提供動力的共享資料。人工智慧需要大量資料來訓練演算法和模型。例如,要識別地空導彈陣地,人工智慧影象分類器必須學會透過研究已知導彈陣地的影象來區分導彈陣地和其他設施。用於訓練這些系統的資料越多,系統就會越精確。一旦投入使用,如影象分類器這樣的人工智慧系統,必須連續從偵察機、衛星或其他裝置中以一種允許目標識別的格式輸入影象,以共享資料來提高人工智慧系統的準確性或提高多國行動的效率。

由於人工智慧開發使用處於核心地位,美國軍方將資料描述為“戰略資產”,但即使在美軍內部,共享資料也面臨重大挑戰。美國國防部聯合人工智慧中心創始人傑克·沙納漢中將稱:“當軍方投入人工智慧領域時,資料妨礙了軍方的大部分工作”。具體來說,“他們意識到將正確的資料放到正確的地方、梳理並訓練演算法是多麼的困難”。這些挑戰背後有兩個主要因素。首先,資料駐留在數千個不同的儲存庫中,缺乏標準化格式。例如,美軍偵察機的影片就以不同的資料格式儲存於多個不同的網路。其次,武器和感測器收集的大量資料被設計和維護裝置的承包商視為專有資料。公司必須首先發布或“解鎖”這些資料,然後才能對其分析或輸入其他系統。

儘管共享資料可用來開發人工智慧技術,但各國在共享資訊方面都面臨政治和技術障礙。從政治角度看,即使是最親密的盟國也可能不願分享支撐軍事人工智慧系統的敏感資料。各國擔心共享敏感資料可能會洩露情報來源和方法,而這些資訊洩露可能會危及正在進行的行動或導致政治關係緊張。例如,在越南戰爭期間,美國不願與其盟友南越分享情報。美國擔心南越軍方和情報部門的共產主義同情者會把資訊傳遞給北越。他們還擔心,情報可能會突顯美國的行動計劃與南越的優先任務不一致。各國還擔心共享的資訊可能被用於其它而非最初目的,或者與共享國利益相沖突。例如,土耳其可能不會將共享的情報用於反伊斯蘭國行動,而將目標對準敘利亞北部的庫爾德武裝。

為了將這些感知到的風險最小化,國家通常對資訊共享加以限制。最常見的控制措施之一是隻共享最終情報產品,如來自各種不同情報機構的簡報或報告。這些產品提供評估,但通常會省略技術資料,比如可能會透露情報收集程式和方法的資訊源細節。儘管資料共享是一種情報共享,但開發執行人工智慧系統可能需要交換比傳統情報共享多得多的完整原始資料。原始資料(包括影象檔案和截獲的訊號)可以包括元資料,如影象的光譜特徵或可用於為人工智慧系統提供資料的電子發射特徵。由於這些資訊可以暴露出一個國家的情報系統的精確能力和缺陷,決策者可能不願將之共享,尤其是在開發執行許多人工智慧系統需要大量資訊時。

資料共享必須首先解決資料格式標準統一的問題。美國情報部門和軍方在多個系統上以非標準格式儲存資訊,其他盟國的國家安全機構也是如此。在整個聯盟中,相同型別的資料可能以不同的格式存在於數百個不同的網路,因此很難共享資料或開發可互操作的系統。要使用來自盟國的資料,首先必須確定資料位置,而後從一個國家的保密計算機網路中轉移出來,並將其重新格式化為標準、可用的形式。鑑於美軍在其自身人工智慧發展中面臨重大的資料管理挑戰,可以預料,對於擁有更多參與者和資料來源的聯盟,在資料共享方面將遇到更大障礙。

挑戰三:操縱資料與虛假資訊

除了共享的障礙外,盟國還面臨著這樣一種可能,即它們共享的資料可能特別容易受到敵方操縱。工程師和軍方領導人擔心,對手可能侵入資料儲存庫並“毒害”資料——插入虛假資料,或故意讓現有資料存在缺陷。在最近一項學術研究中,研究人員使用資料中毒技術,導致一種用於識別街道標誌的演算法將停車標誌誤認為限速標誌。在軍事領域,對手可以毒害影象資料,以擺脫人工智慧目標識別系統,導致系統錯過軍事目標,將它們歸類為非軍事目標,或將民用設施識別為軍事設施。在最佳情況下,這可能需要人力密集型工作來保護和清理資料,或導致國家不得以用人工分析目標。在最差情況下,可能導致對非戰鬥人員的誤傷。

雖然資料中毒的風險困擾著所有人工智慧使用者,但聯盟軍事行動可能尤其容易受到影響。由於聯盟人工智慧系統使用多個國家的資料輸入,因此,某一個國家有缺陷的資料輸入可能會對整個聯盟行動產生連鎖影響。聯盟成員國用不同級別的安全措施來保護網路和資料,因此,對手可能會將目標鎖定在那些更容易獲取資料的國家。

對手也可以使用人工智慧來發動意在干擾聯盟指揮控制的欺騙行動。長期以來,軍方一直試圖在戰爭和危機期間欺騙對手。例如在二戰期間,盟軍使用一個複雜計謀,用充氣坦克和飛機來欺騙納粹D日登陸點的位置。人工智慧可利用數字誘餌和虛假資訊(而非物理資訊)進行欺騙活動。

人工智慧工具還可以使用“深度偽造”技術將聯盟行動複雜化,操縱音影片,逼真模擬真人的行為或講話。2018年,數字媒體Buzzfeed製作了一部電影,影片中,一個逼真模仿美國前總統奧巴馬的模仿者滿口汙言穢語並大放厥詞批評特朗普。深度偽造依賴於深度學習演算法,這種演算法透過觀察一個人的照片、音訊和影片來學習,從而產生栩栩如生的表現,這些表現可以透過程式設計來說或做真人從未做過的事情。雖然早期的深度偽造很容易被肉眼發現,但生成式對抗網路等技術提高了深度偽造的質量和可信度。該技術具有兩個相互競爭的神經網路:生成器和鑑別器。生成器生成一個初始深度偽造,而鑑別器將人工智慧生成的“偽”與訓練資料集中的“真”進行比較。然後,生成器更新這些“偽”,直至鑑別器再也無法區分真偽。隨著人工智慧技術的進步,對手可能會利用人工智慧開展欺騙活動。

深度偽造有多種用途。對手可能深度偽造盟軍高階指揮官,向戰場釋出錯誤或相互矛盾的命令,或者利用人工智慧製造虛假情報。對手還可能會利用從公開媒體或截獲通訊中實際指揮官的音影片,生成深度偽造的命令。或者利用生成式對抗網路製造虛假衛星影象情報,歪曲事實真相。這些錯誤命令和情報一旦透過影片會議、電話、電子郵件或無線電傳播出去,可能導致部隊重新部署,從而造成混亂。此前曾有過成功運用此類伎倆的先例。2019年,犯罪分子利用人工智慧克隆了一家英國能源公司高管的聲音,並指示一名員工將數十萬美元轉移到犯罪分子控制的銀行賬戶。進行這些欺騙所需的軟體很容易獲得,培訓資料要求很少,而且不需要多少計算機程式設計知識。一些聲音克隆程式可以免費或低成本從網際網路獲得。

由於多國指揮控制過程涉及多個國家之間的協調,聯盟軍事力量可能特別容易受到人工智慧虛假資訊和欺騙的影響。工作人員與國際夥伴合作的經驗可能有限,因此不熟悉盟國的操作規程,也不太擅長在多國指揮系統內工作。敵方可以利用這些情況,注入人工智慧生成的錯誤命令。時間緊迫、工作壓力和軍事行動的複雜性增加了下級指揮官執行這些深度偽造命令的可能性。隨著深度偽造質量的提高,鑑別真偽變得愈發困難,這些挑戰將更加棘手。

人工智慧對聯盟決策造成的障礙

除了為多國軍事行動製造障礙外,人工智慧還會限制聯盟領導人在危機期間的決策能力。聯盟決策通常被描述為一個有爭議的過程,在這個過程中,來自不同國家的決策者在不同的國家利益、軍事能力和風險承受能力之間反覆協調。決策者在商議過程中尋求推進本國利益,往往導致政策妥協。北約盟國在政策上經常出現分歧,例如,在1956年埃及蘇伊士運河國有化和2003年美國入侵伊拉克的問題上,他們都發生了意見衝突。聯盟和同盟也充滿承諾問題,各國都擔心盟國會退出協議或將他們拖入不必要的衝突。不同的國家立場和對被拋棄的恐懼可能導致國家間進行決策協商,如果在危機中進行,則聯盟無法對威脅做出果斷反應。

人工智慧可以透過三種關鍵方式使聯盟決策協調和指揮控制多國部隊的能力複雜化。首先,人工智慧可能擠壓軍事行動的決策商議時間;其次,人工智慧的可靠性和有效性存在不同程度的不確定性,如果不同國家決策者對人工智慧系統提供準確資訊或採取適當行動的能力信任程度不同,那麼他們在決定使用武力時可能會猶豫不決。第三,敵人可能利用人工智慧釋出虛假資訊,削弱盟國間的信任,並加劇其彼此對成員國背棄聯盟承諾的擔憂。

擠壓決策時間

人工智慧的廣泛使用,將擠壓決策者和軍事指揮官在政治和軍事決策上的時間。人工智慧輔助的情報、監視、偵察、指控系統可能比非人工智慧系統更快地識別敵方的軍事演習。一旦有了這些資訊,聯盟決策者可能需要迅速做出應對,特別是當敵對勢力構成直接威脅或必須在很短時間內將其鎖定時更是如此。

美軍已經開始發展這種能力。作為演習的一部分,美國國防部展示了一個指揮控制網路,該網路使用人工智慧自動探測敵方活動,並在多個情報和軍事系統之間傳遞目標資訊。在其中一次演習中,一個太空裝備探測到一艘模擬敵艦,但無法識別。該網路自動提示ISR平臺,令其收集敵艦附加資訊,然後傳送給指控平臺。指控平臺應用人工智慧選擇最佳武器系統攻擊敵艦,並將目標資料傳遞給附近的美海軍驅逐艦,供其與敵艦交戰使用。人工智慧可大大縮短瞄準過程。2019年11月,美空軍參謀長戴維·戈德芬描述人工智慧網路時認為,“它不再是PowerPoint,而是貨真價實的東西。”

在戰略層面,人工智慧指控系統可以向決策者提供情報,告訴他們某個對手正準備在危機期間部署戰略力量,比如核潛艇或機動導彈發射器。在這種情況下,來自不同聯盟成員國的決策者可能會就如何應對持不同意見,但在敵方部隊分散和定位之前,他們幾乎沒有時間討論自己的選擇。在作戰和戰術層面,因為人工智慧系統迅速提供了關於對手的戰場情報,聯盟作戰指揮官也將面臨類似問題。指揮官可能會被迫迅速決定是否打擊一個由人工智慧系統探測到的稍縱即逝的目標。可以肯定,單邊行動的決策者也將面臨同樣問題,如果在決策過程中有多個人具有發言權,如何確定最佳行動方案就會變得更加複雜。

敵方使用人工智慧系統也會壓縮時間,使聯盟決策複雜化。正如人工智慧可以提高盟軍的行動節奏,它也可以提高敵方軍事行動的頻率和速度。一個國家可以使用人工智慧自主武器系統發起軍事行動而不會傷及人員,這可能導致敵方發動他們原本無法發起的行動。例如,中國已經開發並出口了能夠識別目標和執行致命打擊的自主無人機,這些無人機很少或根本沒有受到監督。此外,對手將人工智慧整合到指控網路,可能會加快其決策過程。中國軍方已經表達了利用人工智慧進行軍事決策的興趣。一份來自中國中央軍委聯合作戰指揮中心的出版物,描述瞭如何使用人工智慧來玩複雜的棋盤遊戲,“證明人工智慧在作戰指揮、程式推導和決策方面存在巨大潛力”。這些系統可以用來對付美國及其在印度太平洋地區的盟友,迫使盟軍指揮官對這些威脅做出更快反應。

加劇多種不確定性

人工智慧還會加劇資訊和軍事行動的不確定性,從而給聯盟決策帶來壓力。人類分析師或軍事人員可以被要求解釋和證明自己的發現或決定,而人工智慧通常是在一個“黑匣子”中執行。支撐許多前沿人工智慧系統的神經網路是不透明的,對於它們是如何得出結論的,人們知之甚少。這些網路依賴深度學習——一種從大資料集透過層次結構的數字節點傳遞資訊的過程,這些數字節點分析資料輸入並使用數學規則進行預測。當資料流經神經網路時,網路會進行內部調整以提高輸出質量。研究人員往往無法解釋神經網路是如何進行內部調整的。由於缺乏“可解釋性”,人工智慧系統的使用者可能難以理解故障和糾正錯誤。

決策者呼籲開發更透明的人工智慧系統,研究人員也在努力開發可解釋的人工智慧工具,以監控人工智慧黑匣子。然而,許多決策者仍然對人工智慧系統的不確定性感到不安。美空軍空戰司令部司令公開宣稱,他還不願意依靠人工智慧程式來分析無人偵察機收集的全動態影片。他認為,儘管系統在不斷改進,但仍不能始終如一地提供準確分析。只要人工智慧系統的決策和分析不透明,指揮官就不願相信人工智慧系統。如果使用,人工智慧可能會造成戰爭迷霧,而不是減少這些迷霧,因此很難使用人工智慧資訊進行決策。

人工智慧不確定性對作戰的影響,可能會在多國聯盟背景下加劇。人工智慧的信任度存在明顯的跨國差異,即便是親密盟友之間也是如此。2018年一項調查發現,只有13%的日本受訪者和17%的韓國受訪者信任人工智慧,而美國這一比例為25%。美國和許多北約盟國之間也存在類似差異。在西班牙,34%的受訪者信任人工智慧,相比之下,加拿大為21%,波蘭為40%,土耳其為43%。鑑於這種差異,在多國行動期間,一些國家的決策者和指揮官可能比其他國家的領導人更不願意使用人工智慧系統或相信它們提供的資訊。

當對手使用人工智慧時,盟國決策者也將面臨不確定性。領導人將被迫考慮,是否要像傳統的有人操作裝備一樣,對自主飛機或艦艇等人工智慧系統的行動做出反應。現有法律法規在這方面還是空白,無法提供指導。各國已經起草了國內政策來管理自主武器系統的使用,但這些條例和國際法在如何應對人工智慧軍事行動和“傳統”軍事行動上,並沒有做任何區分。而決策者可能認為,與有人平臺相比,對手使用人工智慧平臺應需要不同的應對方案。如果對手稱,人工智慧系統實施的攻擊是由有缺陷的演算法造成的,我們該如何應對?和有人機相比,防空部隊對敵自主無人機進入己方領空後,是否應該做出不同反應?決策者可能會發現,自己幾乎沒有時間考慮這些複雜問題,尤其是在人工智慧大大加快對手軍事行動速度的情況下。

釋出虛假資訊

即使各國信任自己的人工智慧,對手和惡意行為者也可以利用人工智慧來製造不和,從而阻礙決策。當多個國家協調安全決策時,信任與密切關係至關重要,因為決策者必須確信,盟國不會違背承諾。長期以來,各國領導人一直擔心被盟友拋棄,或被捲入不必要衝突。當個別領導人暗示他們可能不會履行聯盟承諾或採取挑釁行動時,這些擔憂就會被放大。例如,特朗普在公開質疑保衛某些北約成員國的價值時,也是在質疑美國對盟國的承諾。敵方可以利用人工智慧發動針對這些擔憂的虛假資訊,從而造成盟國關係緊張,或加深盟國分歧。

正如敵方可利用深度偽造技術來干擾作戰協調一樣,他們也可以利用人工智慧製造困惑和不信任,從而阻礙戰略決策。試圖破壞聯盟凝聚力的對手可能會利用深度偽造技術,描繪成員國領導人質疑聯盟的價值,批評其他領導人,或者威脅可能採取將聯盟拖入不必要衝突的行動。這些偽造的影片或錄音可能會增加盟國承諾的不確定性,或在危機期間使盟國因擔心被拋棄而引起恐慌。

相關閱讀

【工業機器人】全球工業機器人詳細產業鏈梳理!【智慧工廠】智慧工廠如何快速落地【工業技術】航空製造推動新概念機器人發展(上)【工業技術】航空製造推動新概念機器人發展(下)【新基建+人工智慧生態】全網最火“新基建”生態圖譜—人工智慧篇(含40個細分領域廠商)【AI】一文讀懂人臉識別技術【AI】解析 | 人工智慧發展及技術架構【AI】(收藏)從 A-Z 全面盤點人工智慧專業術語梳理!【AI】計算機視覺入門大全:基礎概念、執行原理、應用案例詳解【AI】一文讀懂機器學習、資料科學、人工智慧、深度學習和統計學之間的區別【智慧倉儲】一文帶你徹底搞懂智慧倉儲!【深度學習】12張高畫質思維導圖,總結深度學習【神經網路】給初學者們講解人工神經網路(ANN)

人工智慧的基礎--知識分類

【AI】一文讀懂人工智慧產業鏈【AI】中國人臉識別產業鏈全景圖!【AI】史上最全的人工智慧(AI)產業鏈地圖!【晶片】國產晶片大全:70個細分領域代表企業

人工智慧產業鏈深度透析—基礎層

人工智慧產業鏈深度透析-技術層人工智慧全產業鏈深度透析--(綜合)人工智慧產業鏈深度透析—產業應用醫療篇朱松純 | 人工智慧的現狀、任務、構架與統一(上)朱松純 | 人工智慧的現狀、任務、構架與統一(中)朱松純 | 人工智慧的現狀、任務、構架與統一(下)【AI】美國國家人工智慧研發戰略規劃2019【智慧農業】2018中國農牧家禽行業智慧養殖白皮書【智慧農業】2019年智慧農業市場調研及前景研究報告(附PDF下載)【智慧家居】我國智慧鎖產業現狀及未來發展趨勢分析【知識圖譜】詳解知識圖譜關鍵技術與應用、AI圖譜技術在知乎的應用實踐、如何構建多快好省的“知識圖譜即服務”

薦:

【中國風動漫】除了《哪吒》,這些良心國產動畫也應該被更多人知道!

宣告

15
最新評論
  • 東風家族日益強大,美國亞太老巢不安穩,五角大樓急尋新防禦手段
  • 庫爾德學到一新戰法,利用自制無人機展開襲擊,效果令土耳其頭大