去年3月,來自中國科技巨頭騰訊(Tencent)安全實驗室——科恩實驗室演示了幾種欺騙特斯拉汽車上的人工智慧演算法的方法。巧妙修改汽車感測器輸入的資料,研究人員能夠迷惑駕駛汽車的人工智慧。
特斯拉的演算法通常在發現擋風玻璃上的雨滴或跟蹤道路上的路線方面表現出色,但它們的工作方式與人類的感知方式有著根本的不同。這種“深度學習”演算法正迅速席捲不同行業,應用於面部識別和癌症診斷等領域。
把特斯拉“引入歧途”對美國來說似乎不是戰略威脅。但是,如果使用類似的技術來欺騙無人攻擊機或分析衛星影象的軟體,讓它們看到不存在的東西,或者看不到存在的東西,結果會怎樣?細思極恐!
五角大樓推動人工智慧的部分原因是擔心競爭對手可能會採用這種技術。去年,時任美國國防部長吉姆•馬蒂斯向美國總統特朗普傳送了一份備忘錄,警告稱美國在人工智慧方面已經落後了。他的擔心是可以理解的。
想要製造最聰明、最致命的武器是可以理解的,但正如特斯拉的黑客攻擊所顯示的那樣,如果敵人知道人工智慧演算法是如何工作的,可能會讓它變得無用,甚至讓它與自己的主人作對。贏得人工智慧戰爭的祕訣可能不在於製造最令人印象深刻的武器,而在於掌握軟體令人不安的背叛。
戰鬥機器人
去年,邁克爾·卡納安(Michael Kanaan)坐在五角大樓的自助餐廳裡,吃著三明治,驚歎於一套強大的新機器學習演算法。
幾周前,卡納安觀看了一款視訊遊戲,在遊戲中,五種人工智慧演算法一起工作,在一場涉及控制力量、營地和資源的複雜、廣闊的戰場上,幾乎完勝五個人類。這是他所見過的最令人印象深刻的人工智慧戰略演示之一,是一種出人意料的發展,類似於人工智慧在國際象棋和其他遊戲中的進步。
這些人工智慧戰士不是由軍方開發的,而是由OpenAI公司開發的。OpenAI是一家由埃隆•馬斯克(Elon Musk)和山姆•阿爾特曼(Sam Altman)等矽谷大人物建立的公司,從事基礎人工智慧研究。該公司的演算法戰士,即OpenAI Five,通過不懈的實踐,通過最具優勢的行動,制定出了自己的獲勝策略。
人工智慧制導導彈可能會被敵方的資料欺騙,甚至可能會轉向友軍目標。
卡納安是空軍Maven專案的負責人,該軍事專案旨在使用人工智慧自動識別空中影象中的物體。谷歌是Maven的承包商,當其他谷歌員工發現後,在2018年,公司決定放棄這個專案。隨後,該公司制定了一項人工智慧行為準則,稱谷歌不會使用其人工智慧開發造成傷害的武器或其他技術。
然而,對卡納安來說,如果軍方不能與開發人工智慧的研究人員合作,那將是一個大問題。更令人不安的是,對手有可能獲得這種尖端技術。他說:“程式碼就在那裡,任何人都可以使用。”他補充道:“戰爭遠比某些電子遊戲複雜。”隨著人工智慧在軍事上的應用越來越多,這些神祕的軟體漏洞得到的關注卻少得多。
幸運的是,五角大樓已經開始注意到了這一點。今年8月,美國國防高階研究計劃局宣佈了幾個大型人工智慧研究專案。“AI反欺騙魯棒性保證”(GARD)就是其中之一,這是一個專注於對抗性機器學習的專案。馬薩諸塞大學阿姆赫斯特分校教授、GARD專案經理哈瓦·西格爾曼說,這些襲擊在軍事情況下可能是毀滅性的,因為人們無法識別它們。她說,“這就像我們瞎了眼一樣。這就是它真正非常危險的地方。”
對抗性機器學習帶來的挑戰也解釋了為什麼五角大樓如此熱衷於與谷歌和亞馬遜這樣的公司以及麻省理工學院這樣的學術機構合作。這項技術正在迅速發展,最新的進展是在矽谷公司和頂尖大學的實驗室裡進行的,而不是傳統的國防承包商。
反對軍事使用人工智慧是可以理解的,但它可能忽略了更大的圖景。儘管人們擔心智慧殺手機器人,但近期更大的風險可能是演算法上的戰爭迷霧——即使是最聰明的機器也無法看穿它。