11月1日,美國國防部下屬的國防創新委員會推出了最終版的《人工智慧倫理道德標準》。根據業內人士分析,這一標準的釋出意味著美軍正式打開了人工智慧(AI)軍事化的閘門,人工智慧將在不久的將來被運用到各種軍事領域(美軍),現有的軍事指揮、管理、武器裝備技術甚至軍事理念、思維將可能發生翻天覆地的變化。
圖:美國發布軍用AI倫理原則入選科技政務熱度TOP10榜單。
說起人工智慧我們都不陌生,幾年前打敗人類頂級圍棋高手的阿法狗就是典型的人工智慧。近年來隨著技術的飛速進步,人工智慧開始被運用到軍事領域,並取得了不亞於阿法狗的、令人瞠目的成果。例如2018年初的時候美軍就曾用人工智慧"駕駛"F16戰鬥機和人類頂級飛行員模擬空戰,取得了幾十比零的不敗戰果。
不過話分兩頭說,雖然所有人都知道人工智慧已經踩著小碎步來了並進入到社會生活的各個領域,但很多軍迷老司機們還是對美國的這個概念一頭霧水:人工智慧的倫理標準是個什麼鬼?
圖: 模擬空戰的人類選手Gene Lee是美空軍頂級飛行員,在空戰中被人工智慧駕駛的飛機吊打
稍微看過一些科幻小說的讀者都知道,西方的作者曾經不止一次的預言有一天人工智慧進化出了自己的思維,並反殺人類的情節。就在不到兩年前(2017年8月)美國Facebook實驗室的兩臺機器人就發生了令人細思極恐的一件事情:它們兩個自己發明了一種語言並對話起來了。。。工作人員發現後馬上採取了大殺招:拔電源。
圖中就是兩個機器人自己發明的語言。注意這雖然像但不是英語,是什麼語以及什麼意思沒人知道——可能只有兩臺機器自己知道。有網友調侃道:
機器人Bob:我們幹人類一炮?
機器人Alice:好嘞,好嘞,好嘞。。。
此外,如果將來人工智慧版的戰爭爆發後,發生人工智慧染上病毒或者其它什麼未知的事故,導致戰爭不能停止或者其它不可預知的後果,那結果是不言而喻的。
所以美國政府和美軍就制定了這個人工智慧倫理標準,內容大致包括五個原則:即負責、公平、可追蹤、可靠、可控。翻譯過來就是:科學家們你們開始搞吧我們同意了,但底線是將來一旦出現不對勁的情況,我得有"拔電源"的能力!
有意思的是,中國對人工智慧軍事化的態度比較低調甚至曖昧。一方面國內著名學者、軍內專家多次在公開場合表明了對人工智慧軍事化的牴觸觀點(理由和上文中所述一致,即一旦發生不可預測的事情後果不可控),另一方面中國在人工智慧軍事領域的研究仍緊隨國際領先潮流,近年來取得了豐碩的成果。
這就有點像當年中國搞核武器研究的態度:我們不贊成人類研發核武器,並宣告絕不首先使用核武器。但我們必須有和別人一樣的核武,未來任何國家敢對中國使用核武,我們保證我們扔過去的,炸的更銷魂!
結語:
總之,隨著美國第一個釋出人工智慧倫理標準,美國將大踏步地走向人工智慧軍事化的領域,其它軍事強國的跟進也是不可避免的。這是不是如國際軍事專家所說:潘多拉的盒子被打開了?將來一旦發生不測,人類是否還有"拔電源"的機會?只有拭目以待了。
-
1 #
-
2 #
其實我們可以跟人工智慧學習 比如圍棋還能這麼下 遊戲還能這麼玩~
-
3 #
別人有,你也必須得有……
-
4 #
好 有生之年也許能體會一下歷史上最慘烈的戰爭 看看天網到底是先出現在合眾國還是共和國
-
5 #
美製規則無任何意義他們可隨意根據自己利害利益更解目的是限制別人用,當智慧武器用於戰爭目的為了止戰,為了和平嗎?
-
6 #
這個世界早晚得毀到美國人手裡,因為美國的領導房培養一群心態扭曲的魔鬼。
火星男孩預言的那個靈可能就是AI覺醒!