-
1 # 紫龍觀察
-
2 # 槍與火花
“殺人蜂無人機”這個概念來源於前段時間在網上火起來的一個影片。影片中伯克利大學教授Stuart Russell介紹了一種AI控制的武裝無人機。只有雞蛋大小,可以在手掌上起飛降落,內含3g高能炸藥,全程由AI控制飛行,透過人臉識別技術識別目標並進行攻擊。
為什麼開篇我說這只是一個概念,因為這個影片介紹的內容是假的,影片中無人機的發明公司STRATOENERGETICS並不存在,影片最後教授也說明了,影片的主要內容為虛構,目的是警醒人類這種殺人機器人的崛起和AI技術的可怕用途。但公司官網(http://stratoenergetics.com)確實可以開啟,點開之後有對這個概念的具體介紹。有心人可以自己開啟讀一讀。
讓我感到可怕是,雖然只是概念,但實現概念的技術已經全部具備。看完影片結尾,Stuart Russell教授說這只是一個構想,我鬆了一口氣的同時,仍然是一身冷汗。因為這種小型攻擊無人機所需要的技術,現在幾乎已經全部具備。
這種微型無人機技術早已不是難題,全AI控制飛行目前進展也非常迅速,中國企業無人機巨頭大疆公司也有一定成熟的方案,甚至已經部分應用自家產品的輔助控制系統中,一些關鍵的飛控技術,比如仿生隨機飛行,精確炸藥投放等也不存在很高深的技術障礙。類似殺人蜂的叢集飛行,Inter公司也有成熟的方案,在最近的平昌奧運會開幕中就有展示。數量眾多的無人機能夠在程式的控制下互聯互通,保證在空中的精確位置關係,不僅能組成陣列,甚至能組合出動態圖案。
對於用於攻擊的高能量密度的高能炸藥,目前也不是問題,能達到影片中攻擊效果的高能炸藥數不勝數。
至於人臉識別或者是人體特徵識別中國企業曠視科技FACE++也是行業龍頭。正是這些構成這個“殺人機器人”概念的技術對於目前的人類科技並沒有想象那麼困難,讓人更加能感受到這個概念的可怕,你可以想象,數十數百的無人機在隱蔽的地方釋放,快速機動到高價值目標附近,再發起叢集式襲擊,對於目前的防禦技術來說,幾乎是無法防範的殺手鐧,加之極高的效費比,幾乎可以預料這種“殺人機器人”會有多大的“發展潛力”。
機器人三定律?似乎只是美好的理想。第一定律:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管第二定律:機器人必須服從人給予它的命令,當該命令與第一定律衝突時例外第三定律:機器人在不違反第一、第二定律的情況下要儘可能保護自己的生存這是科幻巨擘阿西莫夫在其作品《我,機器人》中第一次提出的概念,後來逐漸被諸多科幻作家奉為圭臬。但我一直認為機器人三定律是一個理想,一個美好的理想。機器人三定律的發明,是為了緩和人類對已經擁有情感的機器人的恐懼。是在無法迴避機器人是否該擁有情感這個問題的情況下,做出的一種勉強回答。但我認為這個回答是蒼白無力的,根本回答不了這個問題。人類尚且無法被道德法規所約束,只憑三條定律如何來約束擁有人類情感的機器人?就算是解釋為寫入晶片擁有最高階許可權又如何,只是徒增一個羅素悖論而已。
自私的人類是不會放任機器人擁有情感的,作為這個問題的答案也就沒有存在的必要。機器人三定律似乎不可能有實裝的可能性。
回到問題中來,人類只會發展一種有缺陷的人工智慧,一種比人類智慧低一個等級的智慧。我們能看到目前這種人工智慧發展勢頭迅猛,逐漸進入我們生活的方方面面。我們也需要警惕,人工智慧的發展,到底是災害還是福音。這也是這個影片的目的。
-
3 # 天波雷達
機器人三原則只是科幻小說的一個異想天開的論點,在現實中並不存在,不能把小說中的所有觀點都代入現實社會。
機器人也是工具,是人類為了最簡單最好的實現目標的一種手段而已,即使能有一定的智慧但本質上還是工具。人類為了既定的目標會開發出越來越好的工具,戰爭中的裝備也是一樣的,一個既不會累又沒有生命的戰爭機器人如果能替代那些飛機大炮的話對於軍人絕對是優良的選擇。工具的研發很多情況下決定因素不是道德而是利益,如果有利可求的話即使違背道德也依然可能被開發出來。所以現實中一開始就不存在什麼機器人三定律,戰爭機器人不是幻想而是必然。機器人三定律只是科幻小說的幻想
殺人蜂機器人也只是一種工具而已,雖然反人道但是隻要有利益就依然可能會存在。從效能上來看,如果能解決微型破甲戰鬥部、目標識別、續航時間、人工智慧等的問題,殺人蜂機器人對於現在的暗殺技術來說是非常大的進步。無需讓殺手進行危險的刺殺而是依靠機器人完成任務,無論是成本還是風險都大大的降低,微型機器人巨大的數量也會大大的提高暗殺成功率,可以說這樣一個既安全又高效的殺人機器人是很多人夢寐以求的。這樣來說,殺人機器人真的可能不再是夢幻而是可能現實存在的計劃。
對於用途方面,殺人機器人可以用來刺殺恐怖分子,極大的提高反恐效率,對於恐怖分子也沒有人道方面的問題,而這種機器人用來暗殺可能會有人道上的問題用於恐怖分子是非常好的選擇。而如果這種技術被恐怖組織得到,將會是極大的災難。可以說這種微型殺人機器人會對社會有著極大的影響。
-
4 # 哨兵ZH
評價這款武器,我覺得應該先對AI(人工智慧)的發展做一個評價,最近幾年,AI是一個很熱門的話題,像話題感很足的無人駕駛汽車、無人超市、智慧家居,還有會下棋的“阿爾法狗”(貌似有自己學習的能力)等等,這些都是AI在生活中的各種應用,這些例子也說明了在21世紀的今天,人類在AI方面取得了初見成效的成就。這時就有人擔心,隨著AI的高速發展,會不會影響到人類自身的生存?特別是AI已經用在了軍事用途上,比如現在各國玩得很嗨的無人攻擊機,乃至題目上提到的殺人蜂無人機,或者美國佬正在研發的螢火蟲無人機等。
什麼是人工智慧?人工智慧其實說白了就是人類想要計算機來模仿人類的思維方式,比如主動思考、學習、理解等等人類大腦的各種能力。題目中所說到的殺人蜂無人機,最主要就應用了人臉識別的技術,這是一種生物特徵識別技術,主要運用特定計算機分析演算法就可以實現,感覺更像是一種特定的程式,是人工智慧當中比較初級的階段(我舍友都還做出個人臉識別的大門呢),還是要人類事先編寫好程式和特定的演算法。我個人覺得,如果真的說到威脅,會自己思考、有學習分析能力的智慧系統威脅性更大,但是在今天來說,要達到這種有威脅的程度(貌似阿爾法狗據說有學習能力),還有挺長一段路要走。
而且生物模擬技術不過關的情況下,機器人的靈活性就是個很大的問題,那種機器人就算真的失控了,動起來跟關節炎似的東西,你確定對人類有很大的威脅?就比如殺人蜂無人機,單個情況下,我覺得用槍掃射就能搞定,如果是群挑,火焰噴射器應該是種不錯的選擇,再怎麼說,目前來看這些所謂的軍用機器人也只是人類手上的一種工具,還不具備對人類造成威脅。我這是從硬體方面講的,AI的失控,在軟體上更加令人害怕,就像一些電腦病毒一樣,搞不好就是全球性的災難,但是感覺已經發展到了那種程度的AI,人類應該也有後手去對付他,我們既然成為了這個星球的主宰,除了大自然和我們自己作死以外,哪有那麼容易被第三者乾死,還是我們自己造出來的東西。(或許我們人類本身就是某高階文明的產物呢?哈哈,開個玩笑)
最後讓大家看看這貨,丫的後空翻比我還6,這是波士頓動力公司搞出來的,看到這種騷操作,心裡有點發毛,感覺讓我跟他打一架,會被他單手錘爆的節奏!總之,我覺得殺人蜂無人機應該還沒這個東西厲害,生物模擬技術的突破,會讓機器人越來越靈活。
以上只是我個人的看法,如果有不對的地方,請多多指教!
回覆列表
我們所知道的“殺人無人機”是在日內瓦的一次有關武器的會議上播放的影片,影片中一群“殺人無人機”利用人臉識別準確找到了教室中的學生,只有蜜蜂大小的無人機瞬間將學生殺死。這種無孔不入的“刺殺”方式,不僅科幻也十分冷血,讓人看了不寒而慄。科學家試圖警告大眾,這種技術不僅存在,而且未來會更加先進,如果一旦落入壞人之手,將不堪設想。然而這和什麼所謂的“三原則”則根本扯不上半毛錢任何關係。
所謂的“三原則”主要是科幻作品中作者給機器人設定的基本原則。這是建立在機器人有了自主思維能力基礎上的,是人類要在邏輯上給機器人設計了不能攻擊人類的底線和原則(這是科幻作品中作者的設定)。這既是人類潛意識裡出於自我保護的需要,更是源於人類對未來機器人發展的內心恐懼。然而所謂的“殺人無人機”根本就是按照人類設計要求,“刺殺”的指令完全由人類設定,“殺人無人機”只是按照人類的指令尋找符合指令的目標,它本身是沒有任何自主思維能力的。
對於“殺人無人機”和人工智慧最大的區別在於有無自主思維能力。科學家設定的“三原則”是建立在機器人有了自己的思維能力的基礎上,但是此原則完全是虛擬的。而“殺人無人機”目前看卻是實實在在的,這是科學家對當前“無人機”及其相關技術發展的擔心與憂慮,一個是當下現實的威脅,一個是未來可能出現的危機,可以說完全是兩回事。