AI已經在引領第三次軍事革命了。面對人工智,人類對未來真的有一絲困惑,甚至恐懼。
記得當年看《終結者》時,驚歎於宏大的場面與天才的劇情構思,以為未來還要很久很久,誰曾想一轉眼,它已來到面前。
前兩天看波士頓動力的機器狗跳舞,還有機器人三級跳,感覺非常震撼。一隻能跳太空步的機器以及完美平衡的人形機器,這背後有多少黑科技在支撐。給它們配上一挺機槍很難嗎?
想想從當年笨拙的它們到如今靈巧的它們,這才過了幾年啊。人類啊,不能科技已經邁入22世紀,思想還停留在20世紀啊。如果我們不能趕上這個飛速發展的時代,是多麼可怕的事件。
前幾年它還很笨拙
恩格斯曾預言:“一旦技術上的進步可以用於軍事目的並且已經用於軍事目的,它們便立刻幾乎強制地,而且往往是違反指揮官的意志而引起作戰方式上的改變甚至變革。”
AI這種新技術必將引發從作戰方式到作戰理論的一場鉅變,全世界都在關注著這次變革的走向,各大國都想做下一個引領者。
2016年美國發布《國家人工智慧研究和發展戰略規劃》,構建人工智慧發展的實施框架。
俄羅斯總統普京說“誰成為AI領域的領導者,誰就將成為世界的統治者”,在俄羅斯《2025年前發展軍事科學綜合體構想》中,強調AI將成為決定未來的關鍵因素。
歐盟在2013年提出“人腦計劃”,擬10年內斥資12億歐元進行人類大腦研究。法國也急速踏入這場競賽,總統馬克龍宣佈將在5年內投入 15 億歐元支援人工智慧,目標是趕上美國的中國,確保 AI 領域的人才選擇巴黎而不是矽谷。
中國在人工智慧領域佈局很早,目前與美國一道佔據領先地位。
2015年,以特斯拉創始人馬斯克、物理學家霍金為首的3000多名AI研究人員曾公開致信聯合國有關部門,他們警告“致命自動化科技”是一個“潘多拉魔盒”,一旦開啟就很難再關上。
AI軍備競賽是個糟糕的事情,一旦失控戰爭規模將空前浩大,蔓延速度將超乎人類的想象。建議聯合國禁止開發“超過人類控制意義之外的自主武器”,警惕戰爭領域的第三次革命。
這些站在科技最前沿的科學家們的警告絕非無稽之談。
AI機器人會帶來安全、法律、倫理等諸多問題。AI系統故障或被攻擊,將帶來災難性後果,機器人不能區分軍人和平民,濫殺無辜,對國際武裝衝突中的必要性、區別性、相稱性和人道性原則將帶來巨大沖擊。
最重要的是AI機器人挑戰了倫理底線,戰爭成為一場“電子遊戲”,人類的生命和尊嚴受到踐踏。
可讓世界各大國放棄AI軍事用途的發展是不可能的,與傳統武器相比,AI武器具有太大的優勢,沒有人敢在這場事關未來的變革中落在後面,所以,科研人員的呼籲也只能是美好的願望。
希望人類能將這種AI技術像核武器那樣納入監管與約束中去,讓它安全的造福人類。否則,我們還是多準備幾個約翰·康納吧。
AI已經在引領第三次軍事革命了。面對人工智,人類對未來真的有一絲困惑,甚至恐懼。
記得當年看《終結者》時,驚歎於宏大的場面與天才的劇情構思,以為未來還要很久很久,誰曾想一轉眼,它已來到面前。
前兩天看波士頓動力的機器狗跳舞,還有機器人三級跳,感覺非常震撼。一隻能跳太空步的機器以及完美平衡的人形機器,這背後有多少黑科技在支撐。給它們配上一挺機槍很難嗎?
想想從當年笨拙的它們到如今靈巧的它們,這才過了幾年啊。人類啊,不能科技已經邁入22世紀,思想還停留在20世紀啊。如果我們不能趕上這個飛速發展的時代,是多麼可怕的事件。
前幾年它還很笨拙
恩格斯曾預言:“一旦技術上的進步可以用於軍事目的並且已經用於軍事目的,它們便立刻幾乎強制地,而且往往是違反指揮官的意志而引起作戰方式上的改變甚至變革。”
AI這種新技術必將引發從作戰方式到作戰理論的一場鉅變,全世界都在關注著這次變革的走向,各大國都想做下一個引領者。
2016年美國發布《國家人工智慧研究和發展戰略規劃》,構建人工智慧發展的實施框架。
俄羅斯總統普京說“誰成為AI領域的領導者,誰就將成為世界的統治者”,在俄羅斯《2025年前發展軍事科學綜合體構想》中,強調AI將成為決定未來的關鍵因素。
歐盟在2013年提出“人腦計劃”,擬10年內斥資12億歐元進行人類大腦研究。法國也急速踏入這場競賽,總統馬克龍宣佈將在5年內投入 15 億歐元支援人工智慧,目標是趕上美國的中國,確保 AI 領域的人才選擇巴黎而不是矽谷。
中國在人工智慧領域佈局很早,目前與美國一道佔據領先地位。
基於對AI的恐懼與質疑,也讓很多人站出說:不!2015年,以特斯拉創始人馬斯克、物理學家霍金為首的3000多名AI研究人員曾公開致信聯合國有關部門,他們警告“致命自動化科技”是一個“潘多拉魔盒”,一旦開啟就很難再關上。
AI軍備競賽是個糟糕的事情,一旦失控戰爭規模將空前浩大,蔓延速度將超乎人類的想象。建議聯合國禁止開發“超過人類控制意義之外的自主武器”,警惕戰爭領域的第三次革命。
這些站在科技最前沿的科學家們的警告絕非無稽之談。
AI機器人會帶來安全、法律、倫理等諸多問題。AI系統故障或被攻擊,將帶來災難性後果,機器人不能區分軍人和平民,濫殺無辜,對國際武裝衝突中的必要性、區別性、相稱性和人道性原則將帶來巨大沖擊。
最重要的是AI機器人挑戰了倫理底線,戰爭成為一場“電子遊戲”,人類的生命和尊嚴受到踐踏。
可讓世界各大國放棄AI軍事用途的發展是不可能的,與傳統武器相比,AI武器具有太大的優勢,沒有人敢在這場事關未來的變革中落在後面,所以,科研人員的呼籲也只能是美好的願望。
希望人類能將這種AI技術像核武器那樣納入監管與約束中去,讓它安全的造福人類。否則,我們還是多準備幾個約翰·康納吧。