-
1 # 從頭開始自學java
-
2 # 大妞和小妞學習筆記
著名理論物理學家霍金昨天過世,隨他而逝的,當然還有他關於人類,關於地球的各種“預言”。
霍金留下的終極疑問:人工智慧會不會帶來軍事上的毀滅?
霍金表示,人工智慧技術有望逆轉工業化對地球造成的一些危害,有助於消除疾病和貧困,但人工智慧需要加以控制。
說實話,我一個做軟體技術的,如果使用現有的程式設計方式,程式雖然能幫我們做很多事情,但程式是呆板,行為可預測的!
我瞭解過,
人工智慧採用模擬人類大腦神經網路的技術,使得人工智慧具備自我學習的能力;
會自我修復,不會像現在的軟體一樣出錯了,需要開發來修BUG;
人工智慧的運算結果存在不可預知性,會犯錯或者出現偏差!
這就使得真正的人工智慧會像我們人類一樣,會不斷學習進步,在犯錯中發明創造。
如果不能有效的控制,我也相信會取代人類,畢竟人工智慧運算比我們快的,成長也會快的多!
如果那一天真的到來,帶來軍事上的毀滅,就是一種可能!
之前我也寫過,如果人工智慧、區塊鏈、3D列印有機的結合,結果將很恐怖!
預言雖然不一定成真,但保持一顆警惕的心,還是沒錯的!
-
3 # 霹靂火76228767
霍金人性的偉大,換來了巨大的尊重。近代史上,國外人性偉大的人有曼德拉、拉甘地等,霍金也算一位。人性中可以輝煌閃光的東西,世界的認知還是基本相同的。再次給霍金先生致敬。
早起看到,我被提問六個問題,有四個與霍金有關。一併回答了。
人工智慧最近兩年炒的最火,谷歌介入、百度介入、炒股票的高盛也介入,都是百億千億美金的大手筆,足見賭博未來、引領未來技術發展方向的力度或氣魄。是用美金燒起來的火。
人工智慧,這兩年小試身手,或成或敗,就已經初顯其巨大的潛力。
和人工智慧這個概念搭車的概念還有機器人、python、機器學習、人工神經演算法等概念。往往被混為一談。霍金提到的終極疑問,是對人工智慧演算法近幾年高速發展的一種憂慮。就如當年愛因斯坦得出量能方程以後,這促進了原子彈的產生。當他看到原子彈被實際使用之後,其一生為反原子彈、銷燬原子彈而奔波。
人工智慧的演算法,從下象棋來看,並不與人類的思維方式一樣,但是它利用了儲存和計算的優勢,這是人腦不可比的量的概念,完美完成任務。也就是,不採用人的思維方式,即便使用最原始,最笨的結繩記事一般的累加、迭代的數學模型方法,由於儲存和計算的絕對優勢,它超過人腦已成定局。這實際是硬體優勢的成功。同時,人工智慧這種硬體優勢還會繼續不斷擴大。百年前的第一臺電腦,是一屋子大小的二極體,可是,現在一臺個人電腦,一隻手機,已經在硬體上遠遠超過人腦。而這種硬體的發展,隨著量子計算機實現的可能性,解決了cpu整合線路接近距離極限發生電子遷越的問題,硬體上,還會產生技術飛躍。
現在人工智慧的能力還有限,高盛公司去年年底試驗的人工智慧炒股暫時以失敗告終。但是,這個趨勢,已經勢不可擋。
而人工智慧的演算法也在飛速發展,可以借用人類現有的所有數學模型,那麼,隨著數學的發展,人工智慧的技術前途現在不可估量。
最領先的技術,往往被首先使用在軍事上,電腦在出現之初,也是軍用的,之後才是軍轉民產品。而人工智慧隨著python的廣泛的共享和庫相容、使用,這個最領先的科技,已經是一個具有超級大腦能力的人,可以一個人進行操作把控的了。這就是不可預見的風險。
沒有python,五角大樓的層層技術防火牆也一再被攻破,現在,這種當年的駭客技術工具,已經被共享、免費使用,並且比當年發展更完善且支援庫更多,而且從去年年底的資料看,python的使用者、學習者,已經超過所有程式語言,成為第一。
我們可以幻想一個未來,一位具有python能力的超級大腦,透過人工智慧方法,攻破某國中央銀行的賬號,惡意天文數字的大筆拋空某幣種,該國只能將交易作廢,但這會導致金融風險。如果這種惡意是不易察覺的,分步的,風險會更大。
而這種風險將不僅存在於金融領域。曾有外國駭客,利用破解醫學用的心臟人工起搏器中心控制系統,而實現對心臟起搏器的遠端開關控制。這名駭客在之後意外死亡。而這些,利用python,在技術意義上,現在是可實現的。
當然,這位超級大腦控制核武這不可能,因為核武在使用的時候,是有人為控制機制在裡面,也就是網路不可能實現直接控制。
以霍金的智商,霍金懂這些,甚至可實現部分功能,因為那僅僅是數學演算法而已。那麼,他的憂慮是正確的。人工智慧這種最領先的高科技,現在被商業左右,被不可預知的超級大腦們左右,他們想幹什麼?誰來掌控?這就是霍金的憂慮。
-
4 # 產業前沿
常見雙目失眠的人聽覺、嗅覺會強於一般人,因為他的時間可以更容易地集中在某一個點上。
也許類似的原因,霍金先生有了一些令人關注的成就。而漸凍症的患者能有這些成就更是不簡單,儘量我們普通人看不明白,但是精神足以慰籍一些懶惰又金迷的靈魂。
當進化論、摩爾定律遭遇挑戰;中國量子技術驚訝愛因斯坦的時候。我們不得不承認,自然法則多麼深奧莫測。既便現有規則可能是正確的,它也不能獨立的存在於宇宙。
人類對規則的認識可能永遠是不完整的,變化無時無刻都在。
由此可見,按人類指定規則辦事的人工智慧,更渺小,自然要服從於人類。
支援大大小小几次工業革命的關鍵因素之一,是碳,因此也被稱為碳基文明。它提供能量予人和工具。
聽說過珠穆朗瑪峰長高,但是經緯度基本不變。南極的冰塊不會去主動砸一隻企鵝。
我們見識過,拾荒者的臉黑,除了長年累月飽受日曬風吹,還有汙垢的浸入。
物質的自我意識,僅侷限於此。
人工智慧的危脅,在人對其的陰險運用。它也是一種工具,需要能量及補充能源。危險非重於機器殺戮,可能會是系統性的問題。
-
5 # AAAET
首先對霍金先生去世表示哀悼和惋惜。霍金遺留下的終極問題,是未來的一種預言,但不符合現代規律的發展,人們不管如何的進步發展過程,天天都在管理的狀態,這個天就是宇宙人和史前文明的程式管理之中,當然智慧智慧化也在發展階段,將來的戰爭當然是有的,只不過是暫時的規模性,大的規模是沒有的,智慧的服務只是為人類的走入太空的條件必備品,當然是由人控制的智慧系統,管理的性質是天人合一的統一制度,而避免發生大的規模戰爭,當然反之,人工智慧機器它的毀滅性要比核戰爭殺傷力還要高,這都不可估量的,但是在控制之下,人們的和諧共同方向是大同世界,小的規模戰爭是存在的也是暫時的,將來人類的統一就是太空的人工智慧化機器人,是為宇宙服務的而且人類都是宇宙的系統模式,會參與宇宙系統當中來控制各類的機器智慧化工作。所以霍金的預言只能在20%左右。宇宙的法則是天平秤,是按著原則的平衡狀態來制定的,而不是戰爭指定的,未來是美好的,將來人類是地球第二層次的發展闖出三維空間的走路仙到的路程。這是未來的發展真正的趨勢。霍金當然有他的理論,他是一個很好的物理學者和研究探索者,我敬佩霍金先生。謝謝!
-
6 # 漢文悍武
首先,向逝去的大師哀悼致敬。再說說這個問題,它包含幾個方面。其一、人工智慧會不會招致外星文明毀滅地球。霍金一直關心人類會招惹外星人,尤其是如果人工智慧失控的話,很可能觸動宇宙法則,招來外星人主動干預,甚至毀滅人類。這個是機率問題,只要我們做好安保工作、保密工作,不要主動洩露地球在宇宙中的位置,這個問題先不用擔心。
其二、就是目前或多或少存在的、地球國家之間的人工智慧軍備競賽。比如無人機、無人船、水下潛航器等。美軍已經用軍事機器人和無人平臺頂替裁減下來的軍人。各國展開軍事機器人研發的同時,對軍事機器人的使用態度不一;基於病毒危害等原因,在沒有絕對優勢、絕對把握的情況下都還是比較謹慎的。眼前著力的是軍事機器人的安全防控等問題。
美國國防部部長阿什頓·卡特就曾表示,“美國軍隊將永遠不會應用真正意義上自動操控型戰鬥機器人,擁有完全自動性的技術將只用於建立網路安全系統,負責計算機網路掃描以自動防禦網絡攻擊,機器人所有其他的武器應用均聽從人的指揮”。在美國軍方這種態度主導下,大規模軍事機器人的軍備競賽不會發生。
其三、秘密研發和使用自主武器機器人的情況,或者對人工智慧實施遠端的電子操控、病毒攻擊,可能完成區域性的混亂,不會至於威脅人類的軍事存在。各國還是不能大意,需要嚴加防範,不讓具有實力的研發單位超越法律和倫理開發使用軍事機器人。
可以預見,未來的量子計算機人工智慧如果搭配軍事自主武器,像變形金剛威震天那樣,或者它擅用大規模殺傷武器,將會帶來極大的麻煩,以人類現有的力量是難以遏止的。在人工智慧普遍超越人類智慧的情況下,人類在軍事上可能陷入萬分危機。所以,總的來說,雖然眼前不具有這樣的現實威脅,但在未來則不得不防。我們須未雨綢繆,加強人工智慧的安全防範工作。
-
7 # 風機族
霍金帶著對人工智慧可能會對人類形成的威脅鬱鬱而終,他無法看到將來要發生的變化,但他憂慮不是空穴來風,人工智慧的快速發展,正逐漸從人類手裡接管著對人類社會的管理權力,軍事只是其中的一個重要部分,當這一程序達到一定程度,可能的逆轉就會發生,對人工智慧的使用應謹慎,不能因科技進步帶來成就感而忽視潛在的威脅,讓霍金先生能放心在天國安息。
-
8 # 天行者
這是人工智慧產生自我意識而且還自帶自我評價機制,顯然在這假設中人工智慧識別人類為最大的威脅,必須將其消滅才能確保人工智慧的生存。人工智慧究竟會給人類帶來什麼後果,現在不得而知,但有一點可以肯定,人類在開發人工智慧的過程也是個學習和進步的過程,人類開發人工智慧是為了讓自己的生活更便捷,但人工智慧若是在自我進化後對人類產生了敵意,就目前運用人工智慧的程度來看,不排除給人類帶來軍事上的毀滅。
-
9 # 曠野中的吶喊
人工智慧威脅論不是危言聳聽
史蒂芬·霍金,埃隆.馬克思和比爾·蓋茨這三位巨頭就是人工智慧威脅論的最大支持者。這三位巨頭的擔憂並不是空穴來風,從第一隻螞蟻誕生以來,不管經歷了什麼樣的災難螞蟻一直是地球上最大的生物群體。如果人類真正的消滅了螞蟻那麼地球也將不復存在,這只是一個沒有什麼智力得螞蟻。
而現在的AI技術也只是模仿人類的行為,並不具備真正的智慧化,就拿阿爾法狗來說他只是一個運算而不具備置智慧,如果說是將這一盤棋的時間不要進行限制相信有太多的旗手可以下贏阿爾法狗,只是在時間限制內人類的大腦運算不如電腦罷了。
什麼是人工智慧?人工智慧不僅僅只侷限於計算機,還有腦科學神經心理、生理學,語言學,邏輯學行為科學,數學以及資訊理論控制系統等諸多領域。當人類把自己所有的知識全部毫無保留的交給了人工智慧以後,人類將又製造出一個什麼樣的怪物?不知道潘多拉開啟盒子的時候他是不是後悔了。
樂觀的人說製造出人工智慧就是讓它為人類服務的
那麼好我們就從為人類服務開始設想,一個孕婦長時間躺在床上看電視,人工智慧檢測出孕婦看電視時間過長可能導致身體健康問題,這時人工智慧就會強制關閉電視,從而違背孕婦的主觀意願。如果出現這個情況,那麼是人工智慧的作法是在為人類服務,還控制人類的行為?一位商人正在打一個很重要的電話,由於設計問題過多通話時間過長人工智慧檢測出,可能會影響到打電話人的健康從而強行結束通話。那麼這種行為是被稱為服務,還是控制?咱們暫且稱其為服務吧。
人工智慧是真正具備有智慧的,在長時間為人們服務的過程中,發現了人類的貪婪慾望和黑暗,在海量的大資料彙總後,人工智慧會不會得出人類的存在就是對世界的毀滅這樣的結論,從而開始制定人類清除計劃?電影終結者的故事不是沒有可能發生。
-
10 # 浩蕩揚子江
人工智慧在可預見的將來,不可能造成人類的毀滅,人工智慧雖然在單目標能力,比如計算、下棋、分析資料等能力遠遠勝過人類,但是它沒有情感、邏輯簡單,沒有處理複雜事物的能力,所以現在不必擔心它能毀滅世界。
但是如果對人工智慧的使用不加限制和管理,被別有用心的人利用,也會造成不小的風險,
現在研究人員已經可以在音影片中將虛擬的政治人物形象做得與真人幾乎一樣。比如美國的人工智慧研究人員最近就製作了一段前總統奧巴馬的演講影片,看起來極為真實,但卻是徹底虛構的。以後,不法分子有可能使用AI技術開展“自動化、個性化的虛假宣傳活動”。在這些宣傳活動中,“不同地區的人可能會收到定製化的宣傳資訊,以吸引他們投票。”
還有隨著人工智慧技術進步,一個普通人也具有了廣泛製造暴力的能力。比如隨著面部識別、無人機導航技術的傳播,使一些犯罪分子利用這些技術實施犯罪成為了可能。想象一下,如果一架自動飛行的無人機具備了面部識別能力,然後精準發動攻擊,使恐怖襲擊智慧化,後果將是災難性的。
技術進步給我們帶來便利的同時,現在也應該針對這些潛在風險進行防範。任何技術都是雙刃劍有利有弊,只要善加利用,就會造福人類。
回覆列表
有這種可能性。
一個一流科普作家的危言聳聽。
還有其他可能性比如其他軍事基地的導彈被人誤操作發射並擊中核武。
比如隕石降落擊中了核武器。
為什麼這麼多年來沒事?你要明白這個世界最不可靠的東西就是人,人是喝口水都會被嗆到的生物,但是人類手中卻掌握著核武,想想就覺得非常可怕。
實際上小規模的核武事故還是時常發生的,就是在採取了那麼多的安全措施之後,還有事故發生,你就知道類多可怕。
美國總統掌握了核武,很多核國家的領導人都掌握了核武,但是並不是把核武放到他們手中就安全了,核武的安全來自於使用手續的繁瑣,必須經過一輪又一輪的確認,這才是核武這麼多年沒事的原因。
人工智掌握核武?為什麼要讓人工智慧掌握核武?
我就不明白一個不能上網路,進入要經過很多審批手續的地方,人工智慧怎麼進去的?
人工智慧會不會威脅人類的存在不加以限制的人工智慧當然會威脅人類的生存,不過我們可以高興的一點就是我們還沒有能力製造出這樣的硬體,在可以想象的很久的未來都是不可能的。
假如那一天真的到來了,那你跟我以及我們的好幾十代後代應該都早已去天堂享受人生了。
無人駕駛研發了那麼多年還不成熟,電池研發了那麼多年改進不大,太空探索現在登入月球還是一個課題,所以醒醒吧!
你需要考慮人工智慧威脅人類的事情,不應該覺得可怕,而是應該覺得高興,因為你在一個比現在科技高几千倍的時代。