-
1 # 高斯特金
-
2 # AAAET
霍金說外星人將來侵入地球,這是網上炒作,並不是霍金的真實預言,而且批落謠言的一說,霍金曾經也表示他沒有說過此話,這是網路炒作的謠言。人工智慧無所不在,現在的科技包括工業農業核醫學等設施都是智慧人工化,那麼沒有違反人類的原則和正常的秩序,而且這些人工智慧的裝置廣泛應用為人民服務,再高階的智慧它也是人類的控制,可怕的不是人工智慧,可怕的是人在操縱偽科學的人工智慧,當然,國際也有國際法的原則,將來會協調統一制定管理。所以未來沒有什麼大的出路的危險,小規模的戰爭是有的,但都是暫時性的,將來人類的思想變化都是一個共同的目標那就是大同世界,和諧的新時代。謝謝!
-
3 # 龍一歐
人類集中在地球生活,面臨滅絕的威脅主要是地球毀滅和人禍帶來的危機。地球毀滅的危機一直存在,比如星球大碰撞,人類核戰爭,如果管理失控,人類還有可能會發展出比核武器威脅力更大的各種武器,並由些把人類安全推向更危險的位置。人工智慧發展到高程度的時侯,各方面的技能都會遠超人類智慧,人類會越來越依賴人工智慧,個人掌控人工智慧後,如果想搞破壞,具有的破壞力會越來越大。飛機給人們出行遠遊帶來了方便,但人們在乘坐飛機時,也把生命安全交付給了飛機,每次飛機事故都有不少人失去生命。如果人工智慧發展程度很高,此時人類生活各方面都會高度依賴人工智慧,人們在享受著人工智慧帶來的各種便利的同時,也可能會把大量的生命安全交給了人工智慧,霍金說人類要警惕人工智慧是有道理的,不要把眼晴總往人工智慧帶來的便利方面看,更要注意這些便利是否會威脅人類生命安全問題,這個問題很重要。致於人類離開地球問題,現在人類沒這個條件,如果將來有這個條件,考慮到地球毀滅的可能性是存在的,把人類分散到多個星球中生活,這樣人類被滅絕的可能性就會大大減少了。
-
4 # 霹靂火76228767
今天說說霍金先生為什麼“告知人類離開地球。”關於人工智慧的,昨天回答了。見》霍金說要小心人工智慧,那麼人工智慧會不會帶來軍事上的毀滅?》
做為物理學家,仰望星空,是一件多麼美好的事情。如果能縱橫太空,那才是所有天文物理學家的夢想。霍金一生也在為此努力。當然,基於這個遠大的夢想,現在所有的天文物理學家做的都是最基本的工作。至少,旅行者號飛過冥王星了,飛出太陽系的引力場,那是以後幾代人的事情了。而太空站、登月、登陸火星,這是現實的理想,也正在陸續實現當中。人類走出地球,邁出了一大步,但這僅僅是走向星空的開始。
西方是有宗教文化背景的,多數人知道基督教的末世論。末世論實際是警醒人們不要過分,人性的弱點不要暴露的太突出。佛教的說法是:“天作孽,猶可恕;人作孽,不可活。”道教的說法是:“天地不仁,以萬物為芻狗。”也許我們不信宗教,但是至少會想起老天爺,在天災人禍的時候,也會發現“蒼天無眼”。基於這種文化背景,基於對現代科技的高速發展的深切認知,霍金提出這種“新末世論”,無非也是想警醒後人。科技,好啊,太美妙了,但是,用錯地方,就有大問題。已經明白佛教“諸相非相”的優秀科學家們,這點憂慮還是有的。
擁有這種思想的還有愛因斯坦,他的量能方程促生了原子彈,但是在原子彈真正被使用後,他一生奔走,投入到軍事領域無核化的努力中。他怕這個科學的怪物一旦失控,後果不可想象,按他的想法是,一旦爆發核戰爭,人類可能回到石器時代。但是,他還是低估了核武器現在地球上的總當量。
還有一個號稱有能力把地球“撕碎”的科學家就是特斯拉,不過他40歲以後的所有技術成為美國最高的絕密。還好,他沒露一手,但是通古斯大爆炸,他總是脫不清干係。他已經是秘密了。
科技已經達到了能把地球毀幾遍甚至撕碎的能力了。而現代的霍金,就是研究這種科技的人才之一。那麼做好離開地球的準備,一旦萬一,至少能給地球留點香火。多麼悲愴的前瞻。他晚年投入到太空旅行的專案中,也是想出一點力。
物極必反,盛極而衰,這是周易的道理,霍金懂,基督教懂,道教也懂。飛龍在天就好,不要物極必反。這就是宗教末世論和霍金的“新末世論”的意義。
-
5 # 志遠
霍金生前說人類在地球上生年限僅剩下100年了,讓人們去尋找外空人類於居住生活的星球,移民。他的推斷兩種可能,一是氣候異常,如超級火山噴發,不適宜人類居住了,二是小行星撞擊地球等等。我想這兩種情況都是天災,目前人類無法制止,至於人類離開地球去其他星球,移民,100年內恐怕無法實現,至今還沒有發現可供人類居住的星球,假如發現了怎麼移民?坐宇宙飛船嗎?多少人可以移民?全體嗎?
人工智慧,是人類發明的產物,人類會有所控制,絕不能變成殺人武器。舉個話外題的例子,.現在地球上的核彈能讓地球毀滅N次,能隨便動用核彈嗎?不可以的。
-
6 # 詩人的眼睛看世界
作為一個普通人,沒有霍金的智慧,也沒有什麼天賦,就談談個人的想法。
首先霍金先生生前期待人類能永遠生活在這個宇宙之中,這是對人類最美好的祝願。我們知道,自己辛辛苦苦建造的居住的房子,也會有破舊倒塌的時候,當然地球也會有衰老、消亡的時候。當我們希望我們的家永在,而房子不能居住時,再建造新的房子,同樣當地球不能讓人類賴以生存,人類也不能坐以待斃。
有人認為這是痴人說夢,一個連光都要幾百年才能到的星球,真的是可望而不可及。是的,目前及今後相當長的時間內,都是如此,但只要努力,只要付出,辦法總會有的!不是嗎?一百年前,誰敢想到月亮上轉個圈,現在不是做到了嗎!
至於人工智慧,現在對它的危害還只想象之中,但確實真真實實的存在了,比如,人類依賴症越來越嚴重,肯定會促使人類退化和沒有戰鬥力。
另外,人類和人工智慧的較量已經讓人對人工智慧產生恐懼,那些棋藝高手都和人工智慧的博弈中處於下風,如果人工智慧失去約束,還有什麼能讓人工智慧臣服。
人類賴以約束人工智慧的辦法想必就是人工智慧模組化,既人工智慧的單一功能,所謂的單一功能,是人沒想到智慧能不能舉一反三,人可以漠視人工智慧的拓展,但人工智慧肯定具備拓展業務的功能。一旦人工智慧自己打通它們的模組隔離,不可想象的事就會發生,而且人類無法阻止。
一個天才的生前警告,充滿了對人類的愛,未雨綢繆,希望人類提前做好保護人類的工作,不要搞人類內鬥,不要自相殘殺,不要耍政治陰謀。給人類一個充滿希望的明天!
-
7 # 映山紅英雄紅
謝謝悟空小秘邀約。雖然我很喜歡一味批判霍金的這不是那不是,但這裡畢竟還稍帶點我想臭顯擺自己有點小聰明的私心。從客觀的也許也是公正的角度看,霍金生前告知人類離開地球和警惕人工智慧 ,無疑是善意的,是懷著一份對人類的大愛之心。地球上現在的核武器的數量以及生物化學武器的數量足不足夠毀滅地球和人類數十億次?我看是足夠了。其次,人工智慧發展到一定的程度,會不會引發像智慧機器人之類的對人類的反叛之心,並發動對人類的新型侵略戰爭以及對地球的新型殖民戰爭呢?聖經上不也記載了當年人類要修建直通天庭的巴別塔從而引發上帝的警惕擔憂和震怒麼?還有索多瑪城裡人類的生活日益墮落以及對上帝的種種悖逆行為,上帝都一一看在了眼裡記在了心裡,上帝從此對人類失望至極 ,甚至後悔根本就不應該創造了人類。於是人類統一的語言被分化了,如原子核武器爆炸般場景的災禍降臨人間了 ,索多瑪城變成了一片硝煙和廢墟,滔天大洪水也來了,人間變成一片地獄,最後飄來了一隻可憐的若亞方舟傳達了上帝對人類的最後的父愛善意和拯救之心。聖經的記載對人類何嘗不是一種警醒,至少證明上帝和人類之間是發生過慘烈戰爭的。話說回來,還有另一種更極端更可怕的情形也許會出現,就是萬一人工智慧和智慧機器人搶奪和操控了人類的所有核武庫和生化武器,萌發了要統治整個地球和人類的邪惡野心,這個時候戰爭的逼近與爆發恐怕將是無可避免的了。這個時候的人類還會有逃離和自我拯救的哪怕僅僅是那麼一點點的機會嗎?從這些情況以及種種潛在的大危機大災難分析,霍金對人類的提醒和警告無疑是睿智的富有遠見的深思熟慮的 ,而絕對不會是什麼信口開河胡吹神侃 ,我們應該還霍金一份應有的公道敬意和尊重。當然,霍金只是理論型科學家和理論型物理學家,他不可能像馬斯克那樣能造出特斯拉能造出超級高鐵能造出龍飛船能造出可回收的火箭還能在2023年如約登陸火星。霍金缺少馬斯克那種型別的天賦能力和運氣 ,這讓很多人覺得霍金遠不如馬斯克那樣實誠和接地氣,其實人們對霍金的這種認知和評價是很偏頗很極端的很沒道理的,但又是可以給予理解和包涵的,因為人類本身也是有短視急功近利和侷限性的。就說到這裡,謝謝。
-
8 # 和諧快樂
謝邀!霍金生前的一些理論可以採納!但是不要當真!總歸是幻想的沒有真實依據!他說的離開地球是地球的能原開發沒有了和大地的汙染,地球將進入不可居住惡劣環境等一些不利於人類生存了!告知人類儘快尋找可以居住的星體移民!但這只是猜測行為!地球有危險是肯定的!像小行星撞擊!太陽休眠期大地變的極其嚴寒不利人類居住!人為核汙染!地球板塊巨大移動,岩漿氾濫暗無天日使人類滅絕!這些都是有可能發生的!但這也是不定時的!他只考慮到了危險!沒有考慮到人類的科技發展也許能避免這些危險,讓人類免於傷害!就人工智慧機器人來說只是人類的機器而以!是人類製造的精密機器智慧!還是需要人類的科技大腦來控制!沒有人類它們只是費鐵一堆!沒有思想和獨立核心,沒有有機大腦支配!只是能夠加工更加的精密金屬而以!就是有思維也是人類給智慧機器加的一部分程式而以!還是人類的思維模式程式式動作!沒有獨立思考和獨立完成的新模式!人類加的程式到哪裡它就做到哪裡!只會重複程式!不會製造程式!所為說霍金的擔心是多餘的!他主要是一個天文思想家!沒有科技開發的思想!所為他只有幻想危險!不會科技開發消除危險!
-
9 # 天行者
地球自誕生到現在已經有40多億年了,根據一般的規律,有出生就有滅亡,而且有理論和科學支撐,按照此規律,地球也會有一天消亡的。那麼作為地球上的生物為了繼續生存下去,必定會要離開地球,且現在的航天技術正在不斷的提升,探索宇宙的熱情也在不斷的高漲,這一切正為人類離開地球做著準備,我相信,將來人類會慢慢離開地球,奔赴廣袤的宇宙。至於人工智慧,現在各國發展的熱情也比較高漲,當然在這過程中肯定會不斷伴隨著各種各樣的討論,原因在於人類對於未知事物的一種本能恐懼和探索慾望。霍金警告人類要警惕人工智慧,主要擔心在於人工智慧將來會反噬人類,但人工智慧將來的發展到底會怎樣,誰也無法預測,但我認為,贊同和反對都應重視,贊同的意見會讓我們的人工智慧發展的更快,反對的意見會讓人工智慧發展的更好,甚至不排除人類最後與人工智慧合二為一,使人類進化成一個全新的,更高階的物種(想想都覺得詭異,但不排除),所以,我認為,對於人工智慧沒必要對其感到害怕,要引導人工智慧的發展,而不是恐懼其發展。
-
10 # 梵易1
人工智慧三不具備,一不具備人性,二不具備天性,三不具備靈性。
正因為有這三不具備,就不存在修為,只存在編碼程式。如果把人工智慧用於軍事,那他比核武器還可怕,。如果編一套毀滅地球、毀滅人類,人工智慧真能做到。如果他可以進化,重組程式,人工智慧機器人將會是地球的主宰,人類不是淪為奴隸,就是被滅絕。
所以,霍金的警告是對的,人工智慧的發展很危險。
回覆列表
程式設計師都知道,程式碼寫的越多,bug越多。那麼什麼是bug呢?有些與期許的功能不一致也稱之為bug。
程式碼寫的功能有些會相互影響,在程式碼中該稱之為耦合吧。人工智慧是基於學習模型的,那麼多個學習模型聯合,不同功能之間也會出現耦合。
耦合的功能說不定發生什麼意外。你聽過基因變異嗎?完全不會有遺傳病的父母,可能孩子因為基因變異而染上遺傳病。
人工智慧的學習模型假設人類保證完全沒有問題,如果出現功能變異。說不定會發生什麼事呢?
人類給人工智慧定義得學習模型,多個學習模型互相影響,忽然導致的變異可能使人工智慧擁有了自主意識,如果萬一學習了惡這種東西,誰說人工智慧會幹出什麼壞事來呢?毀滅人類也是有可能的。
所以警惕人工智慧個人認為是有必要的。太平洋的風暴可能只源於某座島上一隻蝴蝶扇了一下翅膀。人工智慧的變異可能只源於某次小小的變異。
對於離開地球。去哪?有些異想天開?人類既然是地球的生命,首先想的不應該是放棄她,而是如何守護好她。積極應對未知的威脅。
誰也不敢保證有第二個像地球這麼溫馨的星球,或者說不敢保證能找到。誰又敢保證現在擁有能逃到其它星球的力量。逃與面對同樣都需要力量的。倒不如把力量用在如何守護好這個星球上。
地球再過幾億年都不會毀滅,太陽再過幾億年也不會毀滅,要求四五十年的時間將人類撤離地球,即杞人憂天,又異想天開。
在地球上,我們不需要去創造一個適合我們人類生存的環境,但我們應該去守護好一個我們人類來賴以生存的環境。
感謝閱讀!