-
1 # 陌客愛騷人
-
2 # 探奇筆記
霍金,偉大的天文物理學家,一生都在致力於探索宇宙的奧秘。他在生前給全人類留下了寶貴的財富。霍金曾經做過一些驚人的預言。他的預言雖然有些是聳人聽聞的,但卻在警示著我們不能無休止地對地球環境進行掠奪。
霍金一直都堅信外星文明的存在。在2015年倫敦皇家科學學會的一次會議上,他提出:一定有其他形式的生命存在於茫茫宇宙中。也許外星文明此刻正在注視著我們呢。
在中國的“天眼”落成之後,霍金又向人們發出警告:不要試圖去回覆外星人向地球發來的資訊。
在開發人工智慧方面,霍金又提出了自己的觀點:人工智慧的開發最終會終結人類文明。他的觀點認為,人工智慧在一開始會促進人類文明的發展。但人工智慧一旦有了自主思考的能力,便會不斷自我完善,飛速進化,而人類卻因自身進化速度的限制而被人工智慧所超越。當這個被科學界所稱的“奇點”出現時,由於人工智慧的程式中繼承了人類所攜帶的固有的侵略基因,處於下風的人類文明或許因此而終結。
當然,就像霍金預言的那樣,人工智慧也許會受到外星文明的攻擊。侵略不但是人類的一種本性,同時這也會是宇宙其他文明所攜帶的因子。所以,霍金會多次來警告我們。
回過頭我們來看一看幾個史前文明:亞特蘭提斯、美索不達米亞、根達亞和穆里亞。他們神秘地出現又神秘地消失,目前我們只能從殘留的化石和人類文明的遺蹟來觸控他們微弱的脈搏。
他們是自生自滅還是遭到其他文明的攻擊。這給我們留下了不解的疑問。
在人工智慧不斷髮展和完善的過程中,遭遇外星文明的攻擊也不是不可能的。首先人類得對人工智慧的許可權進行限制,確保不會對人類進行攻擊。而後就要遵循霍金的警告不去暴露自己,在程式中做好防火牆。
祝願我們人類文明能永久延續下去,也祝願霍金能夠在天庇護我們。
-
3 # 樂菩隨心野
大家都知道,霍金生前曾多次警告(或者說勸告人們),不要主動和外星文明聯絡,或洩露地球文明的位置,以避免外星文明發現而給地球帶來災難。中國成功啟用執行世界最大的FAST望遠鏡時,霍金也提出了嚴厲警告。
但是,地球文明也需要不斷進步和發展,同時為人類的生存和發展尋找可靠的第二地球,繁衍人類文明。
隨著科學技術的不斷進步,特別是計算機技術的迅猛發展,人們利用計算機網路和分佈技術創造了AI(智慧)在一定程度上代替和超越了人類的能力和想象力,為人類文明發展揭示了新的發展方向。
但AI系統是人類自我創造和發展,因此有必然的侷限性,從人類角度考慮,要保證此係統不受其他文明控制和篡改,一時還有難度,至少因為你無法想象外星文明究竟發達到什麼程度,至少現在還沒有發現外星生命形式。
回覆列表
霍金,一位解釋時間的偉人終究還是被時間帶走了。人工智慧的發明存在著贊同和反對兩方。首先我個人覺得人類可以發展人工智慧,人類可能創造出綜合能力比自己還要棒的人工智慧嘛?或許有的ai運轉快反應快有的力量大,但終究沒有人類這麼完美。
要論預防ai反噬,人類完全可以加入毀滅性裝置就和小說裡面用毒控制人一樣。只要操作得到並不用擔心外星生命的控制問題,
最後我們對外星生命還只是猜測,或許等我們接觸外星生命還需要很長一段時間。而這段時間正是我們儲備科技力量的最佳時期。
如果真有外星人那麼一場的戰爭必不可免,這是一場種族之間的戰爭一場爭奪資源的戰爭