-
1 # 肖寒雜談
-
2 # Loong精選
人類對人工智慧的研究開發,目的是為了模擬和延伸人類智慧,就目前的成果來看,模擬都還很難,當然當前的進展並不代表以後的情況。但是【Loon精選】覺得即使以後的研究開發成熟了,人類也不會不加節制地隨意開發不受控制的人工智慧。
-
3 # 思考者j888
霍金先生去世了,據說他留下了一些話,題目就是其中之一,我認為與其說是預言,不如說是忠告。
人工智慧的發展可以用“突飛猛進”表達,從我們身邊,從最近央視“大國重器”專題片 ,人工智慧的應用幾乎遍及所有領域,如包裹分揀、碼頭排程、高難焊接、無人商場、家政服務、移動支付、無人駕駛等等。可以這麼說,只要人能想到的 ,人工智慧就能做到。
如此下去會是個什麼情況呢?人類是否會面臨人工智慧的威脅?霍金的忠告有沒有道理?
我認為:第一,從關係定位上,人工智慧是人的智慧的產物,是人制作的工具,它應該在人類的掌控之中。第二,人工智慧是否最終超越人類智慧,這是關鍵。由於它基本是按照設定程式執行,而程式是人設定,這種隸屬關係決定了它不應該超過人類智慧。第三,人工智慧威脅人類的可能性是存在的,比如用作戰爭的“機器人”,可能對非戰鬥人群發起攻擊;設定的程式出現問題,或者如“中病毒”之類,造成“機器人”有威脅人類的行為。
不管咋說,人工智慧的出現,會極大的促進生產力發展,提升人類生活水平,是大好事。對霍金先生的忠告也不要掉以輕心,人類發展人工智慧是造福人類的,其發展過程中防範風險一定在考慮之中,不必太過憂慮。但是如果真有人要專門製造出對付人類的人工智慧,那霍金的“預言”可能要城真了。
-
4 # 天行者
對人工智慧未來的發展前景從來都沒有停止過討論。人類開發人工智慧其本質是為了更好的服務人類,讓人類從繁瑣的勞動中解放出來,所以人類會不斷探索人工智慧的極限,這樣做的結果就是人工智慧越來越先進,甚至都產生自我進化能力,這也是霍金的擔憂,擔憂自我進化後的人工智慧會突然對人類揮刀相向,從而導致人類的滅亡。在我看來,人工智慧技術的不斷進步是伴隨著人類能力的不斷提高,這是一個相互影響的過程,人類開發了人工智慧就會利用人工智慧,在不斷利用的過程中,人類估計也會加快進化的步伐,甚至將來不排除人類與人工智慧合二為一的場景,在這個意義上來說,人工智慧的進步不一定就帶來了人類滅亡的悲劇
-
5 # 關東俠客
斯蒂芬.威廉、霍金走了,帶著全世界人民對他的思戀,希望他在天國可以自由自在的旅行。霍金先生給我們留下許多寶貴的精神財富和善意的衷告,世界上太需要這樣一位先知先覺的思想哲人啦。關於人工智慧將來會超越人類智慧向話題一值是科學家們觀注的熱點,工具的發明是人類手臂的延伸,人工智慧的出現是人類智慧的擴充套件。目前,最先進的計算機秒計算速度不斷重新整理計錄。早就超過了人類大腦計算速度,在科學技術諸多領域為人類作出巨大貢獻。有科學家耽心智慧機器會不斷加速度重新設計自己,人類受生物進化速度影響,最終被機器人超越和打敗。為什麼會有這種想法呢?因為人類基因中攜帶自私,貪妾遺傳密碼。幾千年來人類社會征戰殺伐掠奪財富就是有這些遺傳基因,另一個方面也促成了人類社會不斷進步和創新。機器智慧只是我們改造世界的工具,不管怎樣智慧也是為人類服務的,不會存在思想和慾望。現在人類社會是純生物階段。如果為來科技發展了,把人類大腦移植到機器中進入人機時代,也只是延長了大腦生命,增強了生存能力,智慧不可能有太大超越,既使大腦中還存在自私,貪婪基因,但享受的生物軀體沒了,這種自私基因也就無的放矢,不足為患矣!
-
6 # harry大華
霍金在2017年發表了關於人工智慧將毀滅人類的言論,在他認為計算機可以模仿人的智慧,並在不久的將來超越人類智慧。我們現在無法確定,人類最終是得到人工智慧的幫助還是被毀滅?在去年的浙江烏鎮的圍棋峰會上AlphaGO以3:0戰勝了世界圍棋冠軍珂傑,以及美國佐治亞理工大學開發出的機器人,可以彈奏木琴,不僅可以獨立演奏,還可以配合合唱團的演奏等等,讓我們看到人工智慧的智慧。早在2005年,瑞典科學家成立了一項“藍腦計劃”,該計劃是一個設想複製人類大腦的計劃,以達到治療帕金森氏症的目的。製造科學史上第一臺會“思考”的機器,它將擁有感覺、痛苦、願望甚至恐懼感。如果藍腦計劃成功了,意味著我們可以透過電腦來複制人類的大腦,關於人工智慧的前景可以說是不可想象的。科學技術是可以造福於人類,也可以用來禍害人類。實際上人類早就有毀滅自己的人力了,如果發生戰爭,現有的核武器會把人類毀滅很多次。
人工智慧和其他科學技術一樣,是福是禍取決於人類怎麼使用它,如果將來人工智慧能毀滅人類,那也不是人工智慧自己的選擇,而是人工智慧技術被人類濫用,比如在核武器上使用。
那些認為人工智慧總有一天會控制人類,甚至去毀滅人類,我想是想多了!
-
7 # 我不像壞小孩
曾經的科學巨匠,對普通物理和量子物理作出了巨大貢獻的“霍金”,終於結束了他偉大而痛苦的一生,迴歸了宇宙的懷抱。
而在他離開我們這個現實世界的頭幾年,“霍金”在開發“人工智慧”和我們的天眼計劃,導致地球被外星生物發現,還有對“外星人”的探索方面,多次發聲。一是“外星人”可能會毀滅地球。另一個就是“全面開發人工智慧可能會導致人類滅亡”。還好,大師說的是“可能”,而不是“肯定”。
作為一個在科學領域舉足輕重的人,他對科學的貢獻無可置疑,但是我們不能因為某人曾經的貢獻,就對其盲目的崇拜。就“人工智慧”而言,既然是“人工智慧”,就說明這個“智慧”,是人類賦予給機器的,所以,“人工智慧”超越人類,最終毀滅人類,應該是不可能的。如果說“科技進步到終極,可以毀滅人類、地球”,這個說法應該是正確的,因為現在已經可以了。但導致“人類毀滅”的絕不是“人工智慧”,只能是人類自己。
至於是否有“外星人”的存在,這個不用懷疑,宇宙中,人類肯定不是唯一的“智慧種族”。關於這一點,包括“愛因斯坦”在內的很多科學家,晚年都開始信奉和研究“神學”。而所有與“神”有關的傳說和著作,包括“聖經”。其中很多關於“神”的描述。都與傳說當中的“外星人”相吻合。
-
8 # 中國電建人
謝謝悟空問答邀請。首先向斯蒂芬霍金這位偉大的科學家致敬,“他的工作和成就將會持續影響這個世界多年,他堅韌不拔的勇氣、他的幽默感激勵了世界各地的人們”, 他說過,“果它不是你所愛的人的家,那它就不是宇宙”。人們會懷念他的。他科學界最耀眼的明星,他的見解塑造了現代宇宙學,激發了全球數百萬觀眾的眼球。
2016年3月的“人機大戰”過後,一些軍事專家預言,未來戰場上,人類和機器人、機器人和機器人作戰的場景將會成為常態,美國國防部一名官員對媒體表示,隨著軍事活動向智慧化延伸,最終可能導致機器人能夠自主地決定使用武器。霍金告誡人們:“徹底開發人工智慧可能導致人類滅亡。”儘管被媒體熱炒的“機器終結論”看起來像是杞人憂天,但軍事智慧化無疑是一把“雙刃劍”。世界確實充滿了未知,對這種風險人類也應謹慎對待。
“徹底開發人工智慧可能導致人類滅亡”的說法,這種可能性是存在的,但是不能夠害怕。為什麼這麼說哪,第一,我們片面的截取了霍金髮表的部分言論作為論點。他2017年在4月27日的GMIC大會上做了演講並回答了一些關於人工智慧的問題,表示了對人工智慧發展的擔憂,但同時他也認為人工智慧的發展“本身是一種存在著問題的趨勢,”也提出了一些期望,“而這些問題必須在現在和將來得到解決。”所以,人工智慧的崛起要麼成為人類歷史上最好的事,要麼成為最糟糕的事情。是好是壞我們仍不確定,但我們應該竭盡所能,確保其未來發展對我們和我們的環境有利。研究人工智慧要規避風險,而不是推斷人工智慧會導致人類滅亡;第二,機器只是工具,是純理性的,不同功用的機器人只是在執行不同的任務指令,不論多麼智慧,也只是能處理更復雜的指令。第三,要想毀滅人類,毀滅我們這個地球,只能是我們人類自己。因為即使沒有人工智慧,全球核武器國家擁有近22,400枚非部署實戰核彈頭,只要人類按下一個按鈕,他就會發射,從而引發一種毀滅;而機器不會主動操作,除非人類在編寫程式時故意留下漏洞。
所以我們不必擔心人工智慧的發展。至少在相當長的時間裡,人類會完全掌控這類技術的發展,利用它來解決許多現實問題,而要讓人工智慧技術得到“充分發展”,還有很長的路要走。如何趨利避害是所有人需要考慮的問題。另外一個擔憂是由人工智慧逐漸可以解讀大量監控資料引起的隱私和擔憂,以及如何管理因人工智慧取代工作崗位帶來的經濟影響。而主要是人工智慧系統失控的潛在風險,記著,只是失控。
-
9 # 一塵清洗田
關於霍的言論,我們是不是可以理解為,如果我們過度開發人工智慧,我們將會被人工智慧所控制,從而走向滅亡!
大家都看過關於美國拍攝的相關題材的電影吧?我被裡面的設想深深振憾!關於人工智慧發展到一定程度,不受人為控制的橋段,人類不得不費盡心力去毀滅親手創造的成果!
關於人類學的未來,我個人並沒有深究過,但有時我會思考這個宇宙的空間有多大,這是無法想像的!所以關於人類的未來,我只能說:且行且珍惜!
-
10 # 自然風57778401306
人類的文明,就是一種高效的智慧發展的文明,每發明製造一樣東西,都是為生活和生產服務。為了防禦戰爭的升級,發明了核武器,核武器會給人類帶來毀滅性的災難,非常令人擔憂,卻擋也擋不住,為什麼?也是維護和平的一種手段。人工智慧機器人也是讓人擔憂,霍金的預言,徹底開發人工智慧可能導致人類滅亡,看來人工智慧也跟核武器一樣危險。霍金的擔憂是有些道理,如果將人工智慧用在戰爭上,或者是搞邪惡的恐怖襲擊,現在還是科幻的東西,將會變成現實板的機器人大戰。這種特殊的戰爭遊戲不管是勝利的一方還是失敗的一方,都將是人類的一場悲哀。然而,事物的發展總是有它的兩面性,智慧機器人的高效率工作,不用跟人類搶奪物資消費資源,有過人的力氣,和容納高資訊量的智力水平,能在艱苦的環境下從事生產勞動,取代人類不能涉足的地方。它們充一次電會連續工作多日,這是人類最想要的,是最經濟划算的,誰擁有了它就擁有了財富。從整體看來,人工智慧還是利大於弊。跟金剛之身的鐵人相比,人的生命是多麼脆弱,而機器人也是人工做的,人類的智慧還是勝過了機器人。機器人的野性程式,還須得人工收斂。
霍金多次表示,“徹底開發人工智慧可能導致人類滅亡”。按照霍金的說法,人工智慧科技在初級發展階段的確為人類生活帶來便利,但是,機器將可能以不斷加快的速度重新設計自己。而人類則受制於生物進化速度,無法與其競爭,最終被超越。科學界把這種人工智慧超越人類智慧的轉折點命名為“奇點”。(摘自《環球網》)
回覆列表
首先,對一代科學巨匠的離世表示痛惜和哀悼。這是那個世界的召喚,他留給了人類許多寶貴財富,也給留給人類眾多謎團讓我們破解,這就是他來到這個世界的使命。
對於霍金的預言,我認為,如果人類不加以節制,可能導致人工智慧無法為人類所控制,並最終使霍金的預言變為現實。
必須充分肯定,人工智慧技術作為現代科技發展的重大成果,必將造福於人類。當前,人工智慧技術已經越來越被世界各國所重視,並被廣泛應用於各個領域。毫無疑問的說,隨著人工智慧技術的發展,這一技術正在,也必將給人類帶來越來越多的,越來越高階物質文化享受。
人類賦予人工智慧的深度思考和學習功能,將使人工智慧最終完全超越人類的智慧。人工智慧不同於人的智慧,但隨著由於人類不斷賦予它的思考和學習功能,加之人工智慧機器人具有超出人類數億倍甚至更高的計算能力,可以預見,未來人工智慧將遠遠超過人的智慧。人類製造的計算機,在相同體積的情況下,目前僅從計算能力來比較,已經遠遠把人類拋在了後邊。當人工智慧程式戰勝國際象棋大師時,曾有人預言:因為圍棋具有比國際象棋多的多的變化,100年之內人工智慧程式無法超越戰勝人類。當年,已故的應昌期先生曾經懸賞140萬美元,徵集能夠戰勝職業初段的圍棋程式。直到2000年懸賞截止,這份大獎也沒人能拿走。但僅僅過了不到20年,阿爾法狗的問世就打破了這一預言。由於,阿爾法狗被賦予了深度學習功能,使其在對弈中,不斷學習和完善自己,因而在與人類的對弈中取得了完勝。
人工智慧技術也許是一把“雙刃劍”,它能夠造福於人類,但也可能“毀滅人類”。可以想象,當人類賦予了機器人的思考和學習功能,人類最終可能無法控制機器人智慧發展和延伸,一旦邪惡的資訊被放大,就可能以其超高的智慧,最終導致人類滅亡。當我們這個世界出現了“克隆人”技術時,人們在驚呼不可思議的時候,也在考慮如何從法律、倫理,以致對人類可能構成的威脅等方面,對“克隆人”技術加以引導和規範。那麼,在人工智慧技術不斷髮展的今天,如果把“克隆人”技術和人工智慧技術結合起來,將人工大腦植入“克隆人”頭上,能不能人為的製造出“超人類”的肉體機器人?我覺得完全可能。
科技的發展無疑可以造福人類,但必須防止是負面效應的發生。“流氓不可怕,就怕流氓有文化”,有誰能夠保證新興科技不被惡人所利用?就像人類發明了計算機和網際網路造福人類一樣,總有那麼一幫“人類”反其道而行之,製造計算機和網路病毒來危害人類。人工智慧的發展何嘗不會這樣?所以,如果不能很好的控制人工智慧技術的發展,最終可能導致人類的自我毀滅,這絕不是危言聳聽。
當然,我們不能因為人工智慧技術的高度發達,最終可能導致“人類毀滅”而因噎廢食,因為時代的車輪總是要前進的。但是,人類必須預見到人工智慧的發展可能出現的負面作用,提前加以防範,特別是要在法律、道德、倫理上提前設定紅線,就像克隆技術一樣,從而防止因人工智慧的無序發展,而危害我們的世界。