-
1 # 香橋冰泉
-
2 # 牧客
我們人類的發展中,現在或者未來威脅人類生存的東西實在太多。就現階段而言,大規模的地質災害、氣象災害、病毒傳播等等都有可能導致人類滅絕,但是這些威脅都有一個共同的特點,就是“慢”,人類在滅亡之前有較多的時間可以準備應對這些威脅。
實際上,最近幾十年來對人類最具威脅的,還是核武器。一旦核戰爭爆發,全人類在幾天之內將會被完全消滅,幾乎沒有時間讓人類反應。不過我認為截止目前,人類在核武器擴散和防止核戰爭爆發方面做的不錯,雖然其危險係數依舊不小,例如不久前在東北亞某半島發生的地震……
人類文明繼續發展到一定階段後(即卡氏文明分級中大約一級到二級文明階段),文明的高度發達將不會讓人類做出自我毀滅的事。這時候,人類也能夠隨意控制所居住星球的一切,包括氣候、晝夜、氣溫、地質活動等,也將徹底消滅或者擺脫病毒等的威脅。人類看似好像無所不能,但實際上卻要面臨比核戰爭更具危險的威脅——人工智慧反叛。
目前的人工智慧還非常初級,有學者甚至認為目前還沒有真正的人工智慧,畢竟現在的人工智慧大多隻是基於大資料的運算反饋,更多的算是“程式智慧”。但即便這樣,我們在和一些人工智慧對話互動中,依舊被其深深震撼。我至今記得,當時微軟小娜釋出不久,我就被小娜懟得一句話都說不出的尷尬場面(幸好當時沒有別人在場)。我不知道人工智慧會具體發展成什麼樣子,但有一點是確定的:人工智慧的發展速度將超出所有人的想象。
在未來,幾乎可以確定,人工智慧將出現自我意識,我們的後代應該會對人工智慧的自我意識做出限制,但我認為如果只是常規的防範措施,人工智慧掙脫人類的禁錮只是時間上的事。我們老祖宗有句話說的好:非我族類,其心必異。這句話不僅適用於過去和現在,在未來我相信依舊是真理。希望在這之前,人類的後代能夠找到完美的解決方案。
-
3 # 百竹匯
科學技術是雙刃劍,一方面造福人類,另一方面反殺人類,al就更不用說了。技術不發達的冷兵器時代,一場戰爭很少死百萬人,而現在的熱核武器,幾個小時內就能夠殺死幾百萬人,比如大當量氫彈丟在紐約、東京、上海等等等人口密度大的城市,都會是慘絕人寰的結果,而原子能用於電力又能造福人類。al的發展應該限制,如果失控,整個世界都將毀滅。
-
4 # 查無此人30842114
應該相對克隆技術那樣絕對限制對AI技術的發展。目前對AI自我意識的理論研究已基本完成,就差實際應用了。如果一旦創造出帶自我意識的AI,而AI又演化出惡意,結果可想而知。就目前來說,人類還沒有準備好,且沒有能力接受和掌控這項技術。如不加以控制,人類文明將會毀滅。
-
5 # 北航秦曾昌
這是一個很好的問題,未來該不該限制是一個未知數。 我個人覺得,我們現在也許不應該限制AI的發展。
1. 關於AI對於人類社會的威脅是個老生常談的問題,各種觀點和糾結歸根到底也就是會不會產生威脅,但是這個問題要加上一些限制條件才是一個具體問題,比如說,未來50年內,能不能對人類社會有巨大的風險與危機等等。
2. “同意列表”網站關於這個問題,收集了90位有影響力的人關於AI的觀點。 http://www.agreelist.org/a/artificial-intelligence-risk
裡面一些大佬們或者支援或者反對,也都提出了自己的理由。 但是大多數人認為在未來50年內,AI技術會造成很大的社會風險。 非常幸運的是我的觀點也被放到了裡面,而且在馬雲旁邊(莫大榮幸呀),但是我們的觀點是對立的。
3. 我的觀點是: People are worried about the free will of machines. So far, no scientific evidence can support such a statement. Even human beings’ free will seems to be an enigma, let alone that of machines. Deep diving AI researchers have a crystal clear picture of the industry status quo and risks that may not be manageable. The reality is far from what people might think of.
4. 關於技術的風險問題一直是雙刃劍,最好的例子是核能的發展與核武器的出現,一直到今天的朝核問題。如果我們有機會回到核能被科學家們釋放之前。我們也會問這樣的技術會給社會帶來多大的風險。實際上無論如何,我們走到了今天,看到的不只是核能的負面訊息。技術本身無好壞,使用它的人才是給社會帶來風險的終極因素。
5. 不否認也許AI會獨立發展出自由意識,這樣增加了它們站在人的對立面的可能。(即使未來100年有10%的機率產生自由意識,也許只有5%的機率或更小它會是人類的敵人) 。 但是我們人類對於自己的研究,對於大腦,智慧,自由意識的研究還遠遠不夠。 走到機器的自由意識,這條路按照目前的科學進展速度,還是要比我們想象的要長的多。在未來50年內,我相信是看不到這樣機器的誕生。
回覆列表
人工智慧機器人,超越人類是必然的!AI機器人,是人類探索宇宙超級無敵的工具,比如到火星金星等不適合人類生存的行星上,在銀河系,在宇宙中的其它類似地球的行星上,先獨立完成建立好適合人類生存的定居點,製造適合人類文明社會可持續生存的小規模建築物後,人類移民過去,不是不可以完成和做到的。AI機器人必須超越人類!當然,前提是超越人類智慧的AI機器人的存在,必須以”為人類征服太陽系、征服銀河系,征服宇宙的理想”為根本,為大部分人能夠更好地生存而存在。當然,人類內部,也不能發生大規模的核戰爭,自我毀滅人類的世界。