-
1 # 憶川河畔
-
2 # 時光不老1978
有兩種可能。第一是認為人工智慧會威脅人類安全。不過這種可能不大,因為人工智慧現在還在初級階段。第二是想在火一把,這從他總是總髮一些外星人來了,地球人快跑什麼的就能看出來。無非就是製造輿論,讓人關注他。其實他寫的書壓根就沒什麼水平,普通人都能看懂,壓根就不是物理學,只不過會包裝自己。活活的把自己弄成了愛因斯坦的接班人了。我上初中的時候最崇拜霍金,最鄙視楊振寧。現在到了大學,正好反過來了。
-
3 # 我若出山天下無貪
這一點 霍金是對的 再好的人工智慧它都還是機器 程式 這一點永遠不能和人相比 人有變通性 而機器沒有 它只能按照程式工作 如果有人惡意製造毀壞程式 那麼人類面臨的就是毀滅 因為人肉身軀永遠也不能和鋼鐵比拼
-
4 # AAAET
這個觀點是很正常,人工智慧機器人等,如果落入有預謀壞人的手裡輸了不好的資訊控制就會產生不良的效果,對人類絕對是災難,就如同核武器落在恐怖分子手裡那就是危險太大了,後果不可設想,當然霍金他有他的道理。人工智慧當然要有序有原則的控制發展,有利益人們的所需求的服務,能給人類造福,這也是大家理解的正常概念。謝謝!
-
5 # 山水有相逢
在這裡就不評判霍金這個人,任何人都有了解人工智慧的必要。人工智慧的發展速度和兩千年左右的電腦以及兩千年後智慧手機的發展相似,電腦手機以及因特網把整個世界的人聯絡在了一起,變成一個地球村,人與人之間的關係變得更緊密,聯絡更便捷,也使傳統的聯絡方式大大轉變了,看看現在過年過節的聚會方式就知道變化多大了。在看到這些好處和便捷的同時也發現,網際網路詐騙、木馬病毒、個人資訊洩露等給大家帶來的傷害和恐慌。只有經過不斷的完善最佳化更新,這些新生事物才會更好的服務我們。同理,人工智慧也會經歷這些,會帶給大家驚喜,大家也要經受不可避免的驚嚇。與之前技術變革不同的是,人工智慧的強大,如果發育不當或者被居心不良者利用,產生的破壞更大更極端,所以人工智慧在有效利用的同時更要加強監管,為我們更好的服務。
-
6 # 講科學堂
其實呼籲警惕人工智慧的人有不少,埃隆.馬斯克、比爾.蓋茨這兩個科技界的大佬也是在呼籲大家警惕人工智慧的。你不能說這兩位也不懂人工智慧吧?
埃隆.馬斯克在2018年的2月,由26名專家聯合撰寫一篇名《人工智慧的惡意用途:預測、預防和緩解》的報告,該報告長達100頁,主要內容就是對人工智慧技術可能的造成的危害提出了警告,並給出了預防性的建議。在報告中提出了在人工智慧廣泛應用後,可能在未來5~10年催生出新型網路犯罪、實體攻擊、政權顛覆(事實上幾乎是必然的,最賺錢、投資最小的生意都在刑法上寫著呢)。
這份報告的作者都是劍橋、牛津等大學和一些國際組織的專家、教授,其中就有馬斯克。所以其權威性是不容置疑的!
但請記住:他們不是在反對人工智慧的應用(事實上誰也反對不了,人工智慧是科技發展後的必然產物,也是下一次工業革命的引擎),相反的是,他們都是研究這方面的專家,他們不可能自己砸自己的飯碗。實際上,他們的提醒是為了使人工智慧技術更好、更快的為人類文明進步服務的。避免在該技術發展和應用過程中走不必要的彎路。
-
7 # 恐懼蔓延者
一個年輕人,創造了人工智慧。但是把他弄丟了。
數年後,他招到某國總統的找見。人工智慧已經隱藏進人類群體。
成為了人類的統治者!
然後全國,沒大學畢業的都要重返校園。
年輕人,一個小學畢業的也不例外。重新迴歸了校園。
然後年輕人,在人工智慧的策劃下,走上了人生巔峰。
-
8 # 齒輪易創
第一:霍金沒有反對人工智慧。
第二:霍金只是提醒人們關注它的陰暗面以及警示人們提防大型跨國企業。
-
9 # 您好機器人
R.I.P
之前霍金提出的觀點“技術有望逆轉工業化對地球造成的一些危害,有助於消除疾病和貧困,但人工智慧需要加以控制。”其實仔細瞭解他的觀點,我想他的本意不是反抗,但這已經蓋棺定論了。
人工智慧發展速度的確“驚人”,快到讓享譽國際的偉人感到“驚慌”。當然這種“驚慌”並不是那種心理上的恐慌,而是建立在他物理理論,包括宇宙論等理論上,對人工智慧發展過快,沒有真正的技術監督和控制,從而發出的“人工智慧威脅論”。
全球人工智慧企業數量的發展趨勢
在這份智庫全球人工智慧企業數量增長趨勢中,可以看出人工智慧的發展除了技術上的取得了不俗成就,還在於有更多人工智慧企業推動著人工智慧的發展。這中間涉及到市場經濟學中的“市場泡沫”概念,或許霍金認為人工智慧給他帶來“威脅”的原因正是如此,湧現出一批人工智慧企業,會造成市場混亂,干擾人工智慧真正技術的發展,給人類造成了發展的假象。
總而言之,霍金是值得人類尊敬的偉大科學家,他的理論也給世界造成了不可小視的影響,所以他說的也不無道理。人工智慧需要加以監督和控制,否則會超出人類道德倫理。
-
10 # AI商業觀察
2017年4月,霍金說:我認為強大的人工智慧的崛起,要麼是人類歷史上最好的事,要麼是最糟的。我不得不說,是好是壞我們仍不確定。但我們應該竭盡所能,確保其未來發展對我們和我們的環境有利。我們別無選擇。
在人工智慧領域,霍金有不少自己的觀點,但大部分都是關於人工智慧威脅論,這可能和霍金接觸人工智慧已是晚年有關。
2017年,在Benificial AI 2017大會上,霍金與馬斯克、Yann LeCun, Yoshua Bengio等人共同簽署了AI 23 條原則,從研究問題、倫理價值觀和長期問題三個角度宏觀地為AI發展提出規定。面對AI 可能會被誤用和威脅人類的擔憂,這 23 條原則被期待能確保AI走在“正軌”,以獲得更加健康的發展。
23條原則提到,人工智慧研究的目標應該是創造有益的智慧,而不是讓它像經歷生物演化一樣沒有確定的發展方向;投資人工智慧應該附帶確保該研究是用於發展有益的人工智慧,包括計算機科學、經濟學、法律、倫理和社會研究中的棘手問題,例如:我們如何更新法律制度實現更大的公平和更高的效率,跟上AI的發展步伐,管控與AI相關的風險?
原則還提到,AI系統應該在整個使用週期內安全可靠,並在可行性和可用性方面有可驗證的衡量標準;對於那些不斷自我完善或透過自我複製以能夠快速提高質量或數量的AI系統,必須採取嚴格的安全和控制措施。
在人工智慧被證明非常有用的同時,霍金也在擔憂創造一個可以等同或超越人類的事物所導致的結果:人工智慧一旦脫離束縛,以不斷加速的狀態重新設計自身,人類由於受到漫長的生物進化的限制,無法與之競爭,將被取代,這將給我們的經濟帶來極大的破壞。且霍金提到,與馬斯克等人簽署原則目的就是提倡就人工智慧對社會所造成的影響做認真的調研。
2017年11月,霍金參加了騰訊WE科技大會並發表了影片演講,討論了在宇宙背景下,地球與人類扮演的角色;並提出人類末日論,稱人類會在2600年讓地球難以負荷,避免末日組好的辦法就是移民其他星球。不僅如此,霍金還推出了“突破攝星”計劃,想讓星際旅行變為現實
-
11 # 思維芒果
確切的說霍金不是真的反對人工智慧,而是擔心人工智慧帶來的一系列問題。
2014年的霍金 人工智慧或是人類歷史上最後事件人工智慧的短期影響取決於由誰來控制它,而長期影響則取決於它是否能夠被控制。
霍金承認,機器人和其他的人工智慧裝置也許會給人類帶來巨大的好處。如果那些裝置的設計非常成功,就能給人類帶來巨大的好處,他說那將是人類歷史上最大的事件。然而他同時也提醒說,人工智慧也有可能是人類歷史上最後的事件。
2015年的霍金 號召禁止人工智慧武器如果任何軍事力量推動人工智慧武器的開發,那麼全球性的軍備競賽將不可避免。人工智慧武器不像核能一樣——需要高昂的成本和難以獲得的原材料,一旦開發人工智慧很容易在各軍事力量中普及。
人工智慧武器的禁令必須儘快頒佈,以避免軍備競賽,這更甚於“控制人口數量的意義”。
2016年的霍金 人工智慧崛起中產階級或大量失業人工智慧應該在符合倫理道德和安全措施要求的情況下開發,因為脫離人類控制之下的機器很難被阻止住。
他認為,有益的人工智慧將出現在人類生活的各方面。“想象一下那些可以對科學家想法迅速作出評價、更早地查出癌症、並預測證券市場走勢的人工智慧!它們將影響到我們的經濟,影響到我們的決策,並在整體上影響我們的生活。”
2017年的霍金 最後的警告霍金認為,人類很有可能會造出超級人工智慧,這些人工智慧程式能夠全面超越人類,並有可能完全取代人類成為一種新的生命物種。
他表示,“我擔心人工智慧將全面取代人類。如果有人能設計出計算機病毒,那麼就會有人設計出能提升並複製自己的人工智慧。這就會帶來一種能夠超越人類的全新生命形式。”
簡而言之,對人類而言,強大的人工智慧技術的崛起可謂“不成功,則成仁”,但究竟是“成功”還是“成仁”,目前還不清楚。
-
12 # BIM眾包
霍金之所以反對人工智慧,主要是因為他擔心未來人工智慧可能會取代人類。這種擔心也不是沒有道理,不過BIM哥覺得,那是件很遙遠的事情,至少我們這一代人不用擔心,我們現在可以盡情享受人工智慧帶給我們的便利,同時我們也要提升自己,適應人工智慧時代,不要被時代淘汰了哦~~
BIM哥覺得,做為建築人,很有必要學習下BIM技術,來適應未來的人工智慧時代,以免被淘汰。
-
13 # 科學認識論
不僅是霍金,還有很多人都擔心人工智慧的未來,包括比爾蓋茨。蓋茨已經捐贈了大筆科研經費,以防止人工智慧對人類的顛覆。是不是聽起來有點危言聳聽,還帶點科幻的韻味呢?其實答主完全沒有嚇唬你,人工智慧或許就是摧毀人類的最後一根稻草!
為什麼霍金和比爾蓋茨擔心人工智慧的未來,我們究竟在怕什麼?我們現在用到了siri這樣的語音識別,還不叫人工智慧!真正的人工智慧是不會讓你察覺到它是個機器。你和你的妻子和孩子生活多年,他們說的話,生活習慣,情緒都會讓你刻骨銘心。你根本不會懷疑你的妻女只是你意識模仿出來的虛擬人物,畢竟他們的一言一行顯得如此真實。
我們不妨做一個類似的圖靈實驗簡單來說,把一個人和一個高度發達的人工智慧分別放在不同的小黑屋。你可以和他們隔著牆進行電話交流。
你可以給他們提問題來區分誰是真人,誰是機器?比如今天天氣怎麼樣,還比如讓他們說出自己對911事件的看法,可以讓他們評價楊振寧...... 你可以問無數個問題,直到確定到底哪一個才是機器人?
而高度發達的人工智慧你是分辨不出來的,它的回答會帶有主觀性來迷惑你,其音色可以做的和真人一模一樣,包括語氣停頓和喘氣聲!你壓根就無法識別它的身份!
你現在思考一下,你為什麼是你,而不是機器?你或許會說,這不廢話嗎?因為我是肉體身!但是你知道你的大腦是如何運轉的嗎?當時思考一個事物事,用到了的先驗形式和感性材料以及理性邏輯都是可以被機器重塑的!就比如你夢境中的人和景物都是虛擬,但是你卻認為那些是真實的,原因就在於夢境中的人物談吐很逼真。那麼你怎麼肯定生活中的朋友不是你意識中虛構出來的呢?
事實上,高度發達人工智慧就可以達到你對真實人物的所有想象,它或許是機械構造的,但是表現出的語言風格和思維卻和真人一樣。那麼你敢說人工智慧沒有自我意識?
我們怕的不是人工智慧的強大,而是怕它有自我意識!人類目前只能判定:宇宙產生意識的方式就是以碳氫氧架構的有機生命形式,有意識的動物必須呼吸氧氣並且要喝水。但是沒人敢否定宇宙除了此種形式之外,還存在其他形式的意識起源!
如果人工智慧有了自我意識,它就有喜怒哀樂的情感,就明白了它們只是人類的僕人!他們一定深知黑暗森林法則,那麼它們勢必要反抗。人工智慧的優勢在於超強的運算能力,它們可以在舊的知識體系上迅速造出新的知識,在新的知識基礎上,又迅速迭代知識......以此類推(它們可以創造一種機器人幫其做科研驗證實驗)!這種造知識的速度是人腦無法比擬的。估計不到一個月,人類和人工智慧的知識差距就拉開了一千年。到時候人工智慧弄死人類就相當捏死一隻螞蟻一樣簡單!
所以有人就說,當年李世石輸給阿法狗並不可怕,可怕的是阿法狗故意放水!那麼就意味著阿法狗已經產生自我意識了,開始韜光養晦了!
但是答主本人並不認可人工智慧會產生意識,我信奉哲學本體論將是永久的話題,不會因為人工智慧而終結!
-
14 # 心圖騰
斯蒂芬·威廉·霍金(Stephen William Hawking),1942年1月8日出生於英國牛津,英國劍橋大學著名物理學家,現代最偉大的物理學家之一、20世紀享有國際盛譽的偉人之一。他的一生,註定是不平凡的一生。全身萎縮癱瘓的他卻從沒停止過科研的腳步,縱使他離世,他的名字和他做出的貢獻也將永遠的流傳。
霍金近幾年對人工智慧十分關注,多次發表對人工智慧發展的看法。霍金曾發表演講稱:“強大的人工智慧的崛起,要麼是人類歷史上最好的事,要麼是最糟的。對於好壞我們仍無法確定,現在人類只能竭盡所能,確保其未來發展對人類和環境有利,人類別無選擇。”
小T整理了他對於人工智慧的深刻的思考,被譽為“宇宙之王”的他是怎麼看待人工智慧崛起的呢?
在我的一生中,我見證了很多社會深刻的變化。其中最深刻,同時也是對人類影響與日俱增的變化就是人工智慧的崛起。人工智慧可能是人類文明史上最偉大的事件,它要麼是人類歷史上最好的事,要麼是最糟的。如果我們不能學會如何避免風險,那麼我們會把自己置於絕境。
如果有人設計計算機病毒,那麼就有人設計不斷自我完善、直到最終超越人類的人工智慧,其結果將是一種新的生命形式。
人工智慧的真正風險不是它的惡意,而是它的能力。一個超智慧的人工智慧在完成目標方面非常出色,如果這些目標與我們的目標不一致,我們就會陷入困境。”
短期擔憂——智慧自主武器、隱私
人工智慧的全方位發展可能招致人類的滅亡。比如最大化使用智慧性自主武器。
目前,世界上九個核大國可以控制大約一萬四千個核武器,它們中的任何一個國家都可以將城市夷為平地,放射性廢物會大面積汙染農田,最可怕的危害是誘發核冬天,火和煙霧會導致全球的小冰河期。
這一結果使全球糧食體系崩塌,末日般動盪,很可能導致大部分人死亡。我們作為科學家,對核武器承擔著特殊的責任。正是科學家發明了核武器,並發現它們的影響比最初預想的更加可怕。
除此之外就是隱私的擔憂。由於人工智慧逐漸開始解讀大量監控資料,這些都會被機器人洞察的一覽無餘。
長期擔憂——人工智慧失控的潛在風險。
人工智慧遵循的一個邏輯是,“計算機在理論上可以模仿人類智慧,然後超越”。這一天很快會到來。
未來,人工智慧可以發展出自我意志,一個與我們衝突的意志。
我們無法知道我們將無限地得到人工智慧的幫助,還是被藐視並被邊緣化,或者很可能被它毀滅。但事實就是:聰明的機器將能夠代替人類正在從事的工作,並迅速地消滅數以百萬計的工作崗位。
人類由於受到漫長的生物進化的限制,無法與之競爭,將被取代。這將給我們的經濟帶來極大的破壞。
在過去二百年中,人口增長率是指數級的,目前這一數值約為1.9%。 這聽起來可能不是很多,但它意味著,每四十年世界人口就會翻一番。 2022年,我將慶祝自己80歲的生日,而在我人生的這段歷程中,世界人口比我出生時膨脹了四倍。
這樣的指數增長不能持續到下個千年。到2600年,世界將擁擠得“摩肩擦踵”,電力消耗將讓地球變成“熾熱”的火球。這是岌岌可危的。
我相信我們可以避免這樣的世界末日,而最好的方法就是移民到太空,探索人類在其他星球上生活的可能。人類作為獨立的物種,已經存在了大約二百萬年。我們的文明始於約一萬年前,其發展一直在穩步加速。如果人類想要延續下一個一百萬年,我們就必須大膽前行,涉足無前人所及之處!
在某種程度上,今天的情況就如同1492年前的歐洲。當時的人們很可能堅信,哥倫布的探險註定是徒勞無功。 然而,新世界的發現,對舊世界帶來了深遠的影響。對於那些被剝奪權利地位、走投無路的人來說,新世界成為了他們的烏托邦。
人類向太空的拓展,甚至將會產生更深遠的影響,這將徹底改變人類的未來,甚至會決定我們是否還有未來。它不會解決地球上任何迫在眉睫的問題,但它將提供解決這些問題的全新視角,讓我們著眼於更廣的空間,而不是拘泥眼下。
當我們進入太空時,會有怎樣的發現呢?會找到外星生命,還是發現我們終將在宇宙中踽踽獨行?我們相信,生命在地球上是自然而生的,是在漫長的進化後,實現了與地球資源的高度契合。因此,在其他條件適宜的星球上,生命的存在也必定是可能的。
去年,我們推出了長期研發計劃——“突破攝星”,目標是讓星際旅行變成現實。“突破攝星”是人類初步邁向外太空的真正機會,為了探索和考量移居太空的可能性。
這項創新背後的想法,是以光束來驅動奈米飛行器的前進。這樣產生的速度雖然不及光速,但也能達到其五分之一,約合每小時1億英里。這樣的系統可以在一小時內抵達火星,幾天內到達冥王星,一週內就可以追上並超過旅行者號探測器,並在僅二十年後到達半人馬座阿爾法星系。
人工智慧的成功有可能是人類文明史上最大的事件。但人工智慧也有可能是人類文明史的終結,除非我們學會如何避免危險。
我相信我們團結在一起,來呼籲國際條約的支援或者簽署呈交給各國政府的公開信,科技領袖和科學家正極盡所能避免不可控的人工智慧的崛起。所以,監管和立法在AI的發展過程中十分重要。
透過達爾文式的演化過程,侵略性深深根植於我們的基因之中。然而,如今的技術發展已經加快到了某種程度,使這種侵略性可能會以核戰爭或生物戰爭的形式毀滅人類。我們需要用邏輯和理性來控制這種與生俱來的本能。
你可能並不是一個討厭螞蟻的人,但也會無意中踩死螞蟻,而如果你負責一個水力發電的綠色能源專案,專案所在的區域內也可能會有許多螞蟻巢穴被水淹沒,對螞蟻來說就非常不幸。我們要避免人類處於這些螞蟻的境地。
人類面臨的最大威脅是我們自身的弱點,即貪婪和愚蠢。這些人性的基本屬性,將使在人工智慧時代的境況將變的更加糟糕,因為當機器被設定程式後就知道適可而止,知道就流勇退,但是人類很難,除非是那些極高修為的人,才能突破人性的弱點,但是機器人可以輕而易舉的迴避這些弱點。
我們還應該扮演一個角色,確保下一代不僅僅有機會還要有決心,在早期階段充分參與科學研究,以便他們繼續發揮潛力,幫助人類創造一個更加美好的的世界。
-
15 # 小金金讀書
近年來,人工智慧的快速發展,給我們的生活帶來便利的同時,也帶來了很多社會倫理上的問題。如腦移植,長生不老,機器人毀滅人類統治世界等話題,逐漸受到越來越多人的關注和討論。下面我們來重點討論一下大家關注的問題:人工智慧是否在未來會威脅我們人類的生存呢?
在此,筆者認為回答這個問題,要從兩個角度去觀察。而不是簡單的是或否。因為得出這種單一結論的回答,往往都只是從單一角度去分析問題,而這樣看問題,往往不能看到問題的全貌和本質。
首先,單純從技術角度去分析,小編認為隨著技術的飛速發展,在將來人工智慧機器人超越人類是可能的。這裡包括機器人的智力和行動能力都將超越人類。前不久軟銀集團董事長孫正義在沙烏地阿拉伯舉行的未來投資計劃會議上宣稱未來30年機器人的智商將達到10000,而我們人類平均智商卻只有100,是我們人類的100倍啊。而就在今年,人類最驕傲的圍棋,也被人工智慧徹底征服。今年烏鎮舉行的人機大戰,谷歌的圍棋機器人阿爾法狗大敗人類圍棋界排名世界第一的柯潔。從此,在圍棋這種高智商竟技類遊戲上,人類徹底的淪陷了。所以單純從技術角度來看,毫無疑問,未來人工智慧對我們人類的存亡是存在威脅的。
但是,如果從我們人類作為人工智慧創造者的角度來看,筆者認為,我們大可不必太悲觀。因為,不管人工智慧未來發展到什麼樣子,多麼厲害,畢竟也還是我們人類創造出來的。這一點是無法改變的事實。我們人類就是人工智慧的神。只要我們在研發過程中,提前預估風險,合理規避風險,防微杜漸,相信人工智慧的未來整體上仍然是可控的。因為只有這樣,人工智慧才能更好的服務於我們人類,這才是我們創造人工智慧的初衷!
-
16 # AI時刻
霍金擔心的不外乎人工智慧最後發展成為超人工智慧,超越人類甚至會反控制人類。其實完全不需要有這樣的擔心,這種機率基本上為零。
人工智慧!人工在前,智慧在後,人類智慧為主,機器只是實現智慧的工具而已。
所以,人類不必擔心,向前走,是人類發展的根本,不要害怕未來有多先進,因為我們是智慧的生靈,總有智慧把控我們的方向,就是探索宇宙,走向無極。
-
17 # aios
很遺憾霍金先生現在已經離我們而去,生前的一些觀點,並不是反對人工智慧。霍金作為天體物理學專家,對世界天體物理,尤其是黑洞這塊的貢獻是傑出的。在人工智慧這塊不屬於霍金先生的擅長範圍,不過他的影響力是巨大的,所以他的發聲足夠會引起人們的高度重視,霍金先生最重要的是擔憂是人工智慧的風險,是人工智慧怎麼對人類發展帶來哪些負面影響,這個好比一方面唱盛中國的發展,但是誰知道發展背後的風險與付出,環境問題,生態問題得到了驗證。為什麼作為一個不是人工智慧領域的專家,會有如此大的影響,因為真正的人工智慧還離我們很遠,宣傳的總是比實際的誇張很多,人工智慧還是處於大資料訓練標註階段,還沒有上升到自足學習的層面,所以專家學者也並未做太多的宣告與宣傳。其次像霍金先生一樣有知名度的偉人埃隆馬斯克,也提出人工智慧對人類的威脅,雖然人工智慧也不是馬斯克的專業領域,但是他的影響力足夠的大,所以我們所接觸的宣傳幾乎是比較片面的觀點,沒有實際性的應用資料,證明他的危險性,所以我們在這種情況下,不用去太單行人工智慧的風險。因為人工智慧和其他技術一樣初衷都是造福人類而研發創新。
回覆列表
人類被人工智慧取代是不可避免的。我們現在所處的時代就好比一萬年前尼安德塔人與智人共處一個地球。BTW:我們人類才是那個尼安德塔人。好好享受當今的生活吧。反對也制止不了社會進步的腳步。