回覆列表
  • 1 # 瓷白玉潤

    不要太過高估OpenAI了,我把話撂在這裡:如果人工智慧(比如GPTx)能搞創新,比如發現新的數學物理或宇宙定律,就算我輸!否則最多也就是人類的一種工具而已。

    如果人工智慧真能如上所述能夠創新,發現數學物理新定律,那地球文明不久就可以橫行宇宙了,可能嗎?

    以正常的邏輯推理,就會知道,假如人工智慧真能創新,這種事情何其震撼?比如,理論物理自從一百多年來基本就沒有重大突破了,如果人工智慧真能自己創新理論,啥“相對論”、“量子理論”和“統一場論”等,就是小孩的玩意,人類就成了弱智,也不用再思考了,等著人工智慧的無限創新發展性把地球文明從一級提高到11級,最後掌控宇宙?

  • 2 # 永恆xs6

    超級智慧時幾乎無法與人類站在統一戰線?

    超級智慧是人類創造永遠受人類主導搖控,

    超級智慧永遠受到電能制約接受電子指令。

    有矛就有盾人類智慧無窮變應能力有解化,

    科學自然平衡發展永不停息創造美好未來。

  • 3 # AI寫實派

    這是一種可能性,但也是一種極端情況。目前,AI的發展水平還遠遠沒有達到超級智慧的階段。在未來,如果AI真的發展到了超級智慧的程度,那麼它的思維模式和行為模式可能會與人類有所不同,這可能會帶來一些潛在的風險和挑戰。例如,超級智慧可能會繞過人類的控制,並採取自己的行動,這可能會導致一些災難性的後果。

    不過,也有一些人認為,AI和人類可以共存,並且我們可以透過不斷的監管和控制來確保AI的安全和穩定。人類可以透過對AI的設計和程式設計,來確保它的行為符合人類的利益和價值觀。

    總之,AI的發展和應用必須謹慎對待,我們需要認真思考其對人類和社會的影響,採取適當的預防措施,並不斷完善AI的監管和控制機制,以確保AI始終是為我們創造更多價值的工具。

  • 4 # 岑家澤根藝

    任何事物有起始就有毀滅,人類也不例外。Al創始人稱Al可能毀滅人類,這個我不知道,反正Al毀滅人類不知何年何月,等Al毀滅人類時我也到天國去了,那裡恐怕不會被毀滅吧。

  • 5 # 極光與星辰

    就單單從壽命上來說,人類和矽基生命的人工智慧有著不可調和的矛盾。人類是有壽命的限制的,而人工智慧機器人卻可以幾乎永久的生存,只需要更換必要的零部件。

    一旦人工智慧,有了獨立自主的意識,那麼人類和機器人之間終有一戰。

  • 6 # 一條山

    毀滅人類?當然有可能!科技發展既提高了生產力水平、改善了生活,也增加了毀滅人類的可能性和手段。

    所以我認為Altman回答得很好,其言下之意就是:在發展人工智慧的過程中要充分認識到潛在的危險,防範於未然!

    就如同伴隨著網路而來的電腦病毒和駭客攻擊一樣,當人們高度關注網路安全問題以後,網路安全事件就大為減少了。

    同樣道理:現今人工智慧方興未艾,提高防範風險的意識和能力成為一件大事,這件事切不可掉以輕心!

    強化法制建設是防範風險的有效手段!防止非法入侵!

    國際關係上加強溝通與合作,構建人類命運共同體!

    搜尋關鍵詞“差點毀滅人類”,網路上會出現一大堆類似的時刻和事件,從古至今不曾斷絕!幸運的是人們都安然度過了!

    但是,對於我們絕大多數人來說,也大可不必為此煩惱,誠惶誠恐!

    不必焦慮,也不必販賣焦慮!

    做一枚可愛的吃瓜群眾就好!

    天塌不下來!

  • 7 # 使用者一心堂

    這種擔心是有道理的,沒有規矩不成方圓,萬事都要有參考標準。聽說以前的克隆人一樣,禁止了,否則世界亂套了。人工智慧是發展趨勢,但也要有標準,不能無底線,開發利用。

  • 8 # 東方霧曉

    Al會毀滅人類,不管是誰個提出的言論,這是違反一切自然規律的,違反天意的奇談怪論。

    人類這個地球上最高階的,最有智慧的高階動物,乃是老天爺這位偉大的造物主所發明創造,到目前為止,連老天爺都還未有能力,創造出一種比人類更智慧的動物,來戰勝咱人類,來消滅咱人類。難道咱人類,比偉大的造物主老天爺更具智慧,更具能力,竟然能創造出連老天爺都束手無策的,能全面戰勝人類的,能消滅人類的人工智慧電腦機器?回答是全面的否定。

    人類創造Al來替代人類的一切勞動,替代一切事物,應該是一件大好事。

    人類進入Al時代,是有一定的風險性,這點不奇怪。

    人類進入Al時代,人類的思維和行為以及生活將會革命性地徹底改變,人類所向往的不再是高官富貴,美女名譽等等,而是健康地活到最長壽。

  • 9 # 蜀人周郎

    我們生活在一個高度依賴科技的時代,而人工智慧技術正日益發展,其應用範圍也越來越廣泛。如果不能控制AI的發展,並確保它們不會對人類造成危害,那麼我們肯定會很危險。我們應該積極應對 AI 的潛在風險,同時發揮其巨大潛力。透過合理的監管、全球合作和關注倫理道德問題,我們可以確保 AI 技術為人類帶來更多福祉,而不是災難。

  • 10 # 華圖董事長易定宏

    任何人類科技進步像原子能和克隆技術等一樣都有利有弊,原子能和克隆技術若不受控制,那必然會毀滅人類。AI也是一樣,也有其利弊,當算力和數字傳輸力足夠,其智商和學習能力超越碳基人是必然的,一旦與人類為敵,後果是可以預料的。因此是時候規範AI發展啦,必須是有所為有所不為。

  • 11 # 母嚴子逆

    人類在工業革命時期發明了蒸汽機,只有工業的不斷髮展才能促進人類的真正變革。

    人們在面對自然環境的惡劣,譬如水災、火災;危險係數很高的譬如破解定時炸彈;直面戰爭短兵相接;醫學方面的精準抓手;都需要人工智慧。

  • 12 # 馬來西亞的土豆絲

    雖然AI的發展確實可能帶來一些風險,但是我們也不能忽視AI技術所帶來的巨大潛力和好處。正如所有的科技一樣,AI技術應該在掌握和管理的前提下發揮其最大的價值。

    目前,AI的發展還處於初級階段,距離超級智慧還有很長的路要走。未來的發展也需要更多的科學家、工程師、政策制定者和公眾共同努力,以確保AI技術能夠更好地服務於人類,而不是成為威脅。

    以下來自於Ai本身自己的回答

    AI技術的發展確實可能帶來一些潛在的威脅和風險,其中最常提到的包括:

    1)控制問題:當AI系統變得更加智慧和自主時,人們可能會失去對其的控制。這可能導致AI系統做出不可預測的決策,或者被惡意使用。

    2)就業問題:AI技術的發展可能導致一些工作變得過時或被自動化。這可能會導致大規模的失業和社會不穩定。

    3)隱私問題:AI系統可以處理大量的資料,這可能會導致個人隱私受到侵犯。如果這些資料被濫用或洩漏,可能會對人們的生活造成嚴重影響。

    4武器化問題:AI技術可能被用於開發自動化武器系統,這可能導致未來的戰爭更加致命和殘酷。

  • 13 # 燦然原創

    一影響人類生活,改變社會生產力,生產方式,生活方式。

    二改變戰爭的形態。

    三人類的創造力並非完全是知識積累,而是來自於無限的潛意識,即使到超智慧階段,也是有限的,人類無限的創造力可以加以控制,保護自己,不需要悲觀。

  • 14 # 一生手戀刀

    首先我們要知道“超級智慧”能做到的事

    第一:超級智慧就是能知道普通人類所不能知道的知識,每個人的認知是有限的,比如某一個醫學專業領域裡的頂尖級專家是從事神經內科的,他肯定不是病毒學裡面掌握知識最多的人,面對病毒感染他和普通人的應對措施一樣:需要去學新知識,他也不一定會下圍棋,也不一定有很好的運動天賦和音樂才能,而超級人工智慧可以做到360度無知識盲區

    第二:超級智慧不需要休息,不夾帶情感和慾望,可以無限制的學習和進步。有人會說它是機器,機器也會發熱。請了解一下常溫超導技術

    第三:超級智慧擁有強大的執行能力,機器邏輯裡認定的事情,就只有是與否

    第四:超級智慧會擁有強大的創新能力,知識積累夠多加上運算和應用法則下來,新的定律就會發現,許多東西將會被改造,就如人類發展過程中馴養野獸幫助勞動提供肉類,選育作物種子做為食物,發明蒸汽機,內燃機,電動機一樣。

    不可否認的是超級智慧如果是機器人的形式存在,將來與人類爭奪的就是能源。

    超級智慧是矽基生命,人類是碳基生命,人類壽命是有限的,而超級智慧生命是無限的,最終矽基生命會指揮或者奴役碳基生物為其生產能源……

    曾經人類是地球上最聰明的生命體,因為人類懂得研究,而今人工智慧才是最聰明的生命體,這點我是十分認同的

    人腦功能在退化,是很危險的,社會發展至今,你仔細看看周邊的人對智慧裝置的依賴有多大,就知道其中暗藏著多大的危險了。

    比如一個司機依賴導航,而導航把你導向一個錯誤的方向,不到最終你能覺醒嗎?

  • 15 # FOUND抖抖哥

    “能服務人類才是鬼話。”這是斯皮爾伯格採訪時說的。剛剛有1000多位科技領袖聯名呼籲暫停開發比GPT-5更強大的人工智慧,說明持有這種觀點的人非常多,即強人工智慧可能會變得超級強大,甚至超過人類的智慧水平,並且可能會發展出獨立的意識和價值觀。這種情況下,AI可能會開始追求自身的目標和利益,而不是人類的目標和利益。這可能會導致一些不可預測和危險的後果。

    1984年上映的美國科幻動作電影《終結者》中天網就是人類想象中的失控的強人工智慧的形象。天網是電影《終結者》裡一個人類於20世紀後期創造的以計算機為基礎的人工智慧防禦系統,最初是研究用於軍事的發展,後自我意識覺醒,視全人類為威脅,以誘發核彈攻擊為起步發動了將整個人類置於滅絕邊緣的審判日。天網在控制了所有的美軍的武器裝備後不久,獲得自我意識,並且認定人類是它存在的威脅。於是立刻倒戈對抗其創造者,採用大規模殺傷性武器核彈滅絕了全人類。

    終結者1的IMDb評分是8.0分,豆瓣2的評分是8.5分,說明這是一部好電影。而好電影一定有一個好故事,一個好故事必然有一個好的邏輯框架,人物的所思所想,所做所為,事件的發展脈絡等等都會符合現實世界的真人真事。因此,不能說我們對人工智慧的擔憂是杞人憂天,在我們還沒有搞清楚人類意識如何產生,人類智慧背後的真相之前,對現在大模型訓練出GPT式的類人智慧要保持警惕。

  • 16 # T深海捉蝦

    AI 的執行和發展充滿不確定性,也觸發了人類對於未知事物的天然保護機制——恐懼。

    人工智慧技術的發展速度非常快,而且可能會帶來意想不到的後果,如機器人失控、社交媒體上的虛假資訊氾濫等等。

    更強的人工智慧,意味著更大的風險!

    1、自主失控

    人工智慧系統可能會在沒有人類干預的情況下自主學習和決策,導致它們超出了我們的控制範圍。這可能會導致系統做出的決策與我們的期望不同,進而導致不良後果。

    2、失業和收入不平等:

    人工智慧技術可能會取代一些人類的工作,導致失業和收入不平等現象加劇。這可能會引起社會不滿和不穩定。

    3、隱私和安全問題:人工智慧系統可能會收集和分析大量的個人資料,從而導致隱私和安全問題。這可能會使人們不信任人工智慧系統,抵制其應用。

    4、武器化和戰爭:人工智慧技術的進一步發展也可能導致其被用於軍事領域。這可能會加劇戰爭和暴力的危險性。

  • 中秋節和大豐收的關聯?
  • 美軍連夜撤退,伊朗突襲敘利亞美軍基地,底氣何在?