回覆列表
  • 1 # 洪一下

    我覺得可以,因為人工智慧是基於人類演算法之上的,除非我們賦予人工智慧生命,否則的話人工智慧不可能造反。當然,不會造反並不代表沒有傷害,就像武器,除了能幫人,也能傷人。人工智慧本身雖然沒有意識,但如果落在壞人手裡,一樣是禍害。

    因此我覺得,應該預防的是人心本身,想方設法讓人工智慧不被別有用心的人使用。人工智慧越強大,對人類的威脅便越大,像核武器一樣。所以我認為,應該像制約核武器的研製一樣,對人工智慧也要進行限制。倡導世界各國簽訂人工智慧協議書,對一些不經過同意進行私自研發的地區進行相關制裁。

    不過,為了防止一家獨大,在掌握強大的人工智慧後對其他國家進行打壓甚至侵佔他國資源,我覺得有必要成立一個國際性質的研究中心,由多國一起承擔研究任務,並對相關研發進展進行絕對保密。相關資料由多個國家分開儲存。

    也許會有很多人覺得我危言聳聽,過於謹慎,但這也是為了以防萬一。我們不應該把世界的秩序建立在君子之上,而更應該建在小人之上。我們不能把全世界都看成君子,但我們卻可以把所有人當小人來防備。君子制度,小人難防,君子遭殃,小人制度,君子得利,小人失猖,三思。。。

  • 2 # 死神的命中

    能,不會,基於以下幾點,現在的人工智慧只是標準化的答案,可能都還不算是,並不能做出思考,人工智慧是指他們能思考,與你討論某個問題,並提出解決方案。現在最高的人工智慧代表是那個索菲亞女機器人,可現在已經打破了,是後面有人操縱她的。所以人工智慧雖好,但沒那麼容易被創造出來。就像我給你幾噸的鐵,你就能創造一臺蘭博基尼出來?不可能的嘛,所以安啦。

  • 3 # 惠解讀

    驗證科學就是要先假設,人類若無法控制人工智慧,那這時的機器人應該是擁有人類的智慧,人類的情感,自我的意識形態。反觀能生產這樣機器人的人類,智慧絕對是更高階層,可比擬造物主了。

    第一,人工智慧是人創造的,AlphaGo的主人還是人類。科技的進步是人類的進步,而不是科技自身的進步。我們和自己製作的產品比賽本身就是錯誤的,就像人類無法跑過汽車,不能和起重機比臂力,不能和汽艇比速度一樣。

    第二,我們需要做的就是明確瞭解分析人工智慧在具體領域記憶體在的潛在威脅,,既讓它發揮作用,又要確保它們能夠安全,友好,按照人類價值觀運轉,這還需要很長時間的研究。畢竟即使是人類在大多數時間裡也都是無法遵循自己設定的原則而行動的。

    第三,對這方面感興趣的網友,可以去觀賞這些影視作品,你將會有自己猜到的見解,引人深思:

    英劇《黑鏡》特別是第三季的人工蜜蜂

    《機械公敵》,《人工智慧》,《機器管家》,《超驗駭客》,《機器人總動員》

  • 4 # 布萊克懷特

    很難,取決於科學家群體的話語權和國際無政府狀態的改善程度。我個人比較悲觀。

    科學倫理是確保科技進步符合人類利益的一道防線。但是這道防線容易因為國家間競爭而被突破。因為“科學無國界,但是科學家有自己的祖國”。所謂祖國的重要性,不僅在於文明和認同歸屬,更在於國際無政府狀態下,民族主義、愛國主義必然長盛不衰。而在愛國主義之下,科學界的行業倫理、科學倫理必然陣腳大亂,從而出現一些“黑科技”。人工智慧武器就是這樣一種黑科技。

    人工智慧武器可能讓率先研究它的國家獲得巨大優勢,但是這種優勢難以長期保持,而技術擴散不僅是在國家之間,也在人與人之間,特別是會擴散到反人類的恐怖分子、宗教極端主義分子手中。所以,人工智慧武器很可能威脅國際體系穩定、威脅整個人類文明。

    目前看,科學家群體的自我認同感在增強,但是隨著國家間關係的日益不穩定(主要原因是美國霸權的相對衰落導致的國家間安全困境加劇),愛國主義可能會侵蝕和分裂科學家共同體,從而讓具有巨大風險的“黑科技”從“潘多拉魔盒”中逃逸出來,引發世界性危機。

    為此,我們希望科學家群體能夠發出更多、更強有力的呼籲,促使各主要軍事大國、科技強國,儘早形成一致認可的人工智慧倫理規範,加強監管、防範新技術的武器化,防止技術進步導致的人類“自我毀滅”。

  • 中秋節和大豐收的關聯?
  • 低壓直流給手機充電對電池有影響嗎?