-
1 # 神學S
-
2 # 談科論普
在預測成功地建立有意識的機器而讓人類走向邏輯的終點方面,霍金不是一個人在戰鬥。我們可能會就近期機器對我們做了什麼而表示擔心,但是1863年,塞繆爾·巴特勒(Samuel Butler)就鼓勵我們應該在成為機器的傭人之前奮起反抗。他預測說我們對技術的日益依賴會讓我們最終淪為機器的服務員,而非機器服務於我們,並且在機器成為不可或缺的事物之前,科學和技術越是進步,我們就越依賴它們。巴特勒的動議深深地鐫刻在了科幻之中,因為在弗蘭克·赫伯特(Frank Herbert)1965年影響深遠的小說《沙丘》中,反智慧機器聖戰(Butlerian Jihad)裡提出的訓令是:
“汝不可造可像人類心智的機器”。
如今,過度依賴於機器的跡象已經出現在我們周圍,並且瀰漫開來,無法察覺——大多數人都在使用智慧手機以及其他裝置。
因為幾方面的原因,人工智慧會讓人感到有些擔憂。也許最不具威脅的一點就是機器將取代我們的工作,或者稍好一點也是機器能比我們做的更多——因而讓我們成為多餘的。在很多製造業方面,機器人已經這樣做了。但是,可以想見,能夠思考的機器人可能會讓人類思想像我們的體力工作一樣變得沒有必要。
當前的人工智慧專案包括機器人醫生,股票經紀人,當然也包括武器。
然而,這些並不是人工智慧的“聖盃”——這些案例充其量應該被視為模擬人類能力的“專家系統”,就像你的冰箱要預定更多的牛奶一樣,因為它意識到自己的牛奶存量不多了。
最近一項更加讓人不安的情況是,在人類的協助下不斷進展的演算法和專家系統,使得它們有能力來影響公共輿論和選民的意願。當機器比人類更會玩撲克牌時,就要求我們去認真地思考機器還能做哪些不依賴於我們的思考的事情。
人們通常認為真正的人工智慧是那種實現了“一般智慧”的,即具有了與人類水平相當的能力,這也被稱為“強人工智慧”。這種型別的人工智慧經常出現在科幻中以及像霍金一樣的人的擔憂之中。
強人工智慧是科幻夢魘中的素材——就像《2001太空漫遊》中的HAL,《機械姬》(Ex Machina)裡的伊娃(Ava),以及顯然更仁慈但同樣令人不安的《她》(Her)中那個能夠透過和人類對話來不斷豐富自己的意識和感情的虛擬伴侶。
也許在人工智慧方面,我們面臨的最大議題是它的倫理問題——並非在於實現人工智慧是否符合倫理,而是在於人工智慧是否會成為依賴道德責任共有觀念的人類倫理環境的一部分。
不管我們如何看待人工智慧,它們是否對人類負有任何感情責任?如哲學家尼克·博斯特羅姆(Nick Bostrom)所認為的那樣,我們靠什麼來阻止人工智慧透過消滅所有的人類來充分地獲取資源,因為它發現做某些無意中傷害我們的事情非常的便捷?又或者它會堅持對它自己有利的固有選擇?
人工智慧研究者認為在阻止這種情況出現方面還有很多事情要做,不僅僅是要有一個切斷電源的硬體,尤其重要的一點是,我們不能讓人工智慧擁有自主控制任何事物的權利。
當然,也有一些建議,可以讓我們在人類的意義上對人工智慧進行程式設計,以使其符合倫理——這不僅僅涉及到阿西莫夫的機器人三定律,這個定律的靈活性和漏洞是阿西莫夫有關機器人的大多數作品的基礎。
不管我們多麼認真地努力去對人工智慧進行程式設計,以避免它對我們做“它認為正確的事情”,但是正如哥德爾不完備性定理所顯示的那樣,人工智慧發現內部的例外情況仍然是有可能的。決定論和複雜性理論也表明,相信我們可以開始程式設計一個毫不含糊地對我們的指令予以迴應的複雜機器的做法可能註定就是要失敗的。如霍金提醒我們的那樣,失敗並不是一種選擇。
回覆列表
在這個問題上大部分人持有懷疑的態度:認為人類創造的東西絕對不會超越人類;但是我可以堅決肯定地告訴你:人工智慧必將超越或替代現代人類!在未來人類將會以全新的形態存在著,也就是以機器的形態存在著,從而實現了永生!到那時,醫院會消失,因為人類再也不會生病;農業會消失,因為人類再也不需要吃喝以及休息!你可能無法想象一個晶片的複雜程度~~當它超越現代人類的大腦時,一種全新的人類也就誕生了!