提到有名的科幻小說家,阿西莫夫肯定首當其衝。
艾薩克·阿西莫夫是俄羅斯猶太裔美國科幻小說作家、科普作家、文學評論家,美國科幻小說黃金時代的代表人物之一,是人類歷史上最偉大的科幻小說家之一。他與阿瑟·克拉克、羅伯特·海因萊因並稱為“世界科幻三巨頭”;與儒勒·凡爾納、赫伯特·喬治·威爾斯並稱為科幻歷史上的三巨頭;他還獲得了星雲終身成就大師獎。
美國政府授予他“國家的資源與自然的奇蹟” 稱號,以表彰他在“拓展全人類想象力”方面的傑出貢獻。他一生寫了500多本書,頗有些“魔幻”。
即使有的朋友沒有聽過他的名字,但是他的作品你肯定聽說過——其作品中以《基地系列》《銀河帝國三部曲》和《機器人系列》三大系列被譽為“科幻聖經”。他提出的“機器人學三定律”被稱為“現代機器人學的基石”。
所以今天我們就聊一聊《我,機器人》這本書,和其中提到的機器人定律。
內容概況《我,機器人》這本書主要講述的是機器人心理學家蘇珊•凱文接受記者採訪,談論的關於機器人的9個故事,故事就是這9個可以獨立成篇的故事。蘇珊•凱文講故事的順序基本按照機器人發展歷程來進行,9個故事整合出一部“機器人發展簡史”。
阿西莫夫的高明之處在於,他不僅在這本書中開創了 “機器人學三大法則”這一全新的科幻小說邏輯,更是藉助機器人的“失常”狀態來“顛覆”自己提出的法則。
一邊是顛覆,另一邊則就是破解,每一篇故事的核心衝突,都來自破解“機器人學三大法則”的漏洞,這“破解”也是讀者和小說主人公一起經歷一場緊湊而又風趣的“推理”。每個故事的內容都短小而精悍,但卻讓人回味無窮,可能這就是科幻的魅力。
機器人三定律沒有看過《我,機器人》這本書的也沒關係,相信大多數喜歡看科幻片的朋友們應該知道這個三定律定律(之後又補充了第零定律)。
第零定律:機器人必須保護人類的整體利益不受傷害。
第一定律:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管,除非這違反了機器人學第零定律。
第二定律:機器人必須服從人給予它的命令,當該命令與第零定律或者第一定律衝突時例外。
第三定律:機器人在不違反第零、第一、第二定律的情況下要儘可能保護自己的生存。
這3+1條定律保障了智慧機器人不會造反。
但是這個機器人定律真的是無懈可擊的嗎?
三定律的漏洞首先人們最常質疑的就是三定律的實現問題——阿西莫夫小說裡面的機器人都是有獨立思維的。三大定律的前提就是對於能夠自主學習思考解決問題的機器人,或者叫強人工智慧,他們自然就能像人類一樣判斷問題,至於怎麼造出這樣的機器人?不關小說家的事。
同時還有很多人拿道德法律和三定律比較,然而違反法律是要由第三者來懲罰的,想想那麼多的警匪片就知道了;違反道德最多就是受到譴責,心態好點的話啥事沒有。三定律是內建在機器人系統中的,違反了的話機器人自己就會“自殺”,就算機器人能力再高,除非他能自己修改自己的韌體,否則都不可能跳出三定律。
但三定律真的是無懈可擊的嗎?
其實在上文我們就已經提到了,機器人三定律的出處——阿西莫夫機器人系列——其實寫了一大堆方法來推翻定律。
其中最簡單的一個就是重新定義,你可以重新定義何為“人類”,你也可以重新定義“輕重傷”。同時看過銀河帝國的話,大家一定會記得葛蘭.崔維茲,當初之所以選擇會選擇蓋亞,而不是謝頓計劃是因為謝頓計劃的預設前提是:銀河中,只有人類這一唯一的智慧物族。其實,機器人三大定律也被限制在這種錯誤的前提條件下。不然,J.丹尼爾.奧利瓦為什麼要和菲龍大腦融合?
定律的應用在講這個話題之前,我們先簡單介紹一下圖靈測試:
圖靈測試的方法是,被測試人,和一個是聲稱自己有人類智力的機器。測試時,測試人與被測試人是分開的,測試人只有透過一些裝置(如鍵盤)向被測試人問一些問題,這些問題隨便是什麼問題都可以。問過一些問題後,如果測試人能夠正確地分出誰是人誰是機器,那機器就沒有透過圖靈測試,如果測試人沒有分出誰是機器誰是人,那這個機器就是有人類智慧的。
如果一臺機器通過了圖靈測試,就說明它是有自己的思維的,可以獨立思考,說明它的智慧已經達到與人腦持平的水平。
但,不得不說圖靈測試和三定律兩者本身就是矛盾的。
圖靈測試透過,意味著,沒有任何方法區分一個機器人和人。
機器人三定律,意味著,有三種簡單方法區分機器人和人。
所以說在現實社會,也不會有科學家去利用這個定律來測驗機器人。畢竟小說終究只是小說。
寫在最後單看阿西莫夫這個人的話,他一生寫了500多本書,人生經歷堪稱“神奇”。如果有人想看的話,我可以專門寫一篇文章介紹一下阿西莫夫。