-
1 # 開業花籃鮮花花束
-
2 # 科技小館
這是個很大的問題,我試著從以下幾個方面分析:
圖靈測試是啥?圖靈1950年論文 Computing Machinery and Intelligence 中提出:
將計算機A和人類B分別隱藏起來,只通過一個文字顯示屏與外界問答交流。如果外界的人類測試者無論用什麼問題都不能分辨出兩者誰是計算機,那麼計算機就通過了測試,擁有了意識。
作為首次提出的嘗試嚴格定義“人工智慧”的測試標準,圖靈測試具有劃時代的意義。但是,當然,由於時代的侷限性,不可避免帶有嚴重的缺陷——最根本的,它混淆了行為和意識:並非所有行為都是意識的結果。僅僅透過行為並不能判定該行為是意識的結果。
圖靈測試在60年之後的現實意義。圖靈測試問世幾十年來,不斷有相關領域的學者提出質疑或者反駁。其中非常著名的“中文房間實驗”就是一個對圖靈測試有效性的針鋒相對的反駁。
1980年,美國哲學家約翰·賽爾提出名為“中文房間”的思想實驗,專門反駁圖靈測試。
假設一個完全不懂中文的外華人被封死在一個房間裡,房間裡還有一本無比強大的《中文迴應辭典》:這本辭典既有中文也有洋文,但其中的洋文絕不解釋任何中文的含義,而是鉅細靡遺地列舉了任何一段中文的迴應。
那麼一個華人只要從門縫塞紙條進去,這個鬼佬就能根據詞典上指示找到完美的中文應答,再從門縫塞出去。外面的華人就會相信房間裡是有一個精通中文的人——但這個鬼佬顯然不懂中文。
這時,如果將鬼佬換成計算機,將字典換成程式,我們就會發現計算機即便通過了圖靈測試,也仍然不知道自己說出的語言的含義。
可以看出,圖靈測試的出發點是,只要機器具有了與人類一樣的對外界輸入的反應行為,就可以認為機器具有了智慧。也就是說,行為代表了智慧。而塞爾的反駁的立場是,及時足夠先進的程式和機器能夠完美模仿人類的行為,但是這樣的機器仍然不具有意識,因為這樣的機器永遠不理解自己的行為,也意識不到自身的存在。
因此,站在今天的角度來看,由於人類的計算技術已經足夠發達,可以幾乎完美地模擬人類行為,但是這也僅僅是模擬而已。圖靈測試的價值剛好就是可以衡量這種行為模型的逼真程度。但是這樣的機器是否具有了意識,圖靈測試認為是的,但是你認為呢?你覺得機器知道自己在幹什麼嗎?
不能認識意識,不能描述意識,當然無法創造意識。作為曾經的相關領域的從業人員,對人工智慧領域的理論研究進展和工業應用略有了解。這幾年熱炒的人工智慧,理論基礎相對於幾十年前並沒有多少實質性突破。充其量是在某些具體的模擬方法模擬演算法方面有了更好的解決方案,而這些進步的基礎還是近幾十年的計算機運算能力的巨大提升。
實際上,我們目前所謂的人工智慧,相當程度上是依賴強大的計算能力,強行模擬人類的決策過程。所謂的神經網路、強化學習,雖然確實可以隨著訓練和學習,逐漸積累經驗,行為模式逐漸收斂。但是本質上跟儲存一堆規則,根據輸入匹配規則然後輸出這樣的東西沒有太大不同。只不過是把之前儲存在資料庫表中的規則轉化為了神經網路中的引數或者學習模型引數而已。
要問人類能不能創造出具有意識的機器,先想想,人類對意識認識到何種程度了?意識是否如行為主義者所說,只是一種主觀錯覺?我們的語言能夠描述意識嗎?如果我們都不知道意識是什麼,怎麼來的,更無法描述它,何談創造它?
總結綜上所述,計算機透過圖靈測試,證明了人類已經可以利用計算機幾乎完美地模仿人類行為了。僅此而已。
回覆列表
第一眼的印象:
題目補充說明中提到“被測試者超過 30% 的答覆不能使測試人確認出哪個是人、哪個是機器”這個標準,是百度百科上的說法。實際上,圖靈測試並沒有設立這樣一個標準。引用英文維基的相關內容:... he (Turing) estimated that by the year 2000, machines with around 100 MB of storage would be able to fool 30% of human judges in a five-minute test, and that people would no longer consider the phrase "thinking machine" contradictory.
也就是說,30%是圖靈對2000年(14年前)的機器思考能力的一個預測,目前我們已遠遠落後於這個預測。當然有人可能爭論說“people would no longer consider the phrase "thinking machine" contradictory”這個表述本身就是人工智慧成立的標準,但我仍然認為這是個很寬鬆的標準。
“被測試者超過 30% 的答覆不能使測試人確認出哪個是人、哪個是機器”這個表述,本身也有問題。按前文圖靈的說法,人工智慧應該能讓“30%的人完全(100%)的上當”,而不是像補充說明中,讓“100%的人每人上30%的當”——按這樣的標準,其實是沒有人被機器欺騙的。===2017.2.8補充===評論裡有知友對於“30%的人完全(100%)的上當”這個表述提出了質疑。回顧這一段,我承認為了追求對比效果,在數字的使用上不夠嚴謹。其實,要達到“上當”的效果,沒有必要真的達到100%。如果測試人有51%傾向於對方是人,49%傾向於對方是機器,就已經算是上當了。更簡單地,我們可以給測試人非黑即白的選擇,讓他只有“人”和“機器”這兩個選項,那麼就只有0%和100%這兩種結果,所有>50%的結果跟100%都是等價的。(有點像美國大選,只要得到一個州超過50%的選票,就得到了該州全部的選舉人票。)實際上,在圖靈測試領域著名的Loebner Prize(Home Page of the Loebner Prize),採取的也是這樣的規則,不同的是該測試會讓一個機器和一個人同時參與測試,讓測試人選擇哪個更像人類,但是本質上仍然是一個二選一——0%或100%的事情。===補充完畢===
透過的這套軟體“模仿的是一位 13 歲的男孩”……呃,如果我讓它模仿3歲男孩,是不是會有更多人分辨不出來了?我並不是質疑軟體或者測試的意義,只是再一次強調,測試採用的這套標準是相當寬鬆的。依據以上三點,我對於報道中提及的“透過圖靈測試”這個結論表示謹慎的懷疑。