你這個問題非常好,這是一個非常現實的問題,不久的將來,人工智慧會大量普及,那麼機器人或者人工智慧出問題怎麼辦?會不會變成神經病了呢?
請各位不要笑,這個問題就近就有一個現實的例子:衣索比亞航空空難事件說,我們可以認為就是波音公司的MCAS(機動特性加強系統)抽風和神經病一樣所導致。MCAS系統固執的認為飛機機頭抬頭角度過大強壓機頭,而駕駛員無法進行有效的手工控制,因此最終導致飛機失事
MCAS系統中,我們可以看到,有感測器探測角度,有資料傳回飛機進行分析,有系統智慧化的判斷並給出自動化操控,這就是一個典型的人工智慧採集分析處理的例子,最終MCAS神經病了。所以機器人或者AI系統出問題是非常可能的事情。
機器人或者AI系統只能依據之前學習的樣本分析和判斷,無法實現人類對隨機情況的額外的分析判斷,因此一旦教條的處理,就很有可能出現問題。
那麼出現了這類問題怎麼辦,其實很早在我們的前輩探索機器人的應用時,就思考過這個問題,並提出了著名的阿西莫夫三大定律
第零定律:機器人必須保護人類的整體利益不受傷害
第一定律:在不違反第零定律的前提下,機器人不得傷害人類,或看到人類受到傷害而袖手旁觀
第二定律:在不違反第零定律和第一定律的前提下,機器人必須絕對服從人類給予的任何命令
其實阿西莫夫三大定律來源於科幻小說,主要目的是處於對人的保護,沒有聚焦於對事務的保護,並且還存在很多缺陷。比如機器人要實現第零定律,首先就要知道什麼是人類的整體利益,這個過程就非常難,同時,事件的左右是否對人類的整體利益有什麼傷害,機器人想判斷正確這個更難,至少現在的技術做不到。
但是阿西莫夫三大定律也給我們予以啟示,這個啟示就是這個問題的答案,那就是機器人必須絕對服從人類給予的任何命令。也就是在機器人或者人工智慧抽風情況下,必須有一個途徑可以由授權人對機器人或者人工智慧絕對控制,這是我們最後的屏障
再看看埃航空難,MCAS我認為就沒有執行這條定律,在出現問題時,反覆和人類爭奪飛機的控制權。如果MCAS抽風時,機長可以手動操控絕對控制飛機,恐怕埃航空難也不會發生
你這個問題非常好,這是一個非常現實的問題,不久的將來,人工智慧會大量普及,那麼機器人或者人工智慧出問題怎麼辦?會不會變成神經病了呢?
請各位不要笑,這個問題就近就有一個現實的例子:衣索比亞航空空難事件說,我們可以認為就是波音公司的MCAS(機動特性加強系統)抽風和神經病一樣所導致。MCAS系統固執的認為飛機機頭抬頭角度過大強壓機頭,而駕駛員無法進行有效的手工控制,因此最終導致飛機失事
MCAS系統中,我們可以看到,有感測器探測角度,有資料傳回飛機進行分析,有系統智慧化的判斷並給出自動化操控,這就是一個典型的人工智慧採集分析處理的例子,最終MCAS神經病了。所以機器人或者AI系統出問題是非常可能的事情。
機器人或者AI系統只能依據之前學習的樣本分析和判斷,無法實現人類對隨機情況的額外的分析判斷,因此一旦教條的處理,就很有可能出現問題。
那麼出現了這類問題怎麼辦,其實很早在我們的前輩探索機器人的應用時,就思考過這個問題,並提出了著名的阿西莫夫三大定律
第零定律:機器人必須保護人類的整體利益不受傷害
第一定律:在不違反第零定律的前提下,機器人不得傷害人類,或看到人類受到傷害而袖手旁觀
第二定律:在不違反第零定律和第一定律的前提下,機器人必須絕對服從人類給予的任何命令
其實阿西莫夫三大定律來源於科幻小說,主要目的是處於對人的保護,沒有聚焦於對事務的保護,並且還存在很多缺陷。比如機器人要實現第零定律,首先就要知道什麼是人類的整體利益,這個過程就非常難,同時,事件的左右是否對人類的整體利益有什麼傷害,機器人想判斷正確這個更難,至少現在的技術做不到。
但是阿西莫夫三大定律也給我們予以啟示,這個啟示就是這個問題的答案,那就是機器人必須絕對服從人類給予的任何命令。也就是在機器人或者人工智慧抽風情況下,必須有一個途徑可以由授權人對機器人或者人工智慧絕對控制,這是我們最後的屏障
再看看埃航空難,MCAS我認為就沒有執行這條定律,在出現問題時,反覆和人類爭奪飛機的控制權。如果MCAS抽風時,機長可以手動操控絕對控制飛機,恐怕埃航空難也不會發生