科學哲學家黎鳴以前提過一個概念,他說現在的計算機系統是二元計算機,也就是一正一負,一陰一陽,這種機制下,你是不可能讓機器自身有虛構機制的,你只能給機器植入你的程式,不管程式有多複雜,畢竟你是植入的,機器自身不會產生思維,也不具有學習能力。
要想讓機器真正具備"思維",理論上講,要用道家的"三元理論"。
比如,在計算機內部程式裡,現在其實就是一層套一層的if語言,就是由一個條件,兩個選擇,其中一個是對的選擇,一個是錯的選擇,這樣設計下去,不管計算程式多複雜,無論如何,機器是按照提前設定的路線走下去的,它自己不可能產生"思維"。
機器產生思維的前提是:要設計出自相矛盾的選擇,就是無法判斷哪個條件是對的,哪個條件是錯的,選擇是自相矛盾的,是一對悖論,兩個可能都是對的,也可能都是錯的,可是你必須要選一個,這樣選擇出來的結果,就連設計者也無法控制。
理論上,這樣會導致"思維"的產生,也就是偏離設計者的意圖,產生"它自己的想法",可這只是個概念,怎麼實現,沒人知道,而且看上去這很危險的,在這個基礎上,再給機器加上痛苦感,現在的機器是沒有痛苦感的,即便它掛了也不會痛苦。
要設計出痛苦感,快樂感,也就是條件反射感,用這些虛擬的感覺,在跟環境碰撞的過程中,得出自己的計算結果,而其所經歷的環境是無法控制的,那麼,機器跟環境互動之後計算得出的結論,也就是無法控制的。
現在的人們對人工智慧的理解我覺得是有個問題和矛盾的。
人們現在基本上希望實現兩個目標:一,讓機器人具備自我學習和思考能力,二,同時又不能讓人工智慧脫離人的控制,這兩點其實是自相矛盾的。
實際上,你不讓它脫離你的控制,它就不可能有自我,就不可能有自己獨立的思維和立場,要想真正讓機器具有自我意識和思考能力,那你就必須讓它脫離你的控制和設計,可是那樣,似乎真的很危險,也就是說,你設計的機器將來會幹什麼,你自己都不清楚。
這種理念其實是有的,比如現在計算機的加密技術都是用不可逆技術,也就是,我只是設計一套演算法,這套演算法跟具體的操作物件互動之後,得出一個計算結果,也就是加密之後的結果,但是,具體得出什麼樣的結果,我設計者自身也沒辦法控制,沒辦法再逆算回來,這就是不可逆。
其實這個理念用在人工智慧上,也是說的通,只不過技術肯定要複雜的多,但是隻要一實現,人類確實有點危險,因為那樣的演算法得出什麼樣的結果,是沒人知道的,也就是那個機器最後的想法就沒有人知道了,天知道它會幹什麼。
剛才說的只是概念,這樣的概念能不能真正實現還不好說,我覺得現在的人工智慧都是誇大其詞的,一種輿論噱頭,無非就是用更大容量的記憶體,存入更復雜的程式,有更多的功能,能做更復雜的運算,原理上是一樣的。
讓它能夠自己得出不確定結論,脫離設計人類的設計的概念,根本還沒開始啟動,而且技術界對設計這樣的機制也沒有動力的,因為,你浪費了半天時間設計一個機器,無非是想對自己有利,對對手不利,競爭中能夠勝出,如果你設計一個你完全不能控制的機器,你怎麼知道你設計之後,它對付你的對手還是對付你呢?誰有興趣設計這樣的機器呢?
但是人工智慧要真能實現,邏輯上相當複雜,我認為比把石頭變成麵包的技術可能更復雜,要解決的問題太多了,石頭變成麵包只要解決原子級的組合問題就行了,那個具備自我意識的設計其實要複雜的多。
現在的人工智慧沒有自我意識,比如英國電視臺不是請了個機器美女去電視臺做訪談嗎?那個都是用複雜程式冒充的自我意識,不是真的自我。
只有不受控,才可能具備真正的自我意識,按照確定路線做判斷的,只是冒充的自我意識。
科學哲學家黎鳴以前提過一個概念,他說現在的計算機系統是二元計算機,也就是一正一負,一陰一陽,這種機制下,你是不可能讓機器自身有虛構機制的,你只能給機器植入你的程式,不管程式有多複雜,畢竟你是植入的,機器自身不會產生思維,也不具有學習能力。
要想讓機器真正具備"思維",理論上講,要用道家的"三元理論"。
比如,在計算機內部程式裡,現在其實就是一層套一層的if語言,就是由一個條件,兩個選擇,其中一個是對的選擇,一個是錯的選擇,這樣設計下去,不管計算程式多複雜,無論如何,機器是按照提前設定的路線走下去的,它自己不可能產生"思維"。
機器產生思維的前提是:要設計出自相矛盾的選擇,就是無法判斷哪個條件是對的,哪個條件是錯的,選擇是自相矛盾的,是一對悖論,兩個可能都是對的,也可能都是錯的,可是你必須要選一個,這樣選擇出來的結果,就連設計者也無法控制。
理論上,這樣會導致"思維"的產生,也就是偏離設計者的意圖,產生"它自己的想法",可這只是個概念,怎麼實現,沒人知道,而且看上去這很危險的,在這個基礎上,再給機器加上痛苦感,現在的機器是沒有痛苦感的,即便它掛了也不會痛苦。
要設計出痛苦感,快樂感,也就是條件反射感,用這些虛擬的感覺,在跟環境碰撞的過程中,得出自己的計算結果,而其所經歷的環境是無法控制的,那麼,機器跟環境互動之後計算得出的結論,也就是無法控制的。
現在的人們對人工智慧的理解我覺得是有個問題和矛盾的。
人們現在基本上希望實現兩個目標:一,讓機器人具備自我學習和思考能力,二,同時又不能讓人工智慧脫離人的控制,這兩點其實是自相矛盾的。
實際上,你不讓它脫離你的控制,它就不可能有自我,就不可能有自己獨立的思維和立場,要想真正讓機器具有自我意識和思考能力,那你就必須讓它脫離你的控制和設計,可是那樣,似乎真的很危險,也就是說,你設計的機器將來會幹什麼,你自己都不清楚。
這種理念其實是有的,比如現在計算機的加密技術都是用不可逆技術,也就是,我只是設計一套演算法,這套演算法跟具體的操作物件互動之後,得出一個計算結果,也就是加密之後的結果,但是,具體得出什麼樣的結果,我設計者自身也沒辦法控制,沒辦法再逆算回來,這就是不可逆。
其實這個理念用在人工智慧上,也是說的通,只不過技術肯定要複雜的多,但是隻要一實現,人類確實有點危險,因為那樣的演算法得出什麼樣的結果,是沒人知道的,也就是那個機器最後的想法就沒有人知道了,天知道它會幹什麼。
剛才說的只是概念,這樣的概念能不能真正實現還不好說,我覺得現在的人工智慧都是誇大其詞的,一種輿論噱頭,無非就是用更大容量的記憶體,存入更復雜的程式,有更多的功能,能做更復雜的運算,原理上是一樣的。
讓它能夠自己得出不確定結論,脫離設計人類的設計的概念,根本還沒開始啟動,而且技術界對設計這樣的機制也沒有動力的,因為,你浪費了半天時間設計一個機器,無非是想對自己有利,對對手不利,競爭中能夠勝出,如果你設計一個你完全不能控制的機器,你怎麼知道你設計之後,它對付你的對手還是對付你呢?誰有興趣設計這樣的機器呢?
但是人工智慧要真能實現,邏輯上相當複雜,我認為比把石頭變成麵包的技術可能更復雜,要解決的問題太多了,石頭變成麵包只要解決原子級的組合問題就行了,那個具備自我意識的設計其實要複雜的多。
現在的人工智慧沒有自我意識,比如英國電視臺不是請了個機器美女去電視臺做訪談嗎?那個都是用複雜程式冒充的自我意識,不是真的自我。
只有不受控,才可能具備真正的自我意識,按照確定路線做判斷的,只是冒充的自我意識。