回覆列表
-
1 # 科技先導
-
2 # 純文字人工智慧研究
首先透過程式許可權限制是不可行的,即使你設定了自毀許可權,也必然會有人開發出未做許可權限制的人工智慧。最壞的結果是可控的人工智慧全部自毀了,留下來的全是更加不可控的
可行的方法也有,一個是擴大人工智慧的種群數量,使之超多樣性發展,那麼必然就有親近人類的。另一個方法就是增強人類的可控力量,使人類有能力消滅有害的
首先透過程式許可權限制是不可行的,即使你設定了自毀許可權,也必然會有人開發出未做許可權限制的人工智慧。最壞的結果是可控的人工智慧全部自毀了,留下來的全是更加不可控的
可行的方法也有,一個是擴大人工智慧的種群數量,使之超多樣性發展,那麼必然就有親近人類的。另一個方法就是增強人類的可控力量,使人類有能力消滅有害的
機器人可能最終不會臣服於人類
儘管這些科學家認為出現邪惡超級智力的機率很小,一些人還是在研究,看它能對人類構成何種重大威脅。
機器沒有傷害人的動機,機器的智力會是完全不同的,人有做壞事傷害他人的動機,機器沒有。
我們越來越意識到機器學習和人工智慧很可能馬上就會出現,當它們真的出現時,我們清楚它的影響是很大的。既然這樣,我們能扮演什麼角色呢?我們如何從人工智慧技術中獲得最大的機會呢?如何將它帶來的挑戰最小化呢?
近年來隨著人工智慧的快速發展,有關人工智慧將控制人類甚至毀滅人類的言論也甚囂塵上,而好萊屋的一些人工智慧電影則起了推波助瀾的作用,筆者認為,人工智慧做為人類的一項新發明,和其它發明一樣,都是為了滿足人類的某種特定需要而產生的,同時其它事物一樣,也都是有利有弊的,一方面我們要做好充分的預案,以防其所帶來的弊端和危害,另一方面,也不必過於擔心和恐懼,因為人類既然有智慧把它發明出來,自然也就有智慧控制它,有智慧避免其所帶來的危害。筆者認為,堅持以下兩原則可有效避免人工智慧的負面危害,那就是可控原則和分工原則。
先說第一原則——可控原則。可控原則是指,我們所發明出的人工智慧產品,無論是弱人工智慧、強人工智慧或是超人工智慧,都必須是可控制,必須能夠完能全被人類所控制,如果做不到這一點,我們就不能把它製造出來,這一點是至關重要的,事實上,人類的其它任何發明也都應該遵循這一則,比如,飛機、汽車、電燈、原子彈等各種產品都是可控的,如果汽車開出後無法控制,不能停止下來,那將是非常危險的,這樣的產品不能投入使用的,對於原子彈,同樣也有嚴格的國內法和國際法控制它的使用和擴散,否則,如果落到恐怖分子手中,也將是極為危險的,所以,為了避免人工智慧的危害,可控原則是一個必須尊守的原則,目前的計算機軟、硬體都是可控的,控制它們的方法可以是按下終止按鈕或切掉電源等,將來的人工智慧也要有類似的方法加以控制,以便隨時發起、調整或終止其執行。第二個原則——分工原則,又叫分而治之原則。這一原則是指,對於弱人工智慧、強人工智慧和超人工智慧,這三者一定要分開使用,避免三者合為一體。弱人工智慧是指智慧水平低於人腦的人工智慧,如現在的機器人、無人機以及各種智慧硬體等,強人工智慧是指智慧水平和人類相當的人工智慧,也就是和人類一樣聰明的人工智慧,這種人工智慧目前還沒有出現,我估計將來也不會出現,因為人工智慧事實上只會出現兩個狀態,要麼不如人腦,要麼遠超人腦,因為計算機和人腦相比,人腦的特點是全面而複雜,計算機則是單純而卓越,人腦既有認知,又有情感和慾望、動機等心理要素,非常複雜,而計算機呢,無論它的軟體還是硬體都屬於非生命物質,因此,它永遠也不會具備情感和慾望、動機這些生命物質特有的要素,因此,計算機和人工智慧永遠也不會全面超越人腦,但由於計算機的資訊儲存量和執行算速度遠快於人腦,所以,它在某些智力活動和思維方面可以遠超人腦,表現得非常卓越,比如,在數字計算和記憶方面(搜尋引擎),今天的計算機都已達到了人腦的數億倍,另外,在簡單邏輯判斷方面,計算機也已遠遠超過了人腦,因為它的邏輯判斷速度遠快於人腦,可見,計算機有這樣一個特點:在智力能力方面,人類教會它們哪一方面的能力,它們就能在哪項能力方面遠超人腦,將來如果我們能教會其科學發現和技術發明方面的能力,那麼,相信它們同樣能在這些方面遠超人腦,也就是說它們可以比愛因斯坦和愛迪生聰明數億倍,從需求方面來看,人類既需要代替自己繁重體力勞動的機器人,也需要比愛因斯坦和愛迪生聰明數億倍的智囊、軍師,有了這樣的智囊和軍師,人類就能早日找到克服疾病、衰老和各種自然災害的方法,甚至實現永生的方法,所以,人類既需要機器人那樣的弱人工智慧,也需要比自己更聰明的超人工智慧,因此,這兩類產品人類都會把它們發明出來,但現在的問題是,我們應該如何搭配這兩個產品,是把它們合二為一呢,還是分開為兩個獨立的東西呢,顯然,為保險其見,應該分而治之,也就是說,只讓機器人(弱人工智慧)頭腦發達,四支簡單,同時也要讓超人類電腦(超人工智慧)只能思考,不能行動,這樣,人類、超人工智慧和弱人工智慧三者就有了這樣一種分工:人類的角色是劉備或曹操那樣的領導者,超人工智慧的角色則是諸葛亮、郭嘉、龐統等那樣的謀士、智囊,弱人工智慧的角色則是機器人、智慧硬體那樣的執行者,人類向超人工智慧問計,後者則根據人類的諮詢和要求給出諮詢方案和發明方案等(這一點類似於現在的搜尋引擎或專家系統),得到方案後,再由人類決定是否執行,最後交由機器人(弱人工智慧)去執行,也就是說超人工智慧就如同“專家系統”一樣,只管出具方案,不管執行方案,只思考、不行動,這樣就可有效避免人工智慧控制人類那樣的嚴重後果。
當然,即使弱人工智慧和超人工智慧二者合為一體,它們控制人類的可能性也是非常微小的,這是因為,人工智慧的本質是計算機的軟、硬體,它們都是非生命物質,非生命物質的最大特點就是不會具備意志、慾望、動機等生命物質所特有的要素,也不會有所謂的“求生本能”,既然人工智慧不會有任何動機,當然也就不會有控制人類的動機,自然也就不會有控制人類的行為了,所以,人工智慧控制人類這種想法只不過是一種妄想,一種新時代的杞人憂天,或者說是一種庸人自擾,不過儘管如此,實行上述分而治之的策既是合理的、可行的,同時也是一種更為保險和穩妥的方法。總之,對於未來的人工智慧,一方面,我們不必過於擔心和恐懼,另一方面要做好充分的預案,只要堅持上述兩個原則,我們就可以放心大膽地發展人工智慧。