-
1 # e風黑科技
-
2 # 珂想而智
對於這類問題,我回答過很多。
在AI自行學習是變好還是變壞,是否危害社會之前。有幾個基本概念是需要講清楚的,AI現在各方面聲音都很多,這幾個大判斷如果不建立的話,容易一會擔心AI毀滅世界;一會又聽說AI很垃圾,人工智障。
1、現在的AI還屬於弱智慧,離科幻電影裡強智慧差距還很遠。這話也不陌生,但AI為什麼屬於弱智慧?根本上是因為籠罩在AI頭頂的3朵小烏雲還沒有能解決,而且就現在技術而言,還看不到近期有突破的可能。今天就講一點,其他可以關注我,有具體的文章論述。這裡講的這一點很核心,就是,現在的AI還不能擁有本體意識。也就是說,阿爾法狗雖然贏了李世石但是它根本不知道自己在下棋,只是按照演算法,給輸入反饋了一個輸出,而它在做什麼,包括做這些的意義,代表了什麼?現在弱智慧的AI是都不知道的,也就是說,雖然AI現在都在講可以學習。但是學習這兩個字同我們人類的學習完全不是一件事情,所以回到問題前提現在還不具備。AI的學習是對於在人類演算法控制下處理資料的一種描述,而無法自我有意識學習。
2、解釋了現在AI是弱智慧,離強智慧甚至超智慧還很遠,下一個需要了解的就是現在AI技術發展很快,會滲透到我們生活方方面面,未來50年,是人類智慧和機器智慧共生的時代。我們不用擔心機器智慧本身,而更加需要關注如何進行人機協同,如何利用AI為人類做事情;這種能力,是需要鍛鍊的。三個方面:意識、思維以及互動。都需要重新整理原有的計算機、網際網路乃至自動化時代的認知。掌握人機共生智慧時代的意識、思維和互動方式。如何重新整理,也不具體講,歡迎關注,來看我的文章。
3、再次回到問題,已經明白了這個問題現在不用考慮,但是會有想象力比較豐富的讀者就是好奇。那麼我也開一下腦洞,真到了強智慧時代,AI自行學習了,會學好還是會學壞呢?好、壞要看視角問題,是否限定在對人類好,還是對人類壞。因為在那個時代,AI也是一種生命體,它有自身訴求。這個倫理體系是我們之前的人類社會不具有的。需要重建,才有可能做到高等智慧體共生。
最後,開一下腦洞,我認為未來高等生命有可能有三種形態:1、我們看到科幻電影裡的單體機器人是一種,學術稱之為矽基生命,在我看來實現難度最大,因為矽基生命不僅是要突破智慧技術的問題,能耗比的屏障也非常大。阿爾法狗下一盤棋需要4000千瓦,而李世石吃個麵包就可以,消耗是24瓦;2、不具有實體的分散式智慧體,這在未來實現難度要小於第一種,沒有具象,無所不知,又無所不在。這種存在我們之前往往會稱之為神。但未來有可能被我們製造出來;3、最後一種就是人機混合體,學術界叫做賽博格,也就是機械戰警那種人。思維意識還是人,但大量機械裝備實現人機共生。
回覆列表
雖然就目前的形勢而言有點不切實際,在各種美國大片中已經見識到高智商人工智慧的可怕了,機器人一旦有了和人類一樣的思考能力,它們的肉體上比我們更強壯,很難會隨著時間而弱化,相反隨著科技的進步它們會進一步的增強自己,如果人工智慧能夠自己上網學習,那麼就不僅僅是變好和變壞的問題了,它們有了自己的思考,這種好壞的定義就要上升到人類的安全問題了。
但是也可以從好的方面想,如果給智慧機器人設計一個好的心態,讓它保持著忠於人類,同時為人類謀福的基本設定狀態下,那它偶爾的淘氣也都可以接受了,畢竟是人工智慧,製作者還是人類,保持這大條件不變,在我們可以接受的範圍內偶爾不聽話也就沒什麼大問題了
人工智慧的學習最終還是決定在製作者的身上,它如果能夠依靠自己去思考判斷的可能性目前應該還不可能,畢竟人造大腦還沒有真正的實現,所以沒有思考的人工智慧還是無法做出自己的判斷的。