回覆列表
-
1 # 健康運動中心馮春雷
-
2 # 劉曉博說樓市
(-東南偏北)
首先不問是不是,就直接問為什麼這簡直是耍流氓嗎嘛!
人工智慧最終會取代人類?這是危言聳聽啊!
為什麼我敢這麼直言危言聳聽,因為人工智慧並不可能取代人類。
首先我們要知道人工智慧的運作模式,人工智慧的一切都是基於計算。
比如阿法狗,阿法狗為什麼下棋能夠贏得了人類,因為人類每下一步棋,在阿法狗的演算法裡就以計算出了下一步棋的最佳方式,而人很難做到每一步都計算正確,但是機器可以。
步步都對,這也是機器的侷限性。怎麼說? 因為機器從來不會去思考內在的東西,舉個直白的例子吧:
比如抗日戰爭的時候,很多時候很多人知道執行一些任務,可能就再也回不來,但是還是會奔赴戰爭,因為這些人的內在是愛國的,或者說是有信念的。
但是,如果按照人工智慧的演算法,都是經過最佳計算的,那就絕不可能奔赴戰場了。
或者,換一種說法,就是所有的機器人都會是冷漠的,它們追求的只不過是高效率和多維資訊覆蓋。
正是因為人工智慧是基於的演算法,基於的計算,所以只需要一段程式碼就可以將其摧毀,當然了,肯定會有人說,掌握這些演算法的人是小部分人啊,如果這小部分人拿著這個演算法去禍害人類,那豈不是天下大亂。。
有這樣想法的人我覺得是杞人憂天,掌握核武器的人也是小部分人,如果這部分人能夠隨意釋放核武器,那或許這個世界早就不存在了!
人工智慧
人工智慧誕生有61年,但它從高冷科技到被吃瓜群眾圍觀也就是這幾年的事。我們可能一直在媒體上看到人工智慧做各種各樣的事,文可遣詞造句寫文章,武能扛槍指揮上戰場。所以總有一種聲音在告訴我們:人工智慧總有一天什麼都能做,到時候你就是它寄生的一部分,甚至被它控制。
但近期的一系列事件在告訴我們一個相反的結論:談論人工智慧取代人類還為時尚早,至少有一些問題需要解決。
人工智慧還不夠成熟
人工智慧有一個最基本的優點,就是能在長時間的工作中保持中立和準確性,這也是很多公司開發人工智慧的一個主要原因。比如說,IBM Watson認知計算平臺用於醫療的效果很不錯。但不是所有的人工智慧都那麼靠譜,比如近期用於Facebook訊息流的人工智慧就捅了簍子。
Facebook的趨勢新聞版塊一直被人指責有嚴重的政治偏向,後來Facebook炒掉了整個合同工編輯,原來的編輯工作完全由人工智慧代替,但沒過幾天,人工智慧就闖了大禍:它給趨勢新聞版塊推送了一條假新聞,宣稱FOCUS電視臺解僱了一名著名主持人,並且稱該主持人是“叛徒”,在Facebook修正錯誤之前,可能有數百萬使用者看到了假新聞。
Facebook推送的假新聞
Facebook推送的假新聞
而後續更令人驚訝。Facebook為了人工智慧炒掉了整個人類新聞編輯團隊,在假新聞事件發生之後,有三名原新聞編輯站出來宣稱,在他們被解僱之前,Facebook力推的新聞演算法其實並不完善,甚至有編輯爆料,原來他們稽核人工智慧演算法推薦的新聞時,發現演算法推薦的50篇文章一般只有20篇才是真新聞,而且這20篇新聞來源也不夠權威。
Facebook“趨勢話題”(Trending)版塊
Facebook“趨勢話題”(Trending)版塊
這個事例中,人工智慧可能沒有人類編輯對新聞事件的好惡偏向,但新聞本身的準確性大大降低,直接影響了新聞推薦的質量。編輯們表示,除了工程師不斷提高演算法,編輯對於人工智慧系統的訓練也是不可或缺的,但這裡的人工智慧沒有經過充分學習,就被Facebook出於新聞中立性的考慮被急急忙忙推出來見人了。
後來的事情更是嚴重:Facebook推出人工智慧新聞演算法的時候正好撞上美國大選,然後爭議不斷的特朗普當選總統,各種對結果不滿的人開始指責Facebook:都是你們訊息流上的假新聞幫特朗普勝選!這種說法可能有甩鍋的嫌疑,但Facebook上流行各種關於大選的假新聞倒是真的。
據說在歐洲一個叫“馬其頓”的國家,一些青年靠建立假新聞網站、編假新聞來掙廣告費,而傳播假新聞最快的途徑就是透過Facebook。現在,被罵的狗血噴頭的Facebook開始採取各種措施打擊假新聞,效果如何,還尚待時日證明。
這件事情告訴我們,人工智慧完全成熟需要時間打磨。技術人員需要不斷改善人工智慧的演算法;更重要的是,人工智慧做到模仿人類思維必然有一個學習的過程,而絕大多數的學習過程是透過人類訓練而進行的。
目前各大科技公司開發人工智慧的時間還不夠長,相應的系統學習也沒有那麼成熟,可以說是相當於幾歲或者十幾歲少兒的水平,讓這樣的系統承擔成人才能做的工作,可能超出了目前系統的承擔能力。
人工智慧也會被欺騙
相比人工智慧本身缺陷導致的錯誤,這一條目前還不太為人所注意,但仔細想想,駭客入侵系統對於人工智慧是個顯而易見的威脅。作為以各種演算法為基礎的系統,一定存在被駭客攻擊的可能。
駭客目前可能最常用的攻擊手段就是欺騙人工智慧。近期的各種電信詐騙告訴我們人類本身也不是時刻都保持聰明,對於缺乏完全思維能力的人工智慧更是如此。在這方面,駭客把欺騙手段可以玩出花樣。
比如說,美國的研究人員可以透過生成的3D模型欺騙人臉識別系統。這些研究人員首先在社交網站上收集人臉照片,透過這些照片製作人臉3D模型,並加入面部表情或者眨眼之類的小動作,至於皺紋之類的面部細節可以偽造,這樣生成的人臉3D模型在55%到85%的測試時間中可以騙過五分之四的人臉識別系統。
研究人員透過照片製作人臉3D模型過程
研究人員透過照片製作人臉3D模型過程
除了欺騙人臉識別系統,駭客還有可能攻擊自動駕駛系統。比如曾經就有駭客利用特斯拉Autopilot系統漏洞,成功“催眠”特斯拉。
研究人員使用“噪音進擊”方式干擾特斯拉
所以說,目前再厲害的人工智慧,還是有被欺騙的可能,至少我們不能將它作為唯一的依靠來判斷事情或者做決定。
人工智慧還不能明辨是非
談到“明辨是非”,對於目前的人工智慧來說可能要求太高,畢竟連人類都不能做到永遠明辨是非。有人甚至害怕,如果讓人工智慧明辨是非,就意味著人工智慧有了自己的判斷和好惡,這樣它就不能完全聽人類的話,甚至有背叛人類的可能。
其實沒那麼玄。之所以讓人工智慧學會明辨是非,是讓它能夠判斷出人類讓它做的事情本身是對的還是錯的。
一個不會判斷是非的人工智慧,可能會變成某個居心不良的人的殺人工具,會無條件執行惡人的命令;即使問題沒那麼嚴重,也有可能是這麼一種情況:一個記性不好的老人讓人工智慧機器人給花澆水,但實際上機器人剛剛給花澆過水了。
電影《終結者》中的機器人
讓人工智慧判斷命令背後的風險,並且避免風險,是人工智慧真正變成“智慧”的重要一步。目前其實有人注意到這一點,他們試圖開發能讓人工智慧做出簡單判斷的控制技術,還有人提出要給人工智慧教道德和法律。
但目前,相關的技術還在開發中,至於教授道德法律,科技巨頭為此專門召開會議,試圖制定人工智慧的道德規則;而歐洲議會也推進關於自動駕駛和人工智慧的相關法案,明確發生相關事故後的責任,並且要求人工智慧機器人要加裝“自毀按鈕”。但這些努力目前都只是個開始。
美國五大科技巨頭開會制定人工智慧道德標準
美國五大科技巨頭開會制定人工智慧道德標準
美國科技雜誌《連線》前主編凱文·凱利曾經在他的書中寫到,人類對人工智慧的心態有7個階段。目前我們對人工智慧的心態可能是這樣的:
人工智慧會做很多事情,但我做的它不一定會,或者它做這些常常出問題,需要我處理,又或者是我需要訓練它學習新任務。這三個階段再進一步,就是人類能放心將任務完全交給它的時候。