首頁>科技>

這條新聞說的是,現在用人工智慧技術生成人臉,已經能做到以假亂真的地步。比如說,你可以在一個視訊裡,把楊冪的臉換到《射鵰英雄傳》裡面朱茵的臉上,絲毫看不出違和感。你還可以生成假的社交賬號,創造一個看起來非常像真人,但實則不存在的人的頭像。這種現象,叫做深偽。

這件事聽了讓人有點毛骨悚然,因為它讓我們意識到,在一個演算法驅動的世界裡,有很多資訊都是真假難辨的,你不知道什麼是可以信任的。

不過其實,即使沒有深偽這種現象存在,我們對演算法的信任可能也早已經超出了很多人的想象。

前兩天《華爾街日報》財富板塊裡看到一篇文章。這篇文章的標題,叫做《為什麼投資人應該警惕自動化的投資建議》。

文章的作者是紐約城市大學商學院的一位教授。這位教授做了一個有意思的實驗:她邀請了800個測試者,告訴這些人他們要依據顧問的建議,來做某些投資決策。有一撥測試者被告知,這些建議是真人投資顧問提供給他們的,而另一撥測試者被告知,這些建議一自動化的演算法提供給他們的。然後教授讓測試者評估一下,他們對於顧問給的投資建議,有多大信心。

結果實驗發現,人們對於演算法顧問給的建議,比對於真人顧問給的建議,更有信心。也就是說,人們認為演算法的判斷比人的判斷更準確。

做完這一輪測試之後,這位教授又跟測試者說:很不幸,這些投資建議的結果最後都不怎樣,都沒賺錢。現在,你們要不要重新評估一下這些投資顧問?你還會接著用他們嗎?結果發現,測試者對於演算法顧問的信心仍然比對真人顧問的信心要高。

這個結果,乍一聽你可能會覺得,這不意外啊。因為我們都知道,投資是一個高度複雜的、需要理性分析的事。人會受到情緒和主觀意願的影響,但是演算法是客觀的,是理性的。所以演算法做出的決策,很多人天然會覺得更公正、更精準。

但是,這種認知恰恰是一個誤區。演算法也是人設計的。在設計的時候,會把我們人自己的偏見注入到演算法裡面。

你可能在得到很多老師的文章裡,都看到過演算法偏見的問題:比如那些用來預測個人犯罪行為的模型,會對少數族裔有偏見,因為用來訓練演算法的資料本身,就是有文化偏見的。

再比如說,有人曾經做過實驗,如果你在谷歌上搜索一個黑人常用的人名,這之後谷歌就會有更高概率,給你推送刑滿釋放人員需要的服務廣告,這其實就是種族歧視滲入演算法的例子。

不過這篇文章的價值,還不在於它指出這個誤區。這篇文章的價值在於,它通過這個實驗提醒我們,已經有很多人在不知不覺當中進入了一種演算法崇拜,把演算法當成一種權威來看待。

哈佛大學在2018年對這個現象,做過一個專門的研究。在研究裡,他們讓1200多名參與測試的人,對未來進行預測。有的是要預測某些商業事件發生的概率,有的是要預測百強單曲的排名,有的要預測政治事件,還有的要做線上媒人。

在測試者做了預測之後,實驗設計了一個特殊環節:他們告訴被測試人,我這有一個其他人關於預測的建議,你要不要參考?你可以考慮參考建議,修改你的預測。有的人收到的建議號稱是來自於真人;有的人收到的建議,則是來自於演算法。結果發現,同一條建議,如果實驗者說是來自於演算法而不是來自於人,那麼這條建議會更有可能被採納。而且這種情況出現在所有的預測領域裡,不管預測的是商業世界,還是百強單曲,抑或是線上媒人。

從這個實驗裡我們可以看到,演算法崇拜不僅是在投資這個領域存在,它其實是一個在逐漸泛化的現象。這種現象,我們在生活裡其實早已經習以為常了。出門打車的時候,很多人不都是更相信高德地圖生成的路線,而不相信司機師傅的判斷嗎?

那你可能會好奇,這樣的趨勢會帶來什麼樣的後果呢?

《華爾街日報》的這篇文章指出,演算法崇拜的一個後果,是人們可能會丟失看問題的多元視角。

打個比方來說吧,平時你要是做投資決策,可能會聽好幾個投資顧問的決定,從中選出一個最符合你心意的,或者綜合這些人的意見做一個決策。但是如果給你投資建議的是一個權威,像巴菲特一樣的人,你覺得他肯定不會錯,那麼你還會去尋求別人的建議嗎?可能就不會了。

如果我們把演算法看成是一種比人更客觀、更可靠的權威,那麼就有可能出現這樣的情況。

除此之外,人們也可能變得更不愛冒險:如果有演算法這樣的權威在時時提供正確答案,那麼還有什麼冒險的必要呢?

這樣的困局怎麼破呢?畢竟,演算法的準確性會持續提升,似乎演算法成為權威這件事是大勢所趨。

說到這,我就想來跟你說說下一個材料了。這個材料是我前段時間關注的一場,發生在斯坦福大學的人工智慧論戰。

這場論戰的主角,是《人類簡史》的作者尤瓦爾·赫拉利和人工智慧專家李飛飛。在論戰裡,有一個他們激烈爭論的問題,是人工智慧是否會代替人類,成為決策的主體。

當時,赫拉利提出一個假想。他說,按照人工智慧現在發展的趨勢,總有一天,人工智慧會比你自己還了解自己。到那個時候,人是不是就要把所有的決策權,都讓渡出來呢?你在哪工作、能學什麼專業,甚至是跟誰約會結婚——這樣的決定,由最了解你的那一方來做,是不是最好呢?

而且,我們也不需要演算法完美地了解我們自己才去做決定。我們只需要演算法,比我們自己了解自己多一點點,就能做這件事了。這麼一來,演算法在未來社會,不就成了掌控決策權的老大哥麼?而且,誰掌控了這樣的演算法,誰就有了控制整個社會的工具。赫拉利認為,這是一個危險的趨勢。

這其實不是一個新問題,很多哲學家也提出過類似的問題。但是我推薦這場論戰的原因,是李飛飛的回答。你可能知道,李飛飛是人工智慧領域炙手可熱的電腦科學家,在斯坦福任教的同時,還給谷歌的人工智慧發展做顧問。

李飛飛說,當我們考慮這些哲學層面的問題時候,好像整個世界唯一存在的就是兩個群體:一個是強大無比的人工智慧,另一個就是創造了這些強大人工智慧的一小撮人。

但是真實的社會遠比這個要複雜,這裡面有跨國的合作,有法律政策,有道德條款等等,總之,除了演算法以外,還有很多玩家和規則。

如果不是因為這些玩家和規則的存在,那過去不是有很多的技術發明都能對人類造成毀滅性的破壞麼?槍支、原子彈、生物科技等等。就連我們最基礎的技術發明,火,那不也是既能生火做飯,也能引發火災麼?

所以任何一種技術都是一把雙刃劍,就看它在什麼條件下被使用。這就需要社會裡的各個玩家和規則發揮作用了。不能把演算法的執行空間想象成一個真空,能毫不受限地向各個領域延展觸角。

這個討論,其實對演算法崇拜這個問題非常有啟發。演算法崇拜的解決方案其實不在演算法本身,而在於規則的制定和共識的形成。《華爾街日報》的文章提供了以下的解決方案:

第一,無論是人工智慧領域的創業者,還是法律的制定者,或者是媒體,都應該不斷地提醒人們:即使用演算法做決策,也要尋求第三方視角,不管這個視角是來自於人,還是來自於其他演算法。

第二,如果涉及到人們的重大利益,比如說像是投資回報、健康這樣的問題,那麼演算法的發明者也應該主動公佈,演算法裡面是否可能有偏見,或者是公佈演算法的一些基本假設。這就好比說,一家藥品公司要在說明書上公佈,藥品可能會有哪些副作用一樣。規則的制定者,要主動引導人們用批判性的視角,來看待演算法。

其實現在,依靠演算法、人工智慧做決策,已經變成家常便飯了,對有些行業來說甚至成了必需品,如果你的產品沒有演算法,反而顯得不夠專業,不夠前沿。但是,今天的材料恰恰是提醒我們,有一個維度是我們不能摒棄的,就是人這個維度。你是相信演算法猜你喜歡,還是相信一個你信賴的朋友或者導師,給你推薦一篇他們喜歡的文章?你是相信一個演算法自動生成投資決策,還是相信一個行業裡摸爬滾打多年的投資人給你的專業建議呢?

人本身有偏好和侷限,演算法也是一樣。一套真正有效的決策機制,一定是在機器和人的兩個維度之間,找到了平衡和互補。

最新評論
  • 整治雙十一購物亂象,國家再次出手!該跟這些套路說再見了
  • 特斯拉第三季度交付量破新高