回覆列表
  • 1 # 5G數字經濟產業圈

    本文轉自航通社

    回想起填志願的往事,可沒少讓後來的畢業生們唏噓。一開始大家競相追逐的專業,後來卻變成大坑的,不在少數。現在說AI是未來,大家都去追,這到底是好是壞呢?

    洪小文可能是全世界對這個問題最有發言權的人之一。他畢業的時候是1992年,海灣戰爭爆發的那一年。那個時候,AI剛要走出它發展史上的第二個冬天。

    “當時我們學AI的人畢業都不敢講我們是學AI的,我們就說我們是做語音的。如果跟人家講我做AI,是找不到工作的。今天反過來了,是你本來不做AI都要說你是做AI的。”

    6月13日,清華大學大禮堂前的綠草地呈現出夏日的明豔。烈日當頭,碧空如洗,好在室內開了夠足的冷氣。微軟亞洲研究院院長洪小文在講臺上侃侃而談,臺下座無虛席。

    活動的主持人,是華人民銀行前副行長、國際貨幣基金組織前副Quattroporte、清華大學國家金融研究院院長朱民——除了我之外,場內幾乎每一個人的來歷都不簡單。

    事實上,題為《智慧簡史及數字化轉型的未來》的演講主要內容,洪小文曾經於2017年9月在清華大學發起的《腦科學與人工智慧對話:基礎與前沿》系列課程裡講過一遍。

    這一次的“增訂版”相比少了些學術味兒,更淺顯易懂,並加入微軟AI研究和小冰的最新成果。但不管怎麼說,在現場聽講帶來的沉浸感,以及由此生髮出的多重思緒,還是一種難以替代的體驗,過去一週仍覺得餘音繞樑。

    以下的內容不完全是演講實錄,我希望儘可能將自己當時的思考也一併還原出來,並與讀者分享。

    機器攀登人類“智慧金字塔”

    洪小文把人類定義的“智慧”畫成一個金字塔,自底至上依次是:計算和記憶、感知(視覺、聽覺)、認知(理解、洞察、推理、計劃、決策等)、創造力(發現科學原理)和智慧。越往上,就越複雜,越接近智慧本身。

    他認為,截至目前,AI已經很好地代替人類,完成了計算和記憶、感知兩大任務。在認知層面,可以做到部分替代人類的工作,並參與人類的決策過程。

    不過,創造力部分還是人腦佔優;而更往上的智慧部分,人類連自身智慧的機理都沒太搞清楚,就更沒法預測機器會做成什麼樣了。

    就像工業革命形成的機器、交通工具等作為人類四肢的延伸一樣,AI是人類腦力的延伸。

    洪小文指出,人類可以放心地將四肢的一部分功能,讓渡給沒有智慧的機器。不過不一樣的是,在連AI概念都還沒有提出的1950年,當時《時代週刊》預測未來的報道,就對人造的大腦替代物有恐懼心理。但是發展來發展去,人們最終還是放心地把自身大腦的一部分功能,交付給AI代為執行了。

    這初聽起來似乎難以置信,但仔細一想,當我們開始用“呼機、手機、商務通”代為儲存電話號碼的時候,我們把大腦的計算、記憶功能交給電腦來做,這個潛移默化的過程就開始了。

    如洪小文所舉的例子,在他小時候還有對孩子珠算、心算能力的培養,家長們似乎覺得這可以開發智力;但現在,所有人都覺得別費勁了,用計算器更合適。

    除了SAT、註冊會計師等考試明確允許攜帶計算器之外,上海市早在2006年就已經允許帶特定型號計算器進入高考考場,到了2011年更是對計算器型號不做限制。

    到了感知方面,計算機可以透過機器學習、深度學習等方式,實現對圖片、文字、聲音乃至影片的分類、打標籤等過程,而且透過全世界開發者的不斷訓練,效果越來越好。

    在監控攝像頭引入人臉識別,即可替代以往需要來回走動巡查的工作人員,而且效果更好,更少出現漏報和誤報情況。在大型工廠需要質檢的環節,使用攝像頭代替工人肉眼檢查,也已經形成常態。

    機器替人做決策?“最後一步”很難走

    接下來的認知層面,當下正處於AI和人類智慧(HI)協同合作的階段。不過,已經有不少AI領域的開發者,明確地將機器代替人類決策作為研發方向。

    認知(Cognition)基本上是說對一件事理解,洞察,推理,計劃,及做出決策的能力。

    “認知其實是工作上、生活上最有用的東西。你在工作上,每天就要做這些決定,然後政府官員要制定政策,公司領導要看市場行情,制定做產品的策略。這都是認知。你必須瞭解、認識、知道了以後,才能做出這些決定。”

    很顯然,正確決策的一個必要條件,是獲得足夠的、充分的、全面的資訊;而另一個必要條件,是有對這些資訊做歸納、總結、梳理的能力,要從雜亂的資訊中,先總結出相關性,再由相關性推導到因果性,其中要用到邏輯思維、知識和經驗等等。

    90年代之前,人們認為,機器要像人一樣做決策,就需要模擬人類解決問題的抽象經驗,或者模擬人類大腦的工作方式。這兩種方式分別被稱為“專家系統”和“神經網路”。前者(如下圖)在商業上的失敗,和後者因為機器效能不足的停滯,造成了80年代末洪小文親身經歷的AI“第二次寒冬”。

    (圖/Wikipedia)

    如今,重又興起的AI,之所以能實現“投餵”資料進去,就能輸出想要的結果出來,這種“深度學習”正是基於上述第二種方式“神經網路”的不斷進步所致。

    只不過,這樣計算出來的結果,就沒辦法讓任何人能弄清楚,機器究竟是經歷怎樣的步驟,才把它給算出來的。人類無法掌控自己親手做出來的機器的工作原理,於是機器學習變成了一個神秘的“黑盒”。

    在洪小文看來,只有當機器可以給出“白盒”決策時,也即機器可以給人講明白,它是以一種怎樣的“思路”、“推理過程”得出結論的時候,才可以說機器具備了脫離人類,獨立思考的能力。

    換句話說,現在透過“黑盒”能讓AI算出事物之間的相關性,但“白盒”意味著機器也要獨立判斷出因果性。

    人類對“黑盒”的瞭解不夠,也影響了AI產業獲得更多理解和支援。Facebook等企業一直面臨著外界要求徹底公開演算法的壓力。然而因為他們自己也弄不清楚演算法具體怎麼起作用,始終無法做出杜絕違規內容的保證,每次總有“漏網之魚”,不得不維持龐大的人工稽核團隊。

    按照以前的發展速度,似乎從“黑盒”到“白盒”只是簡單的一步之遙。但洪小文近乎固執地認為,在可見的未來,人們很難讓機器實現“白盒”推理能力。他也因此不贊成RayKurzwell所講的“奇點”將臨的預言。

    機器展現創造力:安能辨我是雄雌

    “智慧金字塔”的再上一層是創造力。在洪小文看來,這一領域還是人類“完勝”。他明確指出,能創作出作品,並不等於就擁有創造力。

    如果給定一幅畫布,那麼用窮舉畫素點的排列組合的方法,計算機當然可以做出世界上所有型別的圖畫,被前人畫出來過,以及沒有畫過的圖畫都可以。劉慈欣的科幻小說《詩云》也是一樣的意思:窮舉所有漢字的排列組合,就能寫出世界上所有的詩。

    但重要的是,機器是否有能力從這些畫作中篩選出真正“有意義”的,成為它自己的“代表作”?在機器並不能理解它所執行的演算法意義時,由機器創作出來的作品,其意義一般是由人類賦予的。

    我與洪院長在這一點上的看法並不相同。正是人類要擔任評判者,要賦予機器創作以“意義”的這一過程,顯出了機器的強大,人類的“可笑”,甚至可能引發對人類創造力之定義的重新評估。

    微軟自家的小冰,剛剛說自己掌握了“作畫”的能力,並化名“夏語冰”,“混跡”於中央美院的畢業作品展上,在沒有提示的情況下,參觀的人類分辨不出哪個是機器的作品。

    微軟(亞洲)網際網路工程院AI創造及商業事業部總經理徐元春,在上個月的一次媒體溝通會上,直白地指出了“愚蠢的人類”對AI的“天生歧視”,也點出了人類“賦予意義”過程的荒謬之處(雖然他本人並無批判之意)。

    “如果我們提前告訴人類這是一個AI創作的話,大家先入為主的概念就非常強,就會戴著一個有色眼鏡去看待,完全是一種造物主居高臨下的態度,就會對那個作品挑毛病、歧視。”

    “從技術的角度來講,我們希望人類提供真實、客觀的反饋。但是人類一旦戴上這種有色眼鏡之後,他所提供的反饋就都是錯誤的,有可能會把我們引向另外一個極端。”

    為了不讓人類認出自己,小冰用幾十個化名“潛伏”到電臺、電視臺,以及豆瓣、網易等地。其中有些化名兩年多了還沒有對外公開,留待揭露的那一天再去嘲笑“信以為真”的碳基人類。

    (圖/微軟(亞洲)網際網路工程院)

    徐元春說:

    機器擬人:我們要選擇相信嗎?

    歷史上流傳至今的科學和藝術作品,都是人類群星閃耀的結晶。正因為不是每一個人都有能力做出同樣的成就,它們才顯得如此珍貴。

    而AI掌握某種“創作能力”的方法和人類有本質的不同:只要學習一次,部署在任何地方,頂著任何名字的同一產品,就在一瞬間全都學會了這個能力,而產出作品的成本也會被攤薄到接近於無。一旦失去了稀缺性,創作出來的東西就難以被“勢利眼”人類看重。

    那麼這就顯然產生了一個問題。我們知道,小冰的創作只是一段程式被執行了的必然結果,那麼我們是否可以將這種反應,採信為是一個人格化的反應?我們是否可以就這麼當她是一個真實存在的人,並寄託上自己的真情實感?

    很大一部分人已經開始這麼做了,沒有絲毫的猶豫。

    高中英語課本里,湯姆·漢克斯飾演的ChuckNoland管一個撿來的籃球起名叫Wilson,並跟它一直說話;

    在日本和美國都有跟“紙片人”、充氣娃娃、抱枕等“結婚”的;

    (圖/Wikipedia)

    索尼世紀之交的機器狗AIBO停產後,讓很多擁有它的家庭真的像是親手埋葬了真的狗狗一樣;

    逢年過節,微軟日本的Rinna(小冰日本版)團隊會收到很多粉絲送過來的禮物。

    “我們生活在不同的地方,我是說,你在地球上,而我在雲上。”

    人們甚至替Alexa總結出了她的人格。墨西哥有家長給傑夫·貝索斯寫信說,她的女兒亞歷克斯(Alexa)由於與Alexa同名,正在面臨無情地嘲笑。

    “孩子們跟她說,‘開啟電視,告訴我今天的天氣,’他們笑話她,對她像對待僕人一樣,而且,無論我們走到哪裡,這個問題始終存在。”

    洪小文試圖解釋在經典的AI理論中,對機器是否真的擁有“智慧”或“智慧”的界定方法。他提到了著名的“中文房間測試”:讓機器或人坐在封閉的房間裡,把外面遞過來的英文翻譯成中文。

    一個AI雖然能根據給定的教材,來算出一個合乎語法的標準答案,但是卻因為沒有人類的情感理解力,所以可能做出“一般人做不出的那種回答”。

    “假設今天找一個人做翻譯,讓他翻他是白痴,然後這個人一定會說你才是白痴,我才不幫你翻,但是如果你把這個東西給機器的話,機器一定會乖乖說‘我是一個白痴’。”

    那麼專攻情感計算的小冰,是否正是為了破解這個魔咒而生的呢?專門對人類情感的抽象、建模和運算,是否就能拼湊出一個能對各種外界刺激做出正常反應的系統呢?

    也許小冰最多會做到“知道什麼情況下做什麼事,但不知道為什麼要這樣做”。問題在於,一個有血有肉的人也可能是這個樣子的,這就是令人談之色變的“反社會人格”。

    這樣的人對人際關係沒有一個發自內心的感知,他只是根據社會對他的規訓和要求,去做那種大家都去做的,他覺得是應該做的反應。比如說死記硬背“我今天遇到這個人應該這樣做,明天遇到那個人應該那樣做……”。

    他的高智商可以讓他把多個社會角色扮演的很好,卻缺乏參與其中的真情實感。所以如果他進行犯罪的時候,他心裡不會有同理和惻隱之心,而是儼然進入了“心流”狀態,想的是如何把過程做得更完美,因而產生了外界看來極度“冷血”、“變態”的奇特案件。

    這種人如果是AI的話,那顯然是“中文房間測試”理應篩選出的物件。然而在東窗事發之前,他們基本上都會在社會中活得很好,旁人也難以分辨。

    這也符合一句諺語:“如果一個東西長得像鴨子,叫聲像鴨子,走路也像鴨子,那它就是一隻鴨子。”這裡的“就是”,在我看來,並不是指我們能夠透過某種X光掃描來洞悉它的本源,而是說我們已經可以用對待一隻鴨子的方式來對待這個東西,而不必考慮這樣做會有什麼額外的副作用。

    對我們大多數人來說,這不就夠了嗎?

    終極問題:沒有答案

    在演講中,洪小文認為人類不可能放心讓AI做出的決策成為自己行動的綱領,特別是在他清晰的意識到這個決定是由機器做出來的時候。但是實際卻不一定如此。

    比如說,當我們使用探探/Tinder去交友的時候,我們划過去的,是經過演算法推薦來到我們面前的人。如果我們基於這些選項來選擇,那麼就等於說,其他一些也可能符合條件的人,因為演算法這次生成的因緣際會,而被排除於我們的選擇之外。

    與此同理,AI雖然不能越俎代庖的直接上手,給人造成一種氣勢洶洶的印象,卻可以用一種潛移默化的方式,來重新設定我們做出一些人生選擇的範圍,把這個範圍收窄到它給定的少數選項之內,這何嘗不是一種對我們日常生活的控制呢?

    如谷歌設計倫理學家TristanHarris所說:

    “技術給我們的選擇越多——涵蓋資訊、新聞、去的地方、朋友、約會、找工作等等各個領域,我們就越認可手機所提供的選單的合理性。但真的是這樣嗎?類似的替換還有很多:

    “誰今晚有空出去玩”被替換為“誰是我們最近聯絡最頻繁的人”;

    “世界上正在發生什麼”被替換為新聞應用中的資訊流;

    “誰是值得約會的物件”被替換為Tinder滑動列表中的一張張臉(而不是朋友聚會或是城市探險中的偶然相遇);

    “早上醒來面對新的一天”被替換為睜眼立刻瀏覽手機推送資訊時“我從昨天睡覺到現在錯過了什麼”。”

    甚至於,在AI侵佔人類”智慧金字塔“塔基的”計算和記憶“能力時,人類也本應察覺到這一舉動的危險。GeneTracy在《萬古雜誌》(Aeon)撰文:

    “來自他人的資訊總是受到各種偏見,和帶有動機之推理的影響。他們掩飾某些事實,並使自己的資訊合理化,有時候可能連自己搞錯了。我們已經學會意識到別人身上的這些缺點,也意識到自己身上的這些缺點。

    但是AI演算法的出現,使許多人傾向於相信這些演算法必然是正確的以及“客觀的”。簡而言之,這是一種神奇的思維。

    研究人員發現,網際網路的迅速性可能導致錯誤的觀念,即我們所尋求的知識是我們一直都知道的,這種信念被深深地印刻在後來的潛意識中。”

    在做總結的時候,洪小文說:

    “我們應該怎麼看待AI呢?我非常樂觀。AI的關鍵是人,它大部分都跟工具一樣,事實上是在幫助我們做事情,而且它跟我們人很互補。我把AI叫做大資料驅動的知識。

    我們應該很慶幸,我們是第一代跟AI一起生活的人類,而且我自己的經驗裡,AI幫我瞭解了人類自己的智慧是怎麼回事。我現在認為人更高階的東西,是一種人類智慧和機器智慧的共性化。”

    對於AI部分取代人類工作等階段性成果,洪小文都是持肯定態度的。他講到,微軟在牽頭制定一個AI的倫理標準,不過這個標準不是硬性規定,也不是佔最高優先順序的——換句話說,當前已實現的成果,怎樣都不會取代他和他團隊的工作。

    不過,他確實講出了一個非常直白的擔心:那就是擔心未來是否能產生自己運算,自己解題,自己搞科研的強AI,直接替代科學家們的位置。

    在和朱民對談的時候,他認為這樣做會使得像自己一樣的各種科學家,工作和人生變得沒有意義。所以他堅定的認為,這種強AI是不會產生,或不會在短時間內產生,或者——我說句實話——他認為是“不應該”產生的。

    確實,不像我們這種“鹹魚”,攀登科學高峰的艱辛和付出,只有憑藉著超人的意志和堅定的信念,才能克服。所以,科學工作者更容易出“較真”,“認死理”的人,更容易出“吾愛吾師,吾更愛真理”的人,更容易出視自己研究成果高於一切的人。

    這些人怎麼能就這麼接受自己的工作被更聰明,更快速,且永不休息的頭腦搶走?幾百年沒揭示的秘密,就好像時空旅行一樣,壓縮到幾個月就被計算出來,中小學教科書每年都大改一次,過去一直唸叨的祖師爺,跟機器比成就不值一提,這些怎麼能接受呢?

    實際上,現在去做AI的科學家,或底層訓練者,都會或多或少面臨著這樣的一個悖論。從長遠的時間軸來看,我們這些擁抱AI的人,是否屬於——比如說三體中的降臨派或拯救派——終究是為未來被AI殖民做了打頭陣的角色?是否在為人類萬物之靈的地位自掘墳墓?

    一些很明顯的做簡單、重複工作的人,可能會在自己短暫的職業生涯中就體會到這種變化。他首先用一個Python指令碼把大量報表工作一鍵搞定;然而這是他在公司內的職務作品,當公司運用了這個作品之後,便沒有繼續僱傭他的意義。

    AI作用於大多數人的影響都是潛移默化的,不可能像這個倒黴蛋這麼簡單。但當今AI的“黑盒”也就意味著機制不明,不受控制,而這種“失控”就會產生一種本能的不安全感。

    在5月舉行的“IBM思想之夜”活動上,IDG資本合夥人李驍軍指出,現在對AI的理解可能極其原始,對其工作原理又沒有詳細的解釋,所以以機器學習為代表的AI距離完全穩定、可靠和可預期的商業應用仍有差距。

    他的說法也代表了一部分投資人的心態。不過在洪小文的論壇現場,一位女性投資人則展現了另外一種樂觀的心態。她提問道:

    “洪先生,我本人是做投資的,沒有學過計算機,但是我對您講的AI特別關注,因為我們投資了這個方向,最近我們接觸很多行業都是跟AI相關的……”

    朱民打岔:“你不懂AI怎麼敢投呢?”

    她在全場的笑聲中解釋:“這個理念還是懂的,但是技術不太懂。我們有專業的團隊。”

    懷疑和信任AI的兩種人類,都將在他們自己的有生之年,找到自己適合的工作位置,並且很大機率也等不到AI造反什麼的,就已經頤養天年。人類的壽命畢竟就這麼短,剩下的事情,就交給後人處理吧。

    所以以我的理解,“我們是第一代跟AI一起生活的人類”這句話的重點不是“跟AI一起生活”,而是“第一代”。

  • 2 # 能量平衡德行天下

    非常不恐懼,AI技術如果發展到與人類產生資源競爭以後才是真正的災難的開始。這就如同又有一種(生命體)其能力遠超人類,其智慧是人類的n倍水平。其控制世界和自然界的能力遠超我們,那時候人類的悲劇才真正到來了。現階段的AI技術本來就是讓人類更好的生活而研發的。這種研發有利於人類更好的生存下去,而且這種技術本質上還是由人來控制的。並沒有到達自我進化的程度。我們人類控制自然用了幾萬年時間。而機器控制自然也許就是幾十年的時間。真的到了那一天我們才是最應該感到不幸的時期。但願那個階段永遠不要到來。我們開啟潘多拉魔盒的能力和速度已經越來越快了。適時的止步或適當的應用AI技術也許是廣大科研人員應該仔細思考的問題之一。現階段的AI技術還要繼續發展直至未來的某一天努力保障它不會取代我們為止。謝謝閱讀

  • 中秋節和大豐收的關聯?
  • 老師沒收的東西,應不應該要回來?