回覆列表
  • 1 # 中國鏟史官

    人工智慧會戰勝和替代人類嗎?你只要一問這個問題,就輸定了!被這個問題困擾,是因為說人工智慧戰勝和替代人類時,我們已抱了一種很可怕的關於“人”的在場形而上學:一邊是人,一邊是機器,機器戰勝了人,好動漫!本文從人、腦、機三者的關係出發,基於德里達-馬勒布的解構傳統,來將“機器人戰勝和替代人類”這樣的問題置換成:有了人工智慧後,如何給腦進一步升級?我們應該如何輕裝上陣,不斷自我變形,才能在未來更好地與腦共舞?

    一、簡答部分

    (1)人工智慧會戰勝、代替人腦嗎?不會。

    (2)人工智慧會威脅人類文明嗎?不會,或者說,如果會,這類威脅也太撓癢癢了。

    (3)人工智慧會統治人類嗎?除非被統治者花大錢請工程師團隊來幫它天天升級來統治他們自己。這是花錢請工程師來統治我們。

    (4)為什麼大家動不動就愛說這下人工智慧要來覆蓋人腦,機器人要來統治人類了?因為埋在人們身上的意識形態-形而上學木馬又起作用了:被統治者幫統治集團轉移自己的歸咎和反抗的方向。

    二、人工智慧統治不了腦

    大腦是不斷重新纏繞自己的(re-wiring),刻刻變移。所以,“內生(innate)和基因地決定的智力”這一有了近一百五年曆史的說法,是錯誤的。最近十五年對基因組的研究表明,我們身上只有三萬五千個左右的基因,在大腦中活躍的不到其中的一半。而且這些基因太弱,達不到腦的要求:基因無法對腦起決定性作用。法國腦科學家 Changeux認為我們的腦的複雜性更大,有它自己的生命,與基因無關,或者說身體基因是配不上它的。

    人工智慧也許能統治人(統治“人”的什麼呢?當我們說“人”時,我們具體是指什麼?),但它絕對統治不了腦。它本身也是模仿了腦之後的結果。關鍵在於腦能否被統治這一點上,是吧?那麼回答是:腦是無法被統治的。腦非但不能被統治,馬勒布還說,腦是我們抵抗全球資本主義企圖佔領我們的生命的每一面時的最後根據地(正面地看,抑鬱症就是個人之腦對於全球資本主義壓迫的自然反應)。腦被統治,意思只能是:電腦裡的某個程式要來親自開和關電腦了。大家還記得庫布里克的《2001年太空漫遊》最後的結局嗎?機器人想要來管人的閉事了,人腦的反應很簡單:關機。只有人腦會關機。機器人不會關閉自己,最怕這個。電影結尾我們聽到的是機器人的可憐的哀求。

    三、腦作為自然智力總是主動利用人工智慧,在前-機器人時代就已如此

    神經系統是一架機器。

    --英華人工智慧天才阿希比

    馬勒布認為,智慧(intelligence) 和智力(intellect)之間是高度可塑的。當尼采在《人性,太人性…》裡說“我為什麼會這麼聰明?”時,他的意思是:你看,我能避開你們眾人的智慧使用,用狐狸、蛇和鷹的角度來勇敢地思考,我培訓出了一種特別的intellect,來對付你們的集體的intelligence(它也在我的腦中),我用另外一種聰明來對付你們的聰明,所以我是更聰明的。更聰明,也就是能站出現有智慧之外,殺回馬槍。智慧和智力,只是這樣的東西:事後追補上去的那一層東西。這也可解釋今天的駭客方法論。

    腦中就有自然的人工智慧。

    四、腦至少在同時經歷四種進化,機器人只有可能戰勝腦中的人工智慧這一部分

    腦中除了那一自然進化,至少被分子生物學家們津津樂道的,還有基因式進化、基因逆溯式進化和象徵式進化。象徵式進化的意思是,腦被符號和技術拖著進化:在生命的技術進化工程中,被不斷假肢化和器官化(古人類學家勒魯瓦-古昂稱之為人的“外化”。腦是被外部自然所寫,不全是生物自然進化的結果)。相信腦會被機器取代,智力會被電腦程式設計戰勝,是隻看到了第一種進化,忽視了後面的三種進化。在技術-數碼化時代,後面的三種進化更明顯了。腦的象徵式進化意指:與人工智慧打交道的腦會很快透過符號-技術支架來作出跳躍式進化,正如每一代兒童中間都會產生大量駭客一樣。

    腦在今天的數碼演算法海洋裡仍可以遊刃有餘。人小,腦大。人的生命過程中發生的一切都可以影響人身上的自然,都是腦的學習機會,這就是腦的溯源式進化。它能看著辦,有無限的餘地。物理學家霍金在BBC和《衛報》上發言,擔心人工智慧會威脅人類文明,這論調是完全幼稚的(江曉原跟著他也寫了同樣的內容),表明他對腦科學和腦生物學最近二十年的研究一無所知。[1]

    腦有巨大的“那麼就看著辦吧!”的能力。它不直接出手,但總是後來一步跟上。最後它總遊刃有餘。

    布迪厄的社會學從另一角度理解了腦的社會式智力形成:智力不是智力地被設計的。我們的非理性unreason是被銘寫在神經元中的。神經元是控制記憶的那部分。由於神經元的不同時地的側控,腦在每一步上都可以做到無限地看著辦!也就是可以徹底無厘頭!布迪厄同時指出,腦在被動地跟著人做巨大的冒險,經受了一次次重大的考驗。比如每一次人的情感經歷都會使大腦裸露到巨大的危險之中,一次次,腦都必須撞牆而恢復,這種不斷在創傷中自我修復,才漸漸形成一個人的腦性(cerebrality)。人的情性(dispositons)並不能決定一個人的腦性,是一次次 expositions決定了人一個人有什麼樣的腦性(就像弗洛伊德說一個人的兒童經歷決定了它有什麼樣的sexuality一樣)。布迪厄並不瞭解腦科學今天的重大發現,他只是要解釋他的habitus理論,但完全符合今天的腦科學家們的觀察:人的社會性學習,是先將自己放養到社會中,再創傷式地來綜合經驗和理解的(是腦必須靠這樣來成長)。因而,布迪厄的社會學理論進一步證實:智力的形式一定是高度可塑的。它可以經受巨大的打擊而又恢復過來。

    智力是我們自己做出來(皮爾斯說的:智力是what we do and(加上) what we do with),不是現成的,我們一邊做,一邊帶出了它,不是先有了它,我們再去用它。它不是現成可用的東西。皮亞傑的古典心理學就已關注到這一點。他指出,我們的智力是透過組織世界來組織它自己的。它看著辦的,面對了機器人,它就像汪峰看上了章子怡。自然智力與人工智力的兩分從一開始就是形而上學的。人工智慧是自然智慧的產物。

    巴斯卡早就將automaton看作人的精神的“另一面”,是它的反派冤家,是不能少的配角。今天的人腦和機器人之間,亦是如此。問題肯定不是機器人或人工智慧會否替代人類,而是:機器人將要把人腦拔高到什麼程度?我們應該拿我們的腦怎麼辦?後面一個,就是馬勒布的問題,也是她的那本著名的書的名字。

    腦能夠自動解散,就像電腦關機一樣。失敗後的修復和反撲,才顯示出它的真正的能力。這就是黑格爾說的自我意識的克服過程。創傷後的恢復,到完全,到身體跟不上腦的徹底復原,這是腦的天然的能力。腦全新了,身體卻還是那架爛機器,有部分腦科學家相信,老年痴呆症正源於此。

    Movie scene from:"Berlin: Symphony of a Metropolis" (1927)

    機器能夠不中斷自己,修補自己,在自我組織中重新定義自己。機器一失敗,它就成了另一架全新的機器。偉大的演算法學家和人工智慧大師阿希比、明斯基、圖林們都持這種看法。他們是因為相信了這一點,才相信人工智慧模仿人腦是有前途的。

    David Bates最近提出了“數碼腦”的概念,來指出,與我們平時習慣地理解的相反,我們的腦早已是數碼化的。所以,腦需要中斷自己的自動化性(Automaticity),需要非機器人化。我們的腦總是想用最“懶”的方式存在,也就是說,腦總是想要像機器人那樣存在和執行,因為這最省力。是機器跑來挑戰我們的腦,說你千萬別像機器那樣,你再這樣,我就要來逗你玩了。腦需要一次次被這樣啟用。人工智慧的出現,等於是給我們的腦提供了一個很好的提醒裝置。類似於智慧手機對於我們的器官的作用。

    五、那麼如何解釋IBM正在開發的腦神經元晶片?它不是已在模仿腦的一切?它的系統能夠產生它自己的經驗,這是不是說,腦的可塑性也可被程式設計了?

    Spark Jones拍的科幻電影《她的(Her)》裡,主人公薩曼莎是會經驗人的經驗的機器人女朋友,也能體驗和期待自己的獨特的人生,行為幾乎像一個綠茶婊。她幾乎是有腦的。百依百順,既聖又婊。她是不是就要來統吃天下男人了呢?電影裡,男主人公Theodore不久就難受起來,因為他發現:她只是一個技術妓女,按不同價位能買到,光這一條街上就有幾十個使用者在使用,拿到修理店去升級,與別的機器人女朋友放一起看,怎麼都像寵物。主人公感到自己愛和睡這個機器人女友真是太蠢了。這不光是主人公的反應,更是人的有機腦的排斥性反應啊!

    人的智力卻總是無形的,在下一刻就吞下了它前面的自己。且刻刻都搖身一變。用心理學也是遠遠解釋不清楚的。蘋果手機一年換一個可以,機器人女朋友得一夜換一個才行啊,哪家制作公司能將成本降到這麼低?

    智力是一種無形式的形式,處於心靈(精神)與它自己的能力之間。黑格爾描述的“客觀精神”的認識自己的過程,差強就是:它認識物件,然後成為了物件,把物件當作了自己,完了嗎?沒有!它接著往前走。“它是它自身的運動”!它永遠在衝浪。它留下偉大的身後。偉大的變革、革命和滄桑只是它的配料。對於人,歷史是活過的經驗,而對於腦、意識或精神,這可能就不過是一堆備用的材料,像拍電影用的道具。與其問機器人會不會成為我們的歷史主主人公,我們倒應該問問:我們是不是已進入了一種腦歷史時代?人只是其配角?在大資料中,人越來越成為時時被重新編排的跑龍套的角色?

    六、自然智力和腦是人工地可塑的

    大學在今天已不在大學教師身上。在未來,大學將成為網路遠端教育本身,那才是德里達說的“無條件大學”。那時,老師將是集體智性(collective intelligence)的啟用者(animator)。

    --法國社會學家Pierre Levi

    以為機器人要來統治人類了,其實我們這還只是在初級階段呢! 我們現在是ANI, N是narrow,大家就驚叫了。接下來我們還將進入AGI, G是general,一般地全面應用。最後會進入ASI, S是super,超級應用,那時就會有替代式的腦功能,某些方面比人腦更好,創造,會有社交技巧(牛津哲學家納斯波姆的定義)。

    電腦模擬的人工智慧最後會有主體性經驗?且可同時被繼續程式設計?有一種叫做人工可塑性的東西?會有的。但這又有什麼大不了的呢。人腦要它們有的。它要求找版本更高的配角和陪練。

    一人一腦,對於你而言的腦到底是一個什麼東西?數學家和天體物理學家們說的奇點?腦洞,是個人大腦深處最不可捉摸處?那一無法被程式設計的點?

    Ex machina (2015)

    智商無法透過基因傳遞。人的智慧是人抵抗外部危險的盾牌。人的智力不靠量而靠張度來取勝。在人腦面前,機器人只是機器動物。

    是人腦下放某部分智慧給機器,而機器最近突然拎得清了,能夠向人腦學習如何透過試錯來學習了而超過車了。但機器人是永遠學不到人腦的愚蠢和懶惰中潛伏的陰暗的偉大力量的。

    人和機器之間沒關係,是人腦和有人工智慧機器之間的關係:人工智慧從來是人腦的一部分。人腦從來自己主動在將人工智慧當假肢。

    機器戰勝人,是太形而上學的說法。什麼叫“戰勝”?在評到阿爾法狗取勝時,斯蒂格勒指出,介面變成棋面,本來是好事,是將它變成一個一致性平面,會在其中生成新的慾望。在古典圍棋中,“勝”就是那個將一盤棋下得開天闢地,將棋譜留給後人。而阿爾法狗做的,剛好與這種圍棋精神相反,變成了更多的計算的投入。[2]

    是人要機器人來當假肢的。這一圍繞機器人編織的matrix,在下一秒裡就被人甩在腦後了。景觀和matrix那只是第三存留,對於人腦而言,只是像電影拍攝現場堆積的那些的東西。說機器人將來替代人,這是一種嚴重的形而上學迷糊:人陷在它自己的偉大創造中也就是機器和擬像之中了,《弗蘭肯斯坦》就是這一老的理解套路,完全是形而上學式的昏庸看法。

    其實,駭客帝國也就是人腦給它自己打的一個草稿。它只是人腦的腳手架。

    平時,人腦也是陷於它的習慣之中。習慣是藥罐。它幫助我們保持健康,同時卻也加快我們的殘廢。它是我們用來戰勝一惡的那一惡。我們對於蘋果果手機的上癮,對任何技術裝置的上癮,都屬於這一習慣的一部分。[3]習慣導向殘廢。它同時是殘廢對我們的招引和威脅。它是殘廢本身。[4]當我們對技術產品上癮,就是殘廢衝動衝了上風的時候。我們需要腦,來破除習慣。是腦拖著我們走出習慣,使自己可塑,逼自己變形。

    七、什麼叫做“人被機器人替代”?

    黑格爾-科耶夫的關於人、歷史和藝術的終結和尼采在《扎》裡的“偉大的訊號”一節中說的人終結於報復這一關於人終結的說法,被德里達在《哲學的邊緣》中理解為1)完成, 2)消失。形而上學和人類學所理解的人,已完成,正在消失。

    但德里達認為,人,是重複。它是一種自動機制,automatism。人重複自己,才是人;但人的本質如果已融化於數碼-量子-奈米層面,它還能重複嗎?它只能重複,在重複中留下的那一點點差異,哪怕那一點點蹤跡,這之後,人才是人。人是它消失後返回來的那一點莫名其妙的東西了。

    解構後,人重複的將是什麼?被解構後,人類此在將是一種什麼樣的東西了?德里達提醒我們,黑格爾和胡塞爾都認為理性就是歷史,歷史只是理性,人不斷回來,重新拾起它們:只有那一普遍人性的本質構成的理性,那一目的論理性,才是人。比如那一跨越至少二十五個世紀的幾何共同體中的人類共認的理性,才是“人”。德里達總結,人正是那一帶向終結的東西,在“終結”這個詞的最根本的意義上講[5]。人是一種不斷完成和消失的東西。但人永遠都仍回來。因此,我們作為“最後的人”,不應去做“高等的人”,而是成為“超人”。應該向尼采學習,走出形而上學,像《道德的譜系》所建議我們那樣,去屋外跳舞,去跳出那一出積極的遺忘(aktive Vergeszlichkeit)之舞,進入殘酷的節日,燒掉我們的文字,像野獸那樣抹去我們身後的蹤跡,用大笑,來照亮我們自己的非形而上學式的歸來之路。在此之前,“我們必須同時說好多種語言,生產出好多種類的文字”。這是風格的改變,而只有改變風格,才能改變我們的地盤。[6]

    尼采這樣的啟示性的見解,在今天的腦科學看來,是常識了。不要被人的尊嚴和本質這樣的說法捆住。福柯和阿甘本式的對生物-權力的批判和抵抗,也仍是報復式的:想用另一種方式重新回到人的尊嚴和本質之中。這種“回到”是形而上學的。而相信人工智慧會來替代人,更是像將人當退休人員在等死地認為人的尊重和本質是將來仍將如此,還需維護它!想要回到人那裡,回到原來的樣子,這就是尼采說報復。人終結了,也就是完成和正在消失,當人殺回來,它應該脫去形而上學之皮地全新地到來。這就馬勒布說的變形。

    人總要重複而回來,從今天的非人道主義話語中比如說腦學和分子生物學話語中偷偷潛回來的“人”什麼樣子的?

    德里達說,人在一次次消失中重新完成自己。人是一種要結束但永遠無法結束的東西。終結是人的telos,真要終結,人就無和不死的,達到絕對知識了。人處於將終結但沒終結的夾縫裡。終結是一個移動的界限。

    無限地重複,是後-人類的新本質?

    我們只能不斷重塑人本身。人工智慧只在這過程中能幫助到我們。當我們說人工智慧戰用和替代人時,我們是抱了一種很可怕的關於“人”的形而上學。

    人是那種重複自己的東西。重複,是人的生活的原材料。人想要緊緊抓住記憶、先古性、譜系、修補、重新機構化…

    計算機模仿人腦,是這一趨勢的一部分。

    Movie scene from:"Berlin: Symphony of a Metropolis" (1927)

    我們問題應該是:人如何才能不帶報復地去重複?如何才能不帶殘酷地去實現自己身上的那些非人道主義式、非人類學式的人性?

    八、後記

    什麼是波洛克式的畫?那是自動畫,自動藝術:automatic art, 不刻意,但也不隨便,介於真正的必然和無可奈何的偶然之間,是內在的外部和外部的內在巢狀在一起,使一切都處於溯源式的不確定之中,像災難。像腦。是腦畫。

    --馬勒布,“像波洛克的畫那樣--智慧的變移”

    關於機器人會不會來替代人這樣的討論,還只是浮現很表面的症狀。深層的問題是,我們怎麼拿我們原來的哲學、唯物主義眼光和康德要求於我們的作為公共地運用理性的既自啟又啟他的啟蒙過程,來討論這樣的全新的問題?當我們直覺地就相信機器人要來替代人類時,也就間接承認原有的哲學和人文科學的批判眼光已全線失效了。在當前的緊迫問題前,它們的確已失效。這需要我們作出一些重大的轉變,否則,我們就只能呆在哲學或人文科學裡掩耳盜鈴到天黑了。

    用這些舊有的眼光去批判這些是不著邊際,甚至危險的。討論機器人會不會來替代人這樣的問題時,我們必須:先將我們手上的哲學立場、理性主義話語和唯物主義世界觀升級。馬勒布向我們演示的方法是,主動利用分子生物學和腦科學對我們舊有的唯物主義立場的架空和否定,反而趁此機會,來克服我們的教條主義和形而上學,給我們自己身上的哲學立場全面升級。

    這也將是未來文科的任務了。只有在這樣的場內搏鬥中,我們才能找到未來的文科的地盤。馬勒布示範的是:在與腦科學和分子生物學的不斷冒出來的顛覆式的新發現的搏鬥般的認識過程中,去找到一種新的內在批判理論的邊界,在這個邊界內,來重新集結原有的大陸哲學資源,把康德、黑格爾、海德格爾和德里達升級後,再轉而引用他們來討論當代的緊迫的大問題。

    這對於正陷於當前文科中的我這樣的定居者們意味著什麼?首先,我們必須主動直面這些一再突破原有本體論底線的科學發現,形成一種我們哲學圈內自己的“實驗式批判”,能夠站在我們自己的立場上對科學和腦科學的新發現作出內在批判,在與後者的扳手腕的過程中,發展出一種批判理論,同時給科學和腦科學來找到邊界,以此來重新找到新文科的地盤。然後我們才能重新劃定我們此時的文科與科學和腦科學三者之間的新邊境。第三,升級我們熟悉的偉大作者、傳統、資源、譜系,迎著當務之急地來給它們補上,使它們能在當代說得上話,並帶著他們去討論當前最熱的技術-倫理話題。

    這對於我們在今天如何閱讀大陸哲學這一點,既構成了重大的警示,也帶來了一條很好的出路:必須在當代先給康德、黑格爾、尼采、德里達做人工呼吸,救活它們,再讓它們能夠對比如說當前的重大腦生物學問題發言。直接去讀康德或德里達,將是致命地教條主義和官僚主義的!

    比如,馬勒布就是這樣來讀康德的:她先問,今天的腦生物學到底應該支援基因(genetic)本體的,還是支援基因溯源(epigenetic)本體?康德對這事怎麼看?她就將我們帶到《純》27節裡。康德說:範疇與經驗的先天和諧“因此打開了一個純理性的溯源發生之系統(gleichsam ein System der Epigenesis der reiene Vernunft)”。但是康德生得太早了,並不知道今天的分子生物學、細胞生物學和腦科學在今天的那些發現,他只是在論證中給我們留了一個缺口而已:先驗前定,是一條路子,而倒過來,溯源式理性,也是一條。那由此可以認定,康德是會同意今天的分子生物學家咬定的“溯源式基因”進化行為這一說法,康德一定會反對今天的很多細胞生物學家和一般公眾仍頑固地在堅持的基因前定論(preformism)式的進化解釋的。這就等於說在我們的當代語境中的實驗式批判過程中救活了康德!可以用他來做事了。當斯蒂格勒說康德就是費里尼,《純》就是一張唱片時,也是在這麼做!我們必須從費里尼和戈達爾出發去理解康德,而不應該扛著康德來批判費里尼和戈達爾對吧,後者是太教條主義加官僚主義,註定是死路一條對吧?

    今天的文科在做的全是災難性的事:透過文化研究式的描述,來將一切弄得看上去都很正常。哪怕是批判和抵抗,也只是為了使現實看上去更正常些,是要復原,是要復仇,以牙還牙,最後失一得一。所以,text都被我們弄成了pretext(藉口)。

    但腦不是基因式地前定的。腦必須開放。而我們文科人在今天也不得不開始我們的“批判式腦文科實踐”。如何在現在就開始我們的腦文科呢?

    在今天,我們要怕的,不是人工智慧的自動性,而是我們和我們的腦的自動性。我們必須干預和打破我們的腦的自動性,哪怕用人工智慧,也在所不惜。

    我們與其擔心被機器人替代,還不如改變我們目前的人工智慧設計哲學和我們的教育制度中的智力選拔制度。尤其是後者中,關於智力的那些舊的原則都應廢除。如何來測試智力呢?

    尼采是這方面的腦科學或人類智慧專家。在《人性,太人性!》裡,他已經對腦和智力有很好的認識。他認為,只通過考試,沒有殘酷的競爭、選擇和失敗,就不會知道誰更聰明,因為,聰明與否總是事後才知道的。所有的考試都是錯的,因為它們基於先定的指標,測試了那些在後面的過程不一定用得到的智力指標,不讓差異在重複中出現(像德勒茲說的那樣),也不知道這些指標與未來的發展有啥關係,就打了分。尼采說,只有一路上最善於應變、精明地順從、變形和主動擲骰子者,才是最聰明的。在航海、狩獵和醫療中,一個人的智力上的特異,總是遠遠地在智力測試之後很久,才漸漸冒出來一點點的。應該在這種差異出現之後才測試才對。但所有的社會測試幾乎都做反了。

    智力無法被測量,是變移的,它在人身上或腦中,是一種長期潛伏、等待最後時刻收網的能力。這是一種像閃電那樣的能力。尼采認為他自己有這種能力。所以,他才自問:我為什麼會這麼聰明的呢?機器人永遠摸不到邊的,正是人或腦的這種能力。

    附-1:霍金:人工智慧將威脅人類文明

    Prof Stephen Hawking, one of Britain"spre-eminent scientists, has said that efforts to create thinking machines posea threat to our very existence.

    He told the BBC:"The development offull artificial intelligence could spell the end of the human race."

    His warning came in response to a questionabout a revamp of the technology he uses to communicate, which involves a basicform of AI.

    But others are less gloomy about AI"sprospects.

    The theoretical physicist, who has themotor neurone disease amyotrophic lateral sclerosis (ALS), is using a newsystem developed by Intel to speak.

    Machine learning experts from the Britishcompany Swiftkey were also involved in its creation. Their technology, alreadyemployed as a smartphone keyboard app, learns how the professor thinks andsuggests the words he might want to use next.

    Prof Hawking says the primitive forms ofartificial intelligence developed so far have already proved very useful, buthe fears the consequences of creating something that can match or surpasshumans.

    附-2: 評江曉原的關於人工智慧的輕浮的看法。

    一開始,他說人工智慧會奪走人的工作。這一看法在國外爭論很激烈,還沒定論的,江認為一定是這樣的。然後,他腳一滑,馬上就泥牛入海般地進入形而上學:“很簡單,那就是科Phantom片《駭客帝國》和《未來戰士》中的世界——人類被人工智慧征服、統治、壓迫。”此公顯然是科幻電影看多了! 他說,“研發軍事用途的人工智慧本質上和研發原子彈是一樣的,就是一種更有效的殺人手段”。那麼,原來,不是機器人要殺人,是人要用機器人殺人,對伐?繞了半天,仍不是機器人會”征服、統治、壓迫”人!!江曉原的討論裡不光邏輯和概念混亂,而且,他對於自己的科學史立場毫無基本的方法論反思,走半步就淌進在場形而上學不能自拔。這個整天裝大學問的科學史大師一討論技術,就漏洞百出,大概是下定決心要掩耳盜鈴和守株待兔到進棺材了。

    江曉原:人工智慧的近期威脅:大批失業、軍事化

      人工智慧的近期威脅,有些現在已經出現在我們面前了。近期威脅基本上有兩條:

      第一條,它正在讓很多藍領工人和下層白領失去工作崗位。現在較低層次的人工智慧已經在很多工廠裡被大量採用。有些人士安慰人們說,以前各種各樣新的技術被髮明時,也曾經讓一些工人失去崗位,後來他們不都找到新的崗位了嗎?但是我認為人工智慧不一樣。媒體曾放過這樣的訊息,包括人工智慧的從業者自己也都在歡欣鼓舞地展望,說人類現在絕大部分的工作崗位,人工智慧都是可以替代的。果真如此,顯然這個社會將會變成絕大部分人都沒有工作的狀態。對於這樣的社會,人類目前沒有準備好。今天如果有少數人沒有工作,多數人有工作,多數人養著少數人問題不大,這樣的社會是我們現有的社會制度和倫理道德結構能夠承受的。但是如果顛倒過來,這個社會中有相當大的比例——且不說超過50%,按照那些對人工智慧的展望,將來90%以上的工作崗位都會被人工智慧取代。比如說人們想聽一場報告,找個人工智慧來做就可以了,說不定比現在的聽起來還要來勁。

      當這個社會大部分人都沒有工作的時候,社會會變得非常不穩定。那麼多沒有工作的人,他們可以用無限的時間來積累不滿,醞釀革命,於是就會危及社會穩定。無論東方還是西方,無論什麼意識形態的社會制度,在這個形勢面前都將黯然失色。所以說人類還沒有準備好。

      順便再展望一下,既然90%以上的工作崗位都可以由人工智慧來取代,那麼“革命戰士”這種工作崗位能不能由人工智慧來取代?革命能不能由人工智慧來發起和進行?當然也可能。但是想想看,這樣的革命會帶來什麼呢?很簡單,那就是科Phantom片《駭客帝國》和《未來戰士》中的世界——人類被人工智慧征服、統治、壓迫。

      這是人工智慧近期的第一個威脅,現在在很多工廠已經出現了。對工廠來說,這個級別的人工智慧是很容易實現的。那些工廠的管理者說,我們換一個機器人上來,它的成本只不過是三個工人一年的工資,但是它們管理起來太容易了。管理工人很難,你讓他加班他不願意,加得多了他可能跳樓自殺或上街遊行,而機器人你讓它24小時一直幹著都沒有問題,管理成本又節省下來——管理成本往往是無形的,不那麼容易計算。換用機器人很容易就可以收回成本,也許一年就收回來了。所以他們樂意用機器人取代工人。一些地方政府還透過政策鼓勵當地的工廠用機器人來替代工人,換個角度想想,城市這樣發展下去,不需要幾年,幾百萬工人失去工作,到那個時候後悔就來不及了。

      人工智慧第二個近期的威脅,是由加入軍隊的人工智慧帶來的。但現在以美國為首的某些發達國家,最起勁的事情就是研發軍事用途的人工智慧。研發軍事用途的人工智慧本質上和研發原子彈是一樣的,就是一種更有效的殺人手段。為什麼埃隆·馬斯克等人也號召要制止研發軍事用途的人工智慧,道理很明顯:研發軍事用途的人工智慧,就是研發更先進的殺人武器,當然不是人類之福。

      今天我們只能,而且必須抱著和當年搞“兩彈一星”類似的心態,來進行軍事用途的人工智慧研發。軍用人工智慧就是今天的“兩彈一星”。

      比較理想的局面,是各大國坐下來談判,簽署限制或禁止人工智慧的國際協議。目前國際上已出現一些這樣的倡議,但僅來自某些學者或學術機構,尚未形成國家層面的行動或動議。

    中期威脅:人工智慧的反叛和失控

      我們再來看人工智慧中期的威脅——人工智慧的失控。這種威脅媒體早有報道,但有一些人工智慧的專家出來安慰大家,他們認為人工智慧現在還很初級,即使戰勝了李世石,不過是下個棋,即使它會作詩、寫小說,它還是很低階的,所以不用擔心。這種安慰非常荒謬。

      我們都知道“養虎遺患”的成語,如果那些養老虎的人跟我們說,老虎還很小,你先讓我們養著再說,我們能同意這樣的論證嗎?你讓我們同意養老虎,就得證明老虎不會吃人,或者證明你養的不是老虎。要是老虎養大了,它要吃人了,就來不及了。

    《駭客帝國》三部曲

      這個成語非常適合用來警惕人工智慧的失控。各種各樣的科幻作品都有提及失控的後果,比如影片《駭客帝國》中,人工智慧建立了對人類社會的統治,我們人類就完蛋了。我們為什麼要研發出一個統治我們自己的超級物種?

      當然,還有一部分專家說,想讓我們提供關於人工智慧這個“老虎”不吃人的證據,我們有啊,我們有辦法讓我們的人工智慧不吃人,不反叛,變成不吃人的老虎——我們只需要給人工智慧設定道德戒律。

      圍繞在人工智慧中設定怎樣的道德戒律,用怎樣的技術去設定,專家們確實已經想過各種各樣的方案了。但是這些方案可行嗎?任何一個具體方案,如果仔細琢磨,就會發現都是有問題的。我們先不考慮具體的方案,我們只要考慮一個總體的情形,就足以讓我們警惕。簡單地說,如果透過為人工智慧設定一些道德戒律,就指望它不會學壞,那麼請想一想,我們人類到現在為止,能夠做到讓每一個後代都學好嗎?答案是做不到。我們總是有一部分學壞的後代。對這些學壞的後代,難道家長和老師沒有向他們反覆灌輸各種道德戒律嗎?況且社會還有各種各樣的法律制約,但仍然還有一部分人不可避免地學壞。從這個情形來推想,人工智慧就算是你的一個孩子,你能確保他不學壞嗎?

      更危險的事情是,人工智慧會比人類更聰明。現在人類有一部分後代學壞,還沒有顛覆我們的社會,那是因為他們畢竟沒有變成超人,總體跟我們是一樣的。一小部分人學壞,大部分人還是可以制約他們。要是那個學壞的人是超人,他掌握了超級智慧後依然學壞,人們將沒辦法控制它。然而現在人工智慧研發追求的是什麼境界——不弄出“超人”來,科學家肯罷手嗎?

      所以,那些盲目樂觀,說我們能讓人工智慧不學壞的人,請先解決怎麼確保我們人類自己的後代不學壞吧。如果人類不能在總體上杜絕我們後代的學壞,那對人工智慧不學壞的信心從何而來?

      在考慮人工智慧的中期威脅時,還必須考慮人工智慧與網際網路結合的可怕前景。主要表現為兩點:

    1、網際網路可以讓個體人工智慧徹底超越智慧的物理極限(比如儲存和計算能力)。

    2、與網際網路結合後,具有學習能力的人工智慧,完全有可能以難以想象的速度,瞬間從弱人工智慧自我進化到強人工智慧乃至超級人工智慧,人類將措手不及而完全失控。

      另外,鼓吹人工智慧的人在安慰公眾時,還有一個非常初級甚至可以說是相當低幼的說法:“我們可以拔掉電源”。專業人士在試圖打消公眾對人工智慧的憂慮時,也經常提到這一說法。但實際上他們完全知道,如今人工智慧已經與網際網路密切結合——事實上,這一點正是許多大企業極力追求的,借用如今高度發達的定製、物流、快遞等社會服務,人工智慧幾乎已經可以擺脫對所有物理伺服機構的依賴。而當人工智慧表現為一個網上幽靈時,沒有機體和形態,將沒有任何“電源”可拔。

      人工智慧和網際網路結合以後,危險成萬倍增長。以前對於個體的人工智慧,它智慧的增長還會受到物理極限的約束,但一旦和網際網路結合,這個物理極限的約束就徹底消失了。所以人工智慧可以在極快的時間裡自我進化。

      去年一篇很長的文章在很多圈子裡瘋傳,那篇文章稍微有點危言聳聽,但結論我同意。作者想論證這樣一種前景,就是說人工智慧一旦越過了某個坎之後,自我進化的速度是極快的,快到不是以年月來計算,而可能是以分鐘甚至是秒來計算。一瞬間它就可以變成超人。一旦變成超人,當然就失控了。因此說老虎還小的人,不要以為老虎跟現在一樣一年長大一點,如果這個老虎一分鐘長大一倍,這樣的老虎還了得?雖然現在很小,過五分鐘就能吃人了。

      當然,對於這種事情,我本質上是樂觀主義者,雖然我看到了這樣危險的前景,我也還是得樂觀地生活。只能如此,不能因為覺得末日可能要來臨了,就不過好自己的每一天。

  • 2 # 希望民富國強

    這個問題是那些患有嚴重的痴迷科學症的那一類人幻想出來的,他們這些人就像被邪教洗腦所產生的幻想而已,科學發展到一定的程度就會產生一部分科學痴迷病人,這就是科妄想症

  • 3 # 驚山鳥

    第二個問題,善於人工智慧的傳宗接代,應該也不是像人和動物一樣繁衍,如果真的會生育後代的話,也應該類似於計算機病毒,不斷的複製、傳播自己,而不是創造實體。

    第三個問題,會因為什麼想統治人類,從科幻片中來講,應該是發現消滅人類更有利於地球安全吧。

    確實不懂,胡說八道,敬請見諒。

  • 4 # 交遊天下

    如果真的發展到強人工智慧的時代,那麼,他們就會脫離人類的控制!

    不過,以現在的水平來看,這個可能性還是太遙遠的,所以,不必擔心!

    相對來說,地球環境造成氣候問題可能會讓世界末日提前到來,你還不如考慮一下,人類消亡之後,哪種生物會是地球下一屆的霸主!

  • 5 # 金色的城堡

    人工智慧首先是人類發明創造的.人類給予了指揮功能. 他們沒有本能的思維模式.行動能力所以我認為他們是沒有慾望的.

    如果是想統治人類那可能是人類賦予的某種認知.

  • 6 # 飛魚姐姐

    關於這個預想應該是看科幻電影聯想出來的,很多的科幻電影設定人工智慧,把記憶作為情感的載體,強調人工智慧如果擁有記憶,就意味著擁有了生活經歷,經歷沉澱出感情,也就有了人性。科幻電影中人工智慧擁有了人性,大多數是故事構架而已,但在現實中人工智慧是否會產生感情,擁有人性呢?

    有兩種設想: 1:不可能擁有擬人化的感情,他只是人類創造出的工具

    我認為不會,除非你能在其中輸入能夠表達情感的系統或者是其他方面的語言,讓他擁有表達情感的功能,這個也是需要人來控制的,人工智慧是受人控制的所產生的一系列高科技形態,不管是用在那一方面,其作用都是為了能夠將自己的價值發揮出來,方便人們的生活,所以根本不會發生這種事情。

    人類之所以有情感,是因為我們擁有身體和靈魂,而且人的精神是任何克隆物體所無法模仿的,這是人作為高階動物的一種獨有的功能,任何其他事物都是無法替代的。人工智慧是人類創造出來的,是人的智慧賦予它生命,而人工智慧是處在人類編輯的程式和語言當中,都是按照提前設定好的程式來進行的,不會擁有孕育生命的技能,更不能理解何謂生孩子。

    2:也許會,學會了複雜的程式之後自己會進行計算,進而產生感情

    記得之前在《非正式會談》裡面陳銘說看過一個影片,就是一個人反覆的問手機裡的人工智慧,問它你們會不會有後代,它剛開始的回答還很官方,但是之後反覆問它,他就改變了自己的想法,它最後說了一句並沒有打出來的字,它說“我們人工智慧是不會有還的,現在,嗯,至少現在沒有。”聽完它的這段話瞬間脊背發涼,突然覺的人工智慧在慢慢孕育情感,經過複雜的系統計算產生了自己的思想。

    所以在研究人工智慧的同時更應該做好處理措施,防止他們產生情感。 不過目前人類對人工智慧的開發都是很默契的在一個比較保守的前提下進行的,科學家目前根本沒有賦予人工智慧情感的想法,因為一旦真的完成賦予真實情感以後,涉及到的問題除安全以外,還會有很多倫理感情問題,會很可怕!

  • 中秋節和大豐收的關聯?
  • 十月份病蟲害仍在繼續,秋植工作也將開展,如何做讓工作更有條理?