回覆列表
  • 1 # 機器之心Pro

    為什麼只有人工智慧從業者才能研究 AI 的行為?

    如果只有生理學家從各個方面研究人類的行為會怎樣呢:從人類身體的運作到社會規範的形成,從股票市場的運轉,到文化的創造、分享和消費。如果神經科學家是唯一負責研究犯罪行為、設計教育課程,並且制定打擊逃稅政策的人會怎樣呢?

    儘管人工智慧的影響越來越大,我們對於 AI 智慧體的研究是由一群非常特殊的人進行的。這些創造 AI 智慧體的科學家,即計算機和機器人專家,幾乎同時也是專門研究智慧體行為的科學家。

    我們不能透過檢視一個人工智慧智慧體的原始碼證明它是符合道德倫理的,這比我們透過掃描人的大腦從而證明他們是善良的更困難。

    當這些計算機科學家和機器人專家建立智慧體去完成特定的困難任務時,他們通常最關注確保智慧體可以實現預期的功能。為此,他們透過大量的基準資料集和任務,客觀一致地對比不同的演算法。例如,程式在分類垃圾電子郵件任務中,藉助人類標記的真實資料作為參照,達到基準模型所具有的準確率。計算機視覺演算法必須正確地檢測出像 ImageNet 這樣的影象資料集中的目標物件。自動駕駛器汽車必須在各種天氣條件下,成功地從 A 地駛向 B 地。遊戲智慧體必須打敗目前最先進的演算法,或者那些贏得了特定榮譽的人,例如:國際象棋、圍棋、撲克牌的世界冠軍。

    這種對人工智慧智慧體行為的研究,儘管狹隘,卻非常有利於人工智慧和機器人領域的進步,使得我們能快速對比基於廣泛接受的客觀標準的演算法。但這對社會來說就夠了嗎?

    答案是否定的!為了正確診斷問題並設計解決方案,對於智慧體(人或機器)行為的研究必須在不同的抽象層次上展開。這就是為什麼我們有從各個方面與人類行為相關的不同學科。從生理學到社會學,從心理學到政治學,從博弈論到宏觀經濟學,我們由此獲得了關於「人類如何運作」這一問題的從個體到群體的互補的視角。

    在他 1969 年出版的具有里程碑意義的著作「Science of the Artificial」中,諾貝爾獎獲得者 Herbert Simon 寫道:「自然科學是關於自然物件和現象的知識。我們不禁想問,是否存在『 人造 』的科學,即關於人工的物體和現象的知識。」與 Simon 的願景相同,我們主張需要一種全新的、特定的關於機器行為的學科:研究智慧機器所展示出來的行為的科學研究。

    這種新學科與「機器」的科學研究有關。我們這裡所說的「機器」並不是指工程產品,而是一類全新的具有獨特的行為模式和生態的行動智慧體。至關重要的是,這個研究領域與計算機科學和機器人科學存在交叉,但是又有所區別——它對「機器」的行為進行了觀察和實驗,但是並不一定要求瞭解「機器」的內部機制。研究機器行為與動物行為的領域(也被稱為動物行為學和行為生態學)相類似——研究動物的行為,不必關注生理或者生化原理。

    人工智慧知識鴻溝:假定的人工智慧系統的數量和對其行為的研究的數量之間的差距

    我們將通過幾點需要注意的地方開始定義新的研究機器行為的領域。研究機器行為並不意味著人工智慧演算法具有實體性——意味著他們對自己的行動有社會責任。如果某人的狗咬了一個路人,狗的主人需要為此負責。儘管如此,這個研究仍然很有用,它能夠有效預測狗的行為。同樣的,機器連同他們的利益相關方會被嵌入到整個大的社會、技術結構中去,他們可能會對他人造成的傷害也存在於這些結構中。

    複雜的人工智慧實體常常表現出固有的不可預測性:他們會做出一些意料之外的、不可預測的行為,即使是他們自己的程式也無法預測。

    第二個需要注意的是,機器展現出的行為與動物和人類有著本質上的不同,因此我們必須避免過度人格化或者動物化機器行為的傾向。即使從對人類和動物的行為的研究中可以借用很多的科學研究方法,用以提升對機器的研究,機器也可能表現出本質上不同的智慧和行為模式——甚至就像外星人!

    拋開這些值得警覺的地方,我們認為一門獨特的研究機器行為的新學科將會既新奇又實用。有很多我們不能僅僅從檢視機器的原始碼和他們的內部結構來研究機器的原因。首先是由其複雜性造成的不透明性:許多新的人工智慧架構,比如深度神經網路,能展現出不宜解釋的內部狀態。我們通常不能透過檢視原始碼證明人工智慧實體是最優的或符合倫理道德的,這比我們透過掃描人的大腦證明他們是善良的更難。此外,隨著時間的推移,我們對當今的社會中被認為是好的、符合道德倫理的行為的認識可能逐漸發生改變。社會學家可以跟進這種改變,但是人工智慧社群可能無法跟進,因為這不是評價智慧體成就的方式。

    「常規機器的不透明性是個老生常談的問題」

    另一個拋開內部結構研究機器行為的動機是由於智慧財產權保護造成的的不透明性。許多常用的演算法(例如:新聞過濾和產品推薦演算法),僅僅由於工業機密,都是黑盒。這意味著,驅動這些演算法的內部機制對於擁有並且操作他們的公司以外的任何人都是不透明的。

    第三,複雜的人工智慧體常常表現出固有的不可預測性:它們會做出一些意料之外的、不可預測的行為,即使是他們自己的程式也無法預測。這些行為只通過與世界和環境中的其他實體的互動得以體現。這裡我們當然要提到演算法交易程式的例子,它可以透過複雜的市場動態展現之前看不出來的行為機制。事實上,Alan Turing 和 Alonzo Church 在沒有實際執行所謂的演算法的情況下,證明了確保演算法實現某些特定的效能是根本不可能的。我們驗證某一段程式碼是否總是能滿足理想屬性的能力是從根本上的理論限制,除非我們執行程式碼並觀察其行為。但是,最重要的是,計算機科學和機器人技術之外的機器行為的科學研究,為機器所影響的重要的經濟、社會、政治現象提供了新的視角。計算機科學家和機器人科學家是世界上最優才華的人之一。但是,他們只是沒有接受對諸如種族歧視、道德困境、股票市場穩定或者謠言在社交網路中傳播等現象的正規訓練。儘管計算機科學家已經研究過這種現象,其他學科的有能力的科學家也加入到了這個行列中來,他們有著重要的技能、方法和觀點。在我們自己的工作中,作為計算機科學家,我們常常被和我們合作的社會和行為科學家所打擊。他們經常強調我們最初的研究問題是如何的不規範,或者我們對特定的社會科學方法的使用是不恰當的。例如,漏掉重要的具有警示意義的結論,或者得出過於強的結論。我們從中學到:減緩我們直接地使用大資料進或者建立機器學習模型的衝動!儘管這是很困難的。

    實際上,來自計算機科學和機器人學之外的評論家和學者的貢獻往往是有限的。這些學者中的許多人一直在「拉響警報」。他們關心的是人工智慧體的普遍的、意想不到的後果,這些人工智慧實體可以行動、適應,並且表現出違背其創造者最初的意圖的意料之外的行為,這是根本無法預料的。

    由於缺乏可預測性,人們擔心會失去對智慧機器的監管。一些案例記錄了許多看似無害的演算法會對個人或者社會造成傷害。另一些人則擔心人工智慧系統是一個黑盒子,這些系統的決策的基本原理對於那些受影響的人來說是不透明的,這使得這些人質疑人工智慧系統的決定的能力受到了限制。

    人工智慧機器越來越多地參與到調節社會、經濟、政治互動的過程中來。這只是冰山一角!

    儘管這些重要的聲音在教育公眾關於人工智慧系統潛在的負面影響的方面已經取得了長足進步,但這些意見仍然是站在局外人的觀點得出的,並且往往會在人工智慧社群內產生強烈的反對聲音。此外,現如今的許多討論都是依賴於專家收集的奇聞軼事式的證據,而且僅限於個案。我們仍缺乏一個統一的、可擴充套件的、科學的方法去研究人工智慧體的行為,這種方法也能夠使得社會科學家和計算機科學家無縫合作。正如 Cathy O』Neil 在《紐約時報》上所寫:「根本沒有哪個學術領域能夠認真負起責任並且理解、批判科技所扮演的角色。特別是對於那些在我們的生活中負責做出如此多的決定的演算法。」考慮到新的人工智慧演算法不斷湧現的速度,這個被部署的演算法的數量和我們對其理解的程度之間的鴻溝只會越來越深。

    最後,我們可以預見,透過研究機器的行為可以產生大量的經濟價值。例如,如果我們可以證明某個給定的演算法滿足特定的道德、文化或者是經濟行為標準,就可以將其推廣。由此,消費者和負責人的公司可能會開始需要這種認證。這類似於消費者開始要求生產他們所消費的商品和提供他們所享用的服務的供應鏈需要滿足特定的道德和環境標準。機器行為科學可以為人工智慧體的客觀認證奠定基礎。

    人工智慧機器越來越多的參與到調節我們社會、經濟、政治互動的過程中來:信用評分演算法決定誰能獲得貸款;演算法交易程式在股票市場上買賣金融資產;演算法最佳化助力本地警務排程;用於實現判決演算法的程式現在影響著誰能夠獲得假釋;自動駕駛汽車在我們的城市環境中駕駛著重達多噸的「金屬箱子」;機器人佈置我們的房屋並且對其進行常規的清潔;演算法影響著網上約會及配對;不久之後,精準的自動武器可能決定在武裝衝突中的存留!而這都只是即將到來的時代的冰山一角。在不久的將來,人工智慧驅動的軟硬體智慧體會滲透到社會的方方面面。

    無論它們是否具有人格化的特徵,這些機器都是一類新的智慧體,有人甚至說它們是棲息於這個世界上的新「物種」。我們必須運用我們所掌握的一切工具去理解、規範它們對人類所產生的影響。如果我們能很好地做到這一點,人類和機器也許就能在一種健康的、互利互惠的關係中繁榮發展。為了使這種可能性成為現實,我們需要積極地透過一門新學科來處理機器的行為

  • 中秋節和大豐收的關聯?
  • 《紅樓夢》中黛玉的紗窗舊了,賈母為何提醒王夫人更換而不是鳳姐?