首頁>遊戲>

人工智能研究可能是一種令人羞愧的經歷——有些人甚至聲稱,在複製人類智能最基本的方面時,它仍處於相對停滯狀態。它可以糾正拼寫,進行金融投資,甚至作曲;但如果沒有明確“教導”這樣做,它就無法提醒某人他們的T恤從裡到外都穿在了外面。更重要的是,它無法辨別為什麼這可能是有用的信息。然而,一個剛開始穿衣服的五歲孩子會注意到並指出她父親脖子底部的白色標籤。

人工智能領域的大多數研究人員都清楚,在深度神經網絡的眾多進步中,人類智能與人工智能之間的差距並未顯著縮小,在複雜的現實生活環境中實現計算高效的自適應推理和決策的解決方案仍然存在難以捉摸。認知人工智能,即讓機器能夠像人類一樣理解、學習和執行智力任務的智能,仍然像以往一樣難以捉摸。在這篇博文中,我們將探討為什麼存在這個鴻溝,以及如果我們有跨越它的希望,人工智能研究必須去哪裡。

為什麼AI先生不能工作

與可以全天跟蹤我們、收拾我們閒暇時間的AI助手並肩工作該有多好?想象一下,如果算法能夠真正讓我們人類從工作日的“苦力”任務中解脫出來,這樣我們就可以專注於工作中更具戰略性和/或創造性的方面,那該多好?問題是,除了GitHub Copilot等系統的部分例外,一個虛構的“先生”。基於當前最先進技術的AI"可能會在工作日結束前收到它的粉紅單。

首先,AI先生健忘令人痛苦,尤其是在上下文記憶方面。它還嚴重缺乏關注。對某些人來說,考慮到當今非凡的大型語言模型(LLM),包括LaMDA和GPT-3,這似乎令人驚訝,在某些情況下,它們看起來很可能是有意識的。然而,即使使用最先進的最先進的深度學習模型,AI先生的工作表現也總是會達不到預期。它不能很好地適應不斷變化的環境和需求。它不能獨立地確定它提供的建議在認識論和事實上都是合理的。它甚至無法想出一個簡單的計劃!而且,無論它的社交技能多麼精心設計,它都必然會在一個具有複雜社會和道德規範的高度動態的世界中跌跌撞撞。它根本不具備在人類世界中茁壯成長所需的一切。

但那是什麼?

高級智能的四個關鍵屬性

為了賦予機器更多類似人類的智能,首先必須探索是什麼使人類智能與人工智能應用中通常使用的許多當前(大約2022年)神經網絡不同。繪製這種區別的一種方法是通過以下四個屬性:

1.世界模型

人類自然會發展出一種“世界模型”,使他們能夠設想無數的短期和長期“假設”情景,這些情景為他們的決策和行動提供信息。具有類似功能的人工智能模型可以變得更加高效,這將允許他們以資源高效的方式從頭到尾模擬潛在場景。智能機制需要對具有多個交互的個體代理的複雜環境進行建模。輸入到輸出的映射功能(例如可以通過複雜的前饋網絡實現)需要“展開”所有潛在的路徑和交互。在現實生活環境中,這種輸入到輸出展開模型的複雜性會迅速增加,尤其是在考慮跟蹤每個代理的相關歷史的任意持續時間時。相比之下,可以在模擬環境中獨立地對每個因素和代理進行建模的智能機制,可以評估許多假設未來場景並通過複製參與者的副本來擴展模型,

獲得具有這種模擬能力的世界模型的關鍵是世界模型的構建塊(認知推理過程)的構建與其隨後用於模擬可能結果之間的脫鉤。即使模擬方法隨時間發生變化,也可以以保持一致的方式比較由此產生的“假設”場景。這種方法的一個特例可以在DigitalTwins中找到,其中機器配備(通過自學習或顯式設計)其環境模型,並且可以模擬各種交互的潛在未來。

智能生物和機器使用世界模型(“世界觀”)來理解觀察並評估潛在的未來以選擇最佳行動方案。在從“通用”大規模設置(如回覆Web查詢)過渡到包含多個參與者的特定設置中的直接交互時,世界模型必須有效地縮放和定製。與試圖在單個“輸入-輸出功能”步驟中模擬和推理所有內容的架構相比,解耦、模塊化、可定製的方法在邏輯上是一種不同的架構,並且遠沒有那麼複雜。

2.心智理論

“心智理論”是指一種複雜的心理技能,認知科學將其定義為通過跟蹤他人的注意力並將精神狀態歸因於他人來理解和預測他人行為和信念的能力。

用最簡單的術語來說,這就是我們試圖讀懂另一個人的想法時所做的事情。我們在一生中發展和使用這種技能來幫助我們駕馭社交互動。這就是為什麼我們不提醒我們正在節食的同事在休息室裡放著一大盤新鮮巧克力曲奇的原因。

我們看到了在人工智能應用程序中使用心智理論的痕跡,例如聊天機器人,這些應用程序可以根據他們打開聊天的原因、他們使用的語言等獨特地適應他們所服務的客戶的情緒。但是,性能用於訓練此類社交聊天機器人的指標(通常定義為每次會話的對話次數或CPS)僅訓練模型以最大限度地吸引人類的注意力,而不是強制系統開發出人類思維的明確模型,如通過推理和計劃任務。

在需要與一組特定個體交互的系統中,心智理論需要更結構化的表示,該表示適合邏輯推理操作,例如演繹和歸納推理、計劃、意圖推理等中使用的邏輯推理操作。此外,這樣的模型必須跟蹤不同的行為特徵,隨著新信息的湧入可預測地更新,並避免重新回到以前的模型狀態。

3.持續學習

除了一些例外,當今的標準機器學習範式是批量離線學習,然後可能會針對特定任務進行微調。因此,生成的模型無法從部署時暴露的信息中提取有用的長期更新。人類沒有這樣的限制。他們不斷學習並使用這些信息來建立認知模型,如世界觀和心智理論。事實上,持續學習使人類能夠維持和更新他們的心理模型。

持續學習(也被稱為終身和持續學習)的問題現在在人工智能研究界引起了更強烈的興趣,部分原因是聯合學習等技術和醫療數據處理等工作流程的出現帶來了實際需求。一個人工智能系統採用其運行環境的世界模型,以及與該環境中的各種代理相關的心理理論,持續學習能力對於維護和更新每個對象和代理的歷史和當前狀態描述符至關重要。

儘管該行業的需求非常明確,但仍有許多工作要做。具體來說,能夠持續學習信息以用於推理或規劃的解決方案仍處於起步階段——並且需要此類解決方案來啟用上述模型構建功能。

4.後期綁定上下文

後期綁定上下文是指上下文特定(而不是通用)響應的組合,並利用查詢或決策時可用的最新相關信息。情境意識體現了人類學習的所有細微差別——正是“誰”、“為什麼”、“何時”和“什麼”為人類的決策和行為提供了信息。它可以防止人類訴諸推理捷徑和跳到不精確、籠統的結論。相反,情境意識使我們能夠建立一組適應需要解決的特定環境狀態的行為。如果沒有這種能力,我們的決策就會受到很大影響。後期綁定上下文也與持續學習密切相關。有關後期綁定上下文的更多信息,請參閱之前的博客,推進機器智能:為什麼上下文就是一切。

人類認知作為人工智能未來的路線圖

如果沒有上面列出的關鍵認知能力,人類工業和社會的許多關鍵需求將無法得到滿足。因此,迫切需要將更多的研究分配給將人類認知能力轉化為人工智能功能——特別是那些使其與當前人工智能模型不同的特性。上面列出的四個屬性是一個起點。它們位於人類認知功能的複雜網絡的中心,並提供了一條通往計算效率高的自適應模型的途徑,該模型可以部署在現實生活中的多角色環境中。隨著人工智能從集中的、同質化的大型模型擴散到集成在社會複雜環境中的多種用途,下一組屬性將需要出現。

9
最新評論
  • 年營收30億,智明星通投資的這家SLG廠商贏麻了
  • 五菱星辰混動版將於8月25日上市,搭載2.0L混動系統,續航1000KM