回覆列表
  • 1 # 勇敢的內芯

    人工智慧機器人三大定律:第一法則,機器人不得傷害人類(主人)或袖手旁觀坐視人類受到傷害;第二法則,除非違背第一法則,機器人必須服從人類的命令;第三法則,在不違背第一及第二法則的條件下,機器人必須保護自己———科幻小說家艾薩克.阿西莫夫。

    2016年3月9日-15日,Google Deepmind公司的團隊研發的人工智慧圍棋機器人AlphaGo與南韓圍棋世界冠軍李世石展開了5場激烈的激烈的戰鬥,最終AlphaGo以4:1的懸殊比分輕鬆取勝。隨後在一系列與世界圍棋頂尖高手的對決中AlphaGo披荊斬棘所向披靡,再也沒有輸掉過任何任何對決。2017年10月18日AlphaGo的升級版AlphaGo Zero橫空出世並且以100:0的比分擊敗了上代版本AlphaGo。

    “AI完勝”無疑讓第三次人工智慧浪潮達到了一個高峰,但隨即也引起了部分人們對人工智慧的恐慌,AlphaGo已經證明了人類已經真的可以創造出如此聰明的人工智慧,其一旦不受人類控制和約束,那些科幻電影的情節會不會成真,最終導致嚴重的後果呢?

    近年來人工智慧技術飛速發展,關於人工智慧機器人最終不受人類控制並且最終統治甚至毀滅人類的科Phantom視作品出不窮,熱播美劇《西部世界》中的失控的AI機器人在人類世界裡大肆殺戮,嚴重的破壞了原來穩定的秩序。電影《升級》裡面的人工智慧晶片“智腦“被植入人體後透過其高超的運算能力一步一步的破壞了原本給它設定的規則程式,與人腦融為一體最終掌控人的肉體,最終讓人成為他的傀儡。

    針對這種擔憂,麻省理工學院媒體實驗室的研究人員表示,社會需要用一種類似於行為學的多學科方法來研究演算法,而不是簡單的恐懼人工智慧或呼籲對人工智慧的監管。

    AI技術的核心是演算法,演算法本身並不帶有善意與惡意,但人類的善意和惡意都能被演算法放大。因此,對人工智慧倫理的研究,不能侷限於人工智慧本身,而必須將人工智慧放置於其即將被投入的社會視角進行研究。

    於是他們提出了一個新的跨學科研究領域,來研究人工智慧是如何進化的,以及它對人類意味著什麼——機器行為學。

    評論人士和學者正在對人工智慧機器人帶來的廣泛的、意想不到的後果發出警告,這些機器人內建的演算法能夠透過機器展示自己的行為,併產生始料未及的影響(包括正面和負面影響)。人們擔心人類可能失去對智慧機器的控制,“自主武器”的發展意味著機器可以決定誰在武裝衝突中生存,誰在衝突中死亡。

    本月發表在《自然》(Nature)雜誌上的論文《機器行為》(Machine behavior)呼籲“在設計和設計人工智慧系統的領域,以及傳統上使用科學方法研究生物學的行為的領域”共同努力。具體地說,作者建議不僅研究機器學習演算法如何工作,而且還研究它們如何受其工作環境的影響。

    用更簡單的話來說,就是不止考慮人工智慧在“實驗室”裡怎樣工作,還要看它在實際中會怎樣工作,產生什麼影響。

    這“類似於動物行為學和行為生態學透過將生理學和生物化學(內在特性)與生態學和進化論(由環境塑造的特性)結合起來研究動物行為。”

    所以機器人行為學是一個跨學科的,複雜的研究方向需要更多的跨學科專家加入研究。

    目前,最常見的研究機器行為科學家是計算機科學家、機器人專家和工程師,因為是他們首先創造了機器。他們會基於原發者的視角思考機器人的行為。這就好像是一個創造生命的“上帝”,他們為創造出的生命設計了各類機制與本能。

    然而,這些“生物”一旦“離手”最初設計的機制與外在環境互動的過程中並不一定總是與最初的設想一致。

    這就好比每個身心健康的人類總是有大致相似的生理需求與心理動機,但在與現實世界的互動中每個人都成長為完全不同的個體,一些人成為了至善之人而另一些人成為了邪惡的罪犯。

    計算機科學家和工程師通常都不是訓練有素的行為學家,他們可能對自己創造的AI有足夠的掌握,但卻並不一定能夠對這些AI即將獨自探索的社會現實有充足的理解。

    他們很少接受實驗方法論、基於人口的統計和抽樣範式或觀察性因果推理方面的正式指導,更不用說神經科學、集體行為或社會理論了。相反,雖然行為學家更有可能擁有在這些方面的科學方法,但他們不太可能精通人工智慧方面的相關知識。

    為此,人工智慧行為學期望透過一種全新的方式來解決目前對人工智慧的理解。

    目前,社會上各種演算法的流行是前所未有的,推薦演算法和社交媒體公司的人工智慧會影響著我們看到什麼樣的資訊。各大金融軟體裡的信用評級(評分)演算法決定了放貸策略。打車軟體中的演算法改變了人們的出行方式和城市交通。

    這些人工智慧給人們生活帶來便利的同時,也帶來了系統的複雜性和不透明性,比如甚至連金融公司自己都不再能清楚的解釋為什麼可以給一個人貸款10萬而另一個只有1000。

    人工智慧系統的多樣性以及普遍性會對研究這些系統(如金融系統或交通系統)的行為造成巨大挑戰。

    人工智慧系統的複雜性很高,雖然用於指定模型的體系結構和訓練它的程式碼可能會很簡單,但輸出的結果往往十分複雜。它們被給予輸入,但產生這些輸出的確切的函式過程即使對那些自己生成演算法的科學家也很難解釋。

    此外,資料的維度和大小為理解機器行為增加了另一層複雜性。使這一研究更加複雜的是,社會上使用最頻繁的演算法的大部分原始碼和模型結構都是專有的,這些系統所訓練的資料也是專有的。

    在許多情況下,商業中的人工智慧系統公開可見的唯一因素是它們的輸入和輸出。即使在可用的情況下,人工智慧系統的原始碼或模型結構也不能對其輸出提供足夠的預測能力。人工智慧系統還可以透過與世界和其他無法精確預測的系統的互動來展示新的行為。即使解析在數學上是可描述的,它們也可能是冗長而複雜的,以至無法解釋。而且,當環境發生變化時(可能是演算法本身的結果),預測和分析行為就變得困難得多。

    對此,引入對此,引入AI與外部環境互動的視角能更好的幫助研究者理解人工智慧本身。

    機器行為位於設計和設計人工智慧系統的領域與傳統上使用科學方法研究生物行為領域的交叉點。對行為的科學研究有助於人工智慧學者對人工智慧系統能做什麼和不能做什麼做出更精確的表述。

    到目前為止,那些建立人工智慧系統的人的主要關注點一直是構建、實現和最佳化智慧系統,以執行特定的任務。他們的目標一直是最大化演算法的效能。一旦目標任務“多快好省”的實現,人工智慧便“宣告成功”。然而在這一目標被實現後的社會影響,目標實現路徑種可能存在的其他影響則往往並不在人工智慧科學家的考慮範圍之內。

    機器行為的學者們對於更廣泛的指標集感興趣,而不是使用指標來對基準進行最佳化,就像社會科學家在社會、政治或經濟互動領域探索人類的廣泛行為一樣。因此,研究機器行為的學者花了大量的精力來定義微觀和宏觀結果的度量,以解答一些廣泛的問題,比如這些演算法在不同環境中的行為,以及人類與演算法的互動是否會改變社會結果。

    隨機實驗、觀察推斷和基於群體的描述性統計——這些方法經常用於定量行為科學,這必須是機器行為研究的核心。所以將傳統上生產智慧機器的學科之外的學者納入其中,可以提供關於重要方法論工具、科學方法、替代概念框架以及機器將日益產生影響的經濟、社會和政治現象的觀點的知識。

    透過觀察某一事物與周邊環境互動的“行為”來對事物的內在進行研究並不是一個新方法。AI所面臨的“演算法黑箱”也不是新問題,某種程度上,動物和人都是一種“黑箱”。

    1973年,尼古拉·丁伯根(Nikolaas Tinbergen)與卡爾·馮·弗裡施(Karl von Frisch)和康拉德·洛倫茨(Konrad Lorenz)共同創立動物行為學領域。這個學科有很多維度,這些維度涉及動物行為的功能、機制、發展和進化歷史等問題,為研究動物和人類行為提供了一個組織框架。

    儘管機器和動物之間存在根本差異,但對機器行為的研究可以從類似的分類中獲益。機器人同樣擁有產生行為的機制,經歷將環境資訊整合到行為中的發展,產生功能化的結果,導致特定機器人在特定環境中或多或少變得常見,並體現出了進化歷史,透過進化歷史,過去的環境和人類決策繼續影響機器行為。

    儘管仍然存在許多問題,但計算機科學的學者們在理解人工智慧系統的機制和發展方面已經取得了實質性的進展。這在此前受到的重視相對較少。

    發展人工智慧的初衷就在於讓人類生活更加便捷更加美好,而進一步理解機器人行為對於我們能夠有效地控制它們的行為,以及我們最大化人工智慧對社會的潛在好處,消除可能帶來的潛在危害至關重要。

  • 2 # 冬夜星耀

    機器沒有人性,倫理道德機器是不能理解的,AI對一切事物理解邏輯的出發點都是人類給與的,所以不具備情感經歷的AI未來如何發展我們無法預測。可能開啟的是一個潘多拉魔盒,也可能是撿到的一個阿拉丁神燈。

  • 中秋節和大豐收的關聯?
  • 安陵容宮鬥失敗的根本原因是什麼?