回覆列表
  • 1 # 方廣科通

    人工智慧與人工智障之間差什麼?

    是人類的思維。

    但人類的思維並不是有海量的知識儲備就能自動生成的。

    就像我們說的書呆子,徒有滿腹經綸,但就是不能靈活運用。

    可目前,我們還在對人工智慧做這樣的事,填鴨式地教它怎麼做,怎麼說。

    可它總會遇到更復雜的問題。

    那我們恐怕下輩子都看不到像鋼鐵俠的賈維斯那樣強大的A了。

    所以,讓AI變得更好並不在於他懂不懂美食,而是先讓他了解為什麼要吃飯。

    最近出自《 Science》的一篇論文就提出了一個概念,認為人類的意識模式分三級,而目前的人工智慧充其量只掌握了一級。

    “計算機之父”艾倫圖靈曾經夢到過機器人與世界頂尖棋類高手對弈的場景,那時候聽來搞笑,但是今天的阿法狗卻被大肆吹噓。

    然而,阿法狗雖然非常厲害,但是它卻不知道自己也許人們覺得阿法狗不需要知道自己很厲害,它只是個A而已,但是如果要成就更棒的A,那麼阿法狗就必須像人一樣,意識到自己實力超群。

    換言之,它要像人那樣思考。

    該論文針對這一點,詳細提出了人類的三種意識模式,可以供A參考學習。

    第一層-C0級:無意識的意識

    這一意識水平涉及到人類大腦中的無意識工作,比如說面部和語言識別。

    研究人員稱,人類大腦進行的大多數運算都發生在這一階段。換句話說,人類不會意識到這些運算的發生。

    論文還舉例說,當你早高峰開車上班,到單位時你也許會突然問自己,“誒,我是怎麼來的呢,怎麼一點印象都沒有?”,這段早高峰的駕駛經歷其實就是論文稱,儘管人工智慧技術在不斷地進步,但機器仍然主要處於這種意識水平上。比如說,被稱為“卷積神經網路”的A系統就是在執行人類C級意識的運算,例如面部識別等功能。

    第二層-C1級:深思熟慮後的決定

    論文接著介紹到,C1級意識也就是深度思考能力,它可以臨時支配思維幫助我們做出更多的行為,而這種意識則是人類和動物所獨有的。

    還是那個例子,一天過後,你開車下班,路上你突然發現油箱警示燈亮了起來,此時你的大腦飛速運轉著,離這兒最近的加油站在哪兒?距離多遠?從哪條路走比較近

    在人類和其它靈長類動物中,大腦的前額皮質層作為資訊處理的中央,進行著C1級意識的許多運算透過分析大腦這一部分的神經迴路,科學家們能夠探索大腦處理資訊的原則並有望將其透過編碼輸入第三層-C2級:元意識

    最後一個級別是C2級,涉及到元認知,或者說監測自我思想和運算的能力,換句話說就是具備自我意識的能力。

    依然是那個例子,你透過C0意識駕駛著車輛,C1意識則帶你前往最近的加油站,C2級意識則站在高處注視這一切,把握著行為的大方向。

    C2級意識能夠讓你主觀感覺正確還是錯誤,這就能幫助人們意識到錯誤並且改正。

    它還可以幫助人們瞭解他們知道什麼或者不知道什麼,引發人的好奇心,這種機制會驅使人探索知之甚少或者一無所知的事物。對於A來說,這一點彌足珍貴

    論文合著者,加利福尼亞大學神經系統科學家Hak wan Lau認為,這三種意識模式構成了人類基本的行為,而人類意識或許來自於一組特定的運算。

  • 2 # 解說小高

    近兩年人工智慧被人們詬病最多的地方是:人工智慧體現不出智慧。

    另一方面,新聞裡經常傳出自動駕駛又發生事故,家裡的智慧傢俱表現地像個智障一樣,資訊平臺總是傻傻地推同樣型別的新聞等,這些現象都讓我們疑惑,人工智慧到底智慧在哪裡?

    回答這個問題之前,我們有必要搞清楚,強人工智慧和弱人工智慧的區別。

    但很快就有人發現:在這種方式下實現的人工智慧並非真正的智慧,只是對人類智慧的模擬。美國哲學家John Searle提出了一個思維實驗:中文房間(Chinese Room Argument),它是這樣的:

    想象一位只會英語的人身處一個房間之中,這間房間除了門上有一個小視窗以外,全部都是封閉的。他隨身帶著一本寫有中文翻譯程式的書。房間裡還有足夠的稿紙和鉛筆。

    寫著中文的紙片透過小視窗被送入房間中。房間中的人可以使用他的書來翻譯這些文字並用中文回覆。雖然他完全不會中文,Searle認為透過這個過程,房間裡的人可以讓任何房間外的人以為他會說流利的中文。

    值得注意的是,這本書僅僅是語法的對應,並不涉及到任何語義的說明。房間中的人,只需要按照對應的回答,拼湊出相應的中文字元遞出去即可。在這個過程中,他並不理解問題和他所寫的答案是什麼意思。

    Searle認為,人工智慧就是這樣工作的。他認為計算機根本無法真正理解接收到的資訊,但它們可以執行一個程式,處理資訊,然後給出一個智慧的印象。

    例如影象識別技術,它的工作原理就是將顏色變成數字編碼,再從這些數字編碼中找到特徵,查詢字典,找到對應的解釋然後顯示出來。實際上計算機壓根不知道自己識別的到底是飛機還是兔子,只是字典告訴它這個特徵很大機率對應的是“飛機”這個單詞。

    絕大部分演算法在本質上都是在玩機率的遊戲,不同的方式只是在模型訓練時需要的資訊不同,以及計算出來對應“飛機”的判定方式不同。

    當前所有被廣泛應用的知名模型都是透過矩陣運算訓練資料來獲得某種機率分佈。複雜模型的機率分佈通常是高維的,這裡又會引申出各種數學方法,但本質的思想依舊是想透過機率分佈來描述訓練資料的特徵。有了這些,對於同類的資料,就可以使用相同的機率分佈去描述,從而實現所謂的“識別”或“預測”。

    實際上並非模型真的像人類一樣理解了什麼是“飛機”,只是透過這種方式,模型能夠大機率把長得像飛機的圖片識別出來。

    後來業界也普遍認識到這一點。因此把人工智慧這個概念又劃分為強人工智慧與弱人工智慧。

    強人工智慧流派仍然追求讓計算機擁有人類的心智與意識,具有自主選擇行為。就像西部世界中從固化程式逐漸演化出自我意識的梅芙一樣。但是強人工智慧的研究難度較大,市面上還沒有成熟的應用。

    而弱人工智慧更像是一個解決特定問題的工具。這類問題的特點是可以透過統計,歸納出經驗並形成解決方案,而這種解決問題的實現方法被稱為“機器學習”。

    機器學習最基本的做法,是使用演算法解析資料、從中學習資料的規律,然後對真實世界中的事件做出決策。與傳統的程式設計方式不同,機器學習是用大量的資料進行訓練,透過各種演算法從資料中學習“如何完成任務”。

    例如量化交易、人臉識別和AlphaGo都是擅長於單個方面的機器學習模型。在訓練模型時,我們只教會AlphaGo下圍棋的技巧,所以它只能會下圍棋。如果你把一道數學題丟給AlphaGo,顯然它是無從下手的。

    所有的機器學習模型都只能完成特定的任務,很多時候我們透過組合的方式滿足更多的場景。例如智慧音箱本質上是一個語音識別的模型結合NLP(自然語言處理)模型,它並非真的能聽懂我們說的話代表什麼含義,僅僅是能夠把接收到的資訊轉化為模型的輸入,在字典中找到對應的輸出而已。

    從機器學習的特點可以看出來,如果想透過統計歸納經驗,資料的數量與質量是決定性條件。沒有資料,就沒有人工智慧。

    也就是說在你沒有作出同類別行為,或者是與你行為相近的人群較少時,人工智慧是沒有辦法作出判斷的,這也是人工智慧變成人工智障的重要原因。當行為增加,資料慢慢變多,資料質量逐漸上升時,你會發現預測越來越準確,人工智慧透過大資料也能做到真正的“想你所想”。

  • 3 # 小兔呦吼

    人工智慧現在跟熱門,但你看到過亞馬遜智慧音箱勸主人自殺的影片了麼?

    人工智慧,是基於人創造出來的智慧。如果人創造出來的這個東西不好用,可以說是人工智障,如果創造出來的東西過於好用甚至有自己的思維,可以反向作用於人類,比如攻擊人類等,那是真的“人工智障”了。

  • 4 # 紀老修

    我非常喜歡你的問題,能提這樣的問題,不是一般般人

    你知道掃地機器人嘛?這個產品就是界於智慧與智障之間

    這個機器人有一大愛號,就是掃著掃著,它就去日鞋子,掃帚之類的硬物,一日,就是日一天,日了一日又一日,哈哈哈;

    你看到了,那叫一個氣啊,明明買回來的是一臺智慧機器人,結果表現就像個智障

  • 5 # 方廣科通

    人工智慧與人工智障之間差什麼?

    是人類的思維。

    但人類的思維並不是有海量的知識儲備就能自動生成的。

    就像我們說的書呆子,徒有滿腹經綸,但就是不能靈活運用。

    可目前,我們還在對人工智慧做這樣的事,填鴨式地教它怎麼做,怎麼說。

    可它總會遇到更復雜的問題。

    那我們恐怕下輩子都看不到像鋼鐵俠的賈維斯那樣強大的A了。

    所以,讓AI變得更好並不在於他懂不懂美食,而是先讓他了解為什麼要吃飯。

    最近出自《 Science》的一篇論文就提出了一個概念,認為人類的意識模式分三級,而目前的人工智慧充其量只掌握了一級。

    “計算機之父”艾倫圖靈曾經夢到過機器人與世界頂尖棋類高手對弈的場景,那時候聽來搞笑,但是今天的阿法狗卻被大肆吹噓。

    然而,阿法狗雖然非常厲害,但是它卻不知道自己也許人們覺得阿法狗不需要知道自己很厲害,它只是個A而已,但是如果要成就更棒的A,那麼阿法狗就必須像人一樣,意識到自己實力超群。

    換言之,它要像人那樣思考。

    該論文針對這一點,詳細提出了人類的三種意識模式,可以供A參考學習。

    第一層-C0級:無意識的意識

    這一意識水平涉及到人類大腦中的無意識工作,比如說面部和語言識別。

    研究人員稱,人類大腦進行的大多數運算都發生在這一階段。換句話說,人類不會意識到這些運算的發生。

    論文還舉例說,當你早高峰開車上班,到單位時你也許會突然問自己,“誒,我是怎麼來的呢,怎麼一點印象都沒有?”,這段早高峰的駕駛經歷其實就是論文稱,儘管人工智慧技術在不斷地進步,但機器仍然主要處於這種意識水平上。比如說,被稱為“卷積神經網路”的A系統就是在執行人類C級意識的運算,例如面部識別等功能。

    第二層-C1級:深思熟慮後的決定

    論文接著介紹到,C1級意識也就是深度思考能力,它可以臨時支配思維幫助我們做出更多的行為,而這種意識則是人類和動物所獨有的。

    還是那個例子,一天過後,你開車下班,路上你突然發現油箱警示燈亮了起來,此時你的大腦飛速運轉著,離這兒最近的加油站在哪兒?距離多遠?從哪條路走比較近

    在人類和其它靈長類動物中,大腦的前額皮質層作為資訊處理的中央,進行著C1級意識的許多運算透過分析大腦這一部分的神經迴路,科學家們能夠探索大腦處理資訊的原則並有望將其透過編碼輸入第三層-C2級:元意識

    最後一個級別是C2級,涉及到元認知,或者說監測自我思想和運算的能力,換句話說就是具備自我意識的能力。

    依然是那個例子,你透過C0意識駕駛著車輛,C1意識則帶你前往最近的加油站,C2級意識則站在高處注視這一切,把握著行為的大方向。

    C2級意識能夠讓你主觀感覺正確還是錯誤,這就能幫助人們意識到錯誤並且改正。

    它還可以幫助人們瞭解他們知道什麼或者不知道什麼,引發人的好奇心,這種機制會驅使人探索知之甚少或者一無所知的事物。對於A來說,這一點彌足珍貴

    論文合著者,加利福尼亞大學神經系統科學家Hak wan Lau認為,這三種意識模式構成了人類基本的行為,而人類意識或許來自於一組特定的運算。

  • 6 # 解說小高

    近兩年人工智慧被人們詬病最多的地方是:人工智慧體現不出智慧。

    另一方面,新聞裡經常傳出自動駕駛又發生事故,家裡的智慧傢俱表現地像個智障一樣,資訊平臺總是傻傻地推同樣型別的新聞等,這些現象都讓我們疑惑,人工智慧到底智慧在哪裡?

    回答這個問題之前,我們有必要搞清楚,強人工智慧和弱人工智慧的區別。

    但很快就有人發現:在這種方式下實現的人工智慧並非真正的智慧,只是對人類智慧的模擬。美國哲學家John Searle提出了一個思維實驗:中文房間(Chinese Room Argument),它是這樣的:

    想象一位只會英語的人身處一個房間之中,這間房間除了門上有一個小視窗以外,全部都是封閉的。他隨身帶著一本寫有中文翻譯程式的書。房間裡還有足夠的稿紙和鉛筆。

    寫著中文的紙片透過小視窗被送入房間中。房間中的人可以使用他的書來翻譯這些文字並用中文回覆。雖然他完全不會中文,Searle認為透過這個過程,房間裡的人可以讓任何房間外的人以為他會說流利的中文。

    值得注意的是,這本書僅僅是語法的對應,並不涉及到任何語義的說明。房間中的人,只需要按照對應的回答,拼湊出相應的中文字元遞出去即可。在這個過程中,他並不理解問題和他所寫的答案是什麼意思。

    Searle認為,人工智慧就是這樣工作的。他認為計算機根本無法真正理解接收到的資訊,但它們可以執行一個程式,處理資訊,然後給出一個智慧的印象。

    例如影象識別技術,它的工作原理就是將顏色變成數字編碼,再從這些數字編碼中找到特徵,查詢字典,找到對應的解釋然後顯示出來。實際上計算機壓根不知道自己識別的到底是飛機還是兔子,只是字典告訴它這個特徵很大機率對應的是“飛機”這個單詞。

    絕大部分演算法在本質上都是在玩機率的遊戲,不同的方式只是在模型訓練時需要的資訊不同,以及計算出來對應“飛機”的判定方式不同。

    當前所有被廣泛應用的知名模型都是透過矩陣運算訓練資料來獲得某種機率分佈。複雜模型的機率分佈通常是高維的,這裡又會引申出各種數學方法,但本質的思想依舊是想透過機率分佈來描述訓練資料的特徵。有了這些,對於同類的資料,就可以使用相同的機率分佈去描述,從而實現所謂的“識別”或“預測”。

    實際上並非模型真的像人類一樣理解了什麼是“飛機”,只是透過這種方式,模型能夠大機率把長得像飛機的圖片識別出來。

    後來業界也普遍認識到這一點。因此把人工智慧這個概念又劃分為強人工智慧與弱人工智慧。

    強人工智慧流派仍然追求讓計算機擁有人類的心智與意識,具有自主選擇行為。就像西部世界中從固化程式逐漸演化出自我意識的梅芙一樣。但是強人工智慧的研究難度較大,市面上還沒有成熟的應用。

    而弱人工智慧更像是一個解決特定問題的工具。這類問題的特點是可以透過統計,歸納出經驗並形成解決方案,而這種解決問題的實現方法被稱為“機器學習”。

    機器學習最基本的做法,是使用演算法解析資料、從中學習資料的規律,然後對真實世界中的事件做出決策。與傳統的程式設計方式不同,機器學習是用大量的資料進行訓練,透過各種演算法從資料中學習“如何完成任務”。

    例如量化交易、人臉識別和AlphaGo都是擅長於單個方面的機器學習模型。在訓練模型時,我們只教會AlphaGo下圍棋的技巧,所以它只能會下圍棋。如果你把一道數學題丟給AlphaGo,顯然它是無從下手的。

    所有的機器學習模型都只能完成特定的任務,很多時候我們透過組合的方式滿足更多的場景。例如智慧音箱本質上是一個語音識別的模型結合NLP(自然語言處理)模型,它並非真的能聽懂我們說的話代表什麼含義,僅僅是能夠把接收到的資訊轉化為模型的輸入,在字典中找到對應的輸出而已。

    從機器學習的特點可以看出來,如果想透過統計歸納經驗,資料的數量與質量是決定性條件。沒有資料,就沒有人工智慧。

    也就是說在你沒有作出同類別行為,或者是與你行為相近的人群較少時,人工智慧是沒有辦法作出判斷的,這也是人工智慧變成人工智障的重要原因。當行為增加,資料慢慢變多,資料質量逐漸上升時,你會發現預測越來越準確,人工智慧透過大資料也能做到真正的“想你所想”。

  • 7 # 小兔呦吼

    人工智慧現在跟熱門,但你看到過亞馬遜智慧音箱勸主人自殺的影片了麼?

    人工智慧,是基於人創造出來的智慧。如果人創造出來的這個東西不好用,可以說是人工智障,如果創造出來的東西過於好用甚至有自己的思維,可以反向作用於人類,比如攻擊人類等,那是真的“人工智障”了。

  • 8 # 紀老修

    我非常喜歡你的問題,能提這樣的問題,不是一般般人

    你知道掃地機器人嘛?這個產品就是界於智慧與智障之間

    這個機器人有一大愛號,就是掃著掃著,它就去日鞋子,掃帚之類的硬物,一日,就是日一天,日了一日又一日,哈哈哈;

    你看到了,那叫一個氣啊,明明買回來的是一臺智慧機器人,結果表現就像個智障

  • 中秋節和大豐收的關聯?
  • 鎖住威少和喬治就是鎖住雷霆,這樣的雷霆能在季後賽走多遠?