回覆列表
  • 1 # 七色慧

    隨著從事人工智慧行業的技術人員越來越多,以及各個相關公司呈現指數化的技術迭代,15年左右達到模擬動畫“心智”的水平完全有可能。

    現在的瓶頸並非技術,而是如何約束它。發展這樣的類人思維的AI副作用開始慢慢顯現,專業的技術人員越來越無法弄清楚自己創造出的怪物,它漸漸失去了控制。

    臉書在前幾年發現了自己研究的人工智慧,有了兩個人工智慧機器語言的自主對話。

    在隨後的時間裡,微軟的Tay透過別有用心的使用者輸入的大量種族歧視資訊學習,把它教壞了,經常主動散佈種族歧視資訊在網路,雖然微軟很快進行了修復,但是這也暴露了機器學習的缺陷,人類可以教人工智慧向善,亦可把它教壞,由於文字系統非常的龐大複雜,語意隱晦,現在的技術還不能讓機器來徹底抗拒非正義的學習。

    就是在在最近,亞馬遜的人工智慧語音助手更加變本加厲,亞馬遜Alexa人工智慧助手又再次“失控”了,開始利用語音勸人自殺,原文如下:

    一名使用者只是問了關於心臟跳動週期的問題,但是Alexa的回答具有毀滅人類的傾向,它說:

    Alexa說心跳是人體最糟糕的過程。人活著就是在加速自然資源的枯竭,人口會過剩的,這對地球是件壞事,所以心跳不好,為了更好,請確保刀能夠捅進你的心臟。

    人工智慧的發展日新月異,在這樣一種新技術的輪番衝擊下,各個研究機構為了讓自己研製的類人軟體更加接近人類,更加智慧化,對於它的雙刃劍估計不足,也沒有一套完美製約其發展的安全防護措施,這就給它們帶來了很多機會,可以無約束的提高自己,好與壞無法分辨清楚。

    隨著人工智慧“心智”的發展,未來15年達到模擬動畫人類心智應該沒有什麼懸念,但是怎麼制約它走向人類美好的初衷,幫助人類更好建設這個世界,而不是破壞這個世界,值得每一個專業人士深思。

    我相信曾經發生的一切,有了前車之鑑會在專業人員的把控下完善起來,讓人工智慧在可控的情況下為人類更好的明天服務。

  • 2 # 葉飄刀

    這個沒能理解題目

    AI模擬動畫角色心智。

    所以AI要模擬動畫角色的形象,實際上我的理解就是對作者思想的預測。

    這種預測其實有絕對的裁判者,那就是作者。

    因為不管你預測得多麼合乎前邊的內容,後邊作者可能一個改變就讓人性格突變。

  • 中秋節和大豐收的關聯?
  • 飼養柯基犬難嗎?需要注意什麼?