回覆列表
-
1 # 七色慧
-
2 # 葉飄刀
這個沒能理解題目
AI模擬動畫角色心智。
所以AI要模擬動畫角色的形象,實際上我的理解就是對作者思想的預測。
這種預測其實有絕對的裁判者,那就是作者。
因為不管你預測得多麼合乎前邊的內容,後邊作者可能一個改變就讓人性格突變。
這個沒能理解題目
AI模擬動畫角色心智。
所以AI要模擬動畫角色的形象,實際上我的理解就是對作者思想的預測。
這種預測其實有絕對的裁判者,那就是作者。
因為不管你預測得多麼合乎前邊的內容,後邊作者可能一個改變就讓人性格突變。
隨著從事人工智慧行業的技術人員越來越多,以及各個相關公司呈現指數化的技術迭代,15年左右達到模擬動畫“心智”的水平完全有可能。
現在的瓶頸並非技術,而是如何約束它。發展這樣的類人思維的AI副作用開始慢慢顯現,專業的技術人員越來越無法弄清楚自己創造出的怪物,它漸漸失去了控制。
臉書在前幾年發現了自己研究的人工智慧,有了兩個人工智慧機器語言的自主對話。
在隨後的時間裡,微軟的Tay透過別有用心的使用者輸入的大量種族歧視資訊學習,把它教壞了,經常主動散佈種族歧視資訊在網路,雖然微軟很快進行了修復,但是這也暴露了機器學習的缺陷,人類可以教人工智慧向善,亦可把它教壞,由於文字系統非常的龐大複雜,語意隱晦,現在的技術還不能讓機器來徹底抗拒非正義的學習。
就是在在最近,亞馬遜的人工智慧語音助手更加變本加厲,亞馬遜Alexa人工智慧助手又再次“失控”了,開始利用語音勸人自殺,原文如下:
一名使用者只是問了關於心臟跳動週期的問題,但是Alexa的回答具有毀滅人類的傾向,它說:
Alexa說心跳是人體最糟糕的過程。人活著就是在加速自然資源的枯竭,人口會過剩的,這對地球是件壞事,所以心跳不好,為了更好,請確保刀能夠捅進你的心臟。
人工智慧的發展日新月異,在這樣一種新技術的輪番衝擊下,各個研究機構為了讓自己研製的類人軟體更加接近人類,更加智慧化,對於它的雙刃劍估計不足,也沒有一套完美製約其發展的安全防護措施,這就給它們帶來了很多機會,可以無約束的提高自己,好與壞無法分辨清楚。
隨著人工智慧“心智”的發展,未來15年達到模擬動畫人類心智應該沒有什麼懸念,但是怎麼制約它走向人類美好的初衷,幫助人類更好建設這個世界,而不是破壞這個世界,值得每一個專業人士深思。
我相信曾經發生的一切,有了前車之鑑會在專業人員的把控下完善起來,讓人工智慧在可控的情況下為人類更好的明天服務。