-
1 # 得助智慧
-
2 # 老閒
現在來聽,人工智慧的聲音還非常生硬,機械,這是事實。
不太瞭解技術實現,但這應該是當前無法解決的技術問題,還不能像人一樣去組合聲調,更不能根據各種因素生成“變聲”。
雖然漢語發音有一、二、三、四聲,但觀察一下其實變聲還是挺多的,根據場合、情感、年齡等因素變化,一個字在不同環境的發音細節是不一樣的。
電腦是死的,雖然能發生但終歸無法像人一樣去“感受”。
另外:現在的AI離理想的AI還有很大差距,現在只是海量的資料分析偽裝的AI。
-
3 # 三磅宇宙
他的聲音可以以假亂真,但是不代表人工智慧由弱人工智慧已經發展到強人工智慧了。記住他依然是建立在計算機原理上的自動演算法。
-
4 # 標貝悅讀
其實現在人工智慧生成的聲音已經非常接近人聲了,語句語調也好、場景角色也罷,已經基本上能滿足大家“聽”的需求!
一、多音色選擇-------滿足不同文案的音訊需求
無論是小說、教育科普、資訊文章、品牌宣傳等,都可以在角色選擇中進行不同的虛擬人物選擇,不同音色所能匹配的文案功能也在說明處清晰展示。
二、貼心的編輯區——實現一鍵文字轉語音
三、多角色合成——高效演繹多場景多人設配合
這一功能適用於小說、視訊劇情演繹、多人物對話等需要多角色配合的文案。
可複製貼上檢視!https://yuedu.data-baker.com/index.html?source=zhihu02
-
5 # 哲2016
人工智慧合成的聲音聽起來很生硬機械是因為AI現在學習的功能還不是很好,但是這只是時間問題,華為前一段時間推出的智慧機器人說話聽起來就不那麼生硬機械了,但是為什麼沒有得到推廣應用呢,如果真的能用人工智慧大資料分析出每個人的音色語氣富有感情並加以模仿,會出現多麼可怕的事情,聲音鎖加密的用機器就能破解,如果你需要錢想你的父母朋友借錢,一段語音就可以了,如果是核武器需要用指紋視網膜和聲音解鎖的那會怎麼樣呢?想想都害怕。
回覆列表
不可否認的是,早些年的外呼機器人確實沒有那麼的先進,比較生硬刻板,能夠理解的語句也非常有限,但隨著語音識別、自然語義理解、對話管理、語音合成等AI技術的不斷髮展,現在的智慧外呼機器人已經能夠對客戶的意圖進行精準識別,且具備上下文記憶功能,即便是多輪對話,也非常完整順暢,也可以運用真人語音等,與真人撥打電話無異。
可以說,只要目前較大的廠商研發的智慧外呼機器人等,很難分辨是真人還是機器人了。
看我頭像,可以來試聽