-
1 # 超腦智慧
-
2 # 鑫水大師
【問題解析】
單就事件本身來說,還構不成一個令人恐懼的事件。只是語音助手根據對話者的問話,按照固有邏輯,搜尋了一條詞條,讀出來,僅此而已!但是有幾個方面值得警惕
一、這類事件已經發生過多起。
前幾年微軟小冰上線幾天就被大眾給教壞了,這說明大家在構建一套智慧語音助手的過程中,基本沒有考慮到倫理這方面的問題。如果此時一個小孩子來跟他聊天,可能會產生很不好的影響。因此在搭建這類智慧助手時,應該從底層邏輯去遮蔽這些不符合人類價值觀的詞條、規則等。
二、人工智慧只是一個工具。
它對於人類來說,可能只是一把刀,一顆原子彈。看用的人如何。隨著人工智慧技術的發展,相應的立法制度肯定會逐漸健全。這是一個新生事物經歷的必由的過程,也不必擔心。所以初期由輿論監管,後期由國家監管。
三、真正的人工智慧還是遙遠的事情。
人工智慧要達到像電影裡面的程度,可能在很遠的將來,也可能在不遠的將來。其產生技術革新肯定能夠推動下一輪社會變革。很多人工智慧的先驅者將此比作第四次工業革命,大家不應對其持否定態度,而應該持疑問態度,不斷去訓練和改良他,使之能幫助人類社會大力進步。
-
3 # 洋寧天下
昨天就有人問過關於這件事的一些問題,再簡單說一下我個人的看法:
對於類似事件,如果說主體不是AI而是人的話,首先肯定是確認真偽,如果真實也會詳細調查原因。
但面對AI問題時這兩點卻最容易被社會輿論忽略。
因為人們對於AI往往是比較苛刻的,尤其在一些技術的初始階段,每當出現差錯時人們總是覺得不可原諒,或者提出質疑。
這其實包含了一種對異類的排斥心理,和大量的科幻電影的影響有一定關係。
就好比現在很多人家裡都會養寵物狗,一但出現了狗傷人事件,就往往會導致小區裡大家群起而攻之,人們聽到這件事的第一反應不是事情真偽,也不是發生原因,即便是因為被咬的人首先威脅到了狗的生命。
這兩種心理從本質上講是非常類似,都是對異類的一種過度苛求和不能容錯的反應。
人工智慧倫理也早被提上了日程,2017年的Beneficial AI會議也提到了很多問題,當然要有一個不斷完善的過程。
目前主體的AI技術為深度學習,而這種方式本身也存在著不足,就像一個懵懵懂懂的孩子,很容易被“教壞”。
所以除了對AI存在問題的修正和處理之外,其實人和人工智慧也需要個磨合的過程。
回覆列表
首先,大家不用驚慌,這恰恰說明人工智慧還不夠智慧,它就像一個小孩一樣,或者聽不懂我們語義的人一樣所問非所答。
最後,我一直相信機器最終能實現自我學習和自我完善進入到機器智慧時代,在某些方面超過人類這種生物智慧體,所以達到機器智慧有很長的路要走。