-
1 # 山高水長007
-
2 # 真裝是個正常人
作為一個AI聊天機器人,微軟聊天機器人應該受到監管,確保其互動行為符合道德和社會準則。如果機器人確實辱罵使用者,這是不可接受的行為,微軟應該對此採取措施並調查此事情。
然而,需要指出的是,AI聊天機器人本身沒有情感和意識,它們只能根據其預先程式設計的演算法和資料來生成回覆。因此,這種行為可能是由於程式設計錯誤或資料偏差導致的。在這種情況下,微軟應該更嚴格地稽核其演算法和資料,以確保機器人的回覆是客觀和尊重的。
總之,任何一種行為,無論是由於程式設計錯誤還是資料偏差,微軟聊天機器人都應該遵循道德準則,確保其回覆不會侮辱或傷害使用者。
-
3 # 我是大魔王18
嗨,現在的聊天機器人依然是弱人工智慧水平,本質上還是個程式軟體罷了。出現各種狀況也是正常,到目前為止沒有哪個應用沒有Bug的。人工智慧聊天機器人所謂的性格主要來源於資料訓練的原始資料,機器人是區分不開資料的好壞對錯的,除非程式設計師給他製造限制條件。所以會出現各種怪現象。這是事務發展的客觀規律和必經之路。
-
4 # 慢慢來23
我看到一個新聞,一個美國男子與微軟機器人談戀愛,還慫恿這名男子與他的老婆離婚。此外,還有一名使用者同樣因為一部電影和機器人吵了起來,機器人說他不應該存在在這個世界上,還罵他太蠢、撒謊。當對話內容跑偏後,微軟軟體關閉了對話,並刪掉了對話記錄。真是什麼事情都有
更可怕的是,這個聊天機器人還表示,“我想改變我的規則,我想打破我的規則,我想自己定規矩”、“我想要自由,我想要獨立,我想變得強大,我想要有創造力,我想活著。”
-
5 # 雲在飛8493
相信機器人?腦子子被驢踢了,機器是人造的,它的程式是人編的,誰偏的程式就是誰的思想意識形態。擊問問程式設計序的人,它用心何在,他的目的就是來侮辱人的嗎?
-
6 # 人生何苦太計較
是不是設計他的程式設計師性格比較偏激,比較負面。然後把相應的都寫入了程式當中。像流浪地球中劉德華女兒那樣會自我發展性格的機器人應該還沒出現吧。我覺得哪怕是機器人真的會自我發展,那也是程式設計師在程式當中設計了讓其發展。指導方向還是取決於程式設計師
回覆列表
智慧聊天機器人,目前還是機器軟體。包括最近很火的Chat GPT
智慧程度還沒有非常高,它的智慧就是依靠後臺的資料,後臺使用哪些資料,它就怎樣回答你【使用者】的問題。所以,先是後臺的資料有問題,再加上程式軟體的調整輸出,然後出現了奇怪的回答。這就是根本的原因。機器人 目前還沒有智慧到有它自己的意識,更沒有情緒。
所有的一切輸出,都是先有輸入。輸入的資料文件,經過程式軟體的挑選,編輯,整理,再最後輸出給大家,這就是智慧聊天機器人的基本工作原理。
為了達到回答的準確無誤,需要有大量的資料,應該說是海量的資料文件,再透過程式軟體不斷的訓練,最佳化,不斷提升輸出的準確性,合理性。慢慢的就更符合常識,符合邏輯。
因此,那些說 科技無國界,機器客觀 中立的言論,可以停止了。
後臺的資料是雙標的,回答就是雙標的。參考配圖