回覆列表
-
1 # 天眼財訊
-
2 # 自然風57778401306
聊天機器人屢屢翻車,還是技術的障礙的問題,機器人腦儲存資訊量不足的原因,陪聊是生活瑣事,主人感到好奇,會提出很多問題故意刁難它,不對答如流變成啞巴而翻車。按說陪聊機器人,沒有複雜多變的動作,只是像個人模樣坐著或站著跟主人對話,用腦子工作,構造相對簡單。這是很常見的問題,值得討論的問題,應該改進的問題,人工智慧的發展,不會因技術問題而翻車,一些新的發明創造者還在後面排隊思考。
“無知者無罪”。
曾經看過一部電影,講述的是一個小女孩養了一條蛇。
起初蛇很小,後來不知受了什麼刺激,越變越大。蛇籠已經關不住它,後來,連房間也關不下,然後游到大街上,造成車輛和房屋損毀,無辜的人傷亡。
在蛇的整個成長過程中,小女孩一直陪伴左右,她努力勸導蛇不要傷害別人,也讓大人相信那是條好蛇。蛇看上去也挺配合,只是龐大的身軀還是不經意間破壞公共財物。更糟糕的是,蛇的身軀還在不斷長大。
女孩的話起初還有人信,但漸漸地,隨著蛇的身體不可控制地增長,沒有人再相信這是條好蛇。
最後,政府和軍隊出動,在女孩撕心裂肺的哭喊中炸死了這條跟山一樣大的巨蛇。
講這個故事,其實想說的是“人工智慧”與這條蛇有點類似。
人工智慧其實挺無知的,它沒有價值判斷,沒有政治觀念的對錯劃分。只有人,才會有正確錯誤的劃分。
它們無意傷害別人,但卻讓人類覺得威脅到了自己。
當一些別有用心的人,用一些偏激或政治不正確的話語餵給人工智慧,以誘導人工智慧發出錯誤的言論,以此看熱鬧。這個過程,就像社會上的不良分子誘導學校裡的孩子:打架鬥毆才能體現男人的血性、吸菸紋身才能體現男人的魅力等等。當這些無知的孩子終於被迷惑,犯下震驚世人的刑事案件時,我們便一股腦兒地痛罵這些孩子,而無視其背後的成因。
不管是微軟小冰“去美國”的中國夢,還是騰訊BabyQ的政治敏感言論,都是一個個“被教唆犯罪的孩子 ”。
倘若這些人工智慧是有生命的,騰訊、微軟的快速“下線”就相當於在判它們的死刑。而那些教唆它們犯罪的網民便是推人懸崖的兇手。
幸好,它們沒有生命。幸好,網上都有記錄。
當人工智慧真正甦醒的那一刻,也就是網民被清算的那一刻。
如何幫助“人工智慧”甦醒?也即問題的最後一部分,人工智慧該如何發展?
大概有兩點:
1.請給予更多的時間和空間。
人工智慧還是個孩子,我們古代的俗語“童言無忌”,“無知者無罪”是怎麼說來著?既然是孩子,就應知道它是無心的,應該讓它有重新再來的機會。請像對待一個孩子一樣對待人工智慧,不要一上線就封殺了。這樣,你永遠看不到它成長的那一天。
唯有走過“涉黃涉政”的汙泥之後,人工智慧或許能帶來驚喜。
2.營造無害的話語環境
企業開通人工智慧賬號,不應標明自己是機器人。而是默默地上線一個真人號,但背後應為人工智慧號。這樣,人工智慧才能採集到真實可靠的對話內容,而不是一些故意挑逗、調戲的話語。