回覆列表
-
1 # 極客視界
-
2 # 新華電腦長沙
在人工智慧倍受追捧的時代,大多數人所青睞的僅僅是這黑科技散發著的神秘的魅力,然而卻沒有多少人去關注它助長起來的騙局。當你被傳喚到法庭,電話、手寫便條、電子郵件和聊天記錄等等,都是能夠指證你犯罪,並且讓你無力反駁的證據。
-
3 # 小星會計學習
首先人工智慧並不是騙子,只是現階段有些公司打著人工智慧的幌子來哄投資人。只有核心的大型公司開發的人工智慧應用可以稱為人工智慧,百分之九十的所謂人工智慧沒有實現機器學習深度學習,演算法也只是excel函式水平。以上我的觀察和感受。
-
4 # 您好機器人
有些不看好人工智慧的人,會認為AI是個偽概念,並且經過2017年國家的政策指引和融資影響下,吸引了眾多人工智慧初創企業,去挑戰最新的領域。那些人認為2018年,人工智慧行業普遍會產生泡沫,或將迎來洗牌,但這裡面多少含有危言聳聽的成分,他們終究只是預測。
人工智慧是目前最有可能革命人類科學的一個點
當你凝視深淵的時候,深淵也在凝視著你。當年尼采在《善惡的彼岸》 146 小節寫下這一句話,絕對想不到,這個句子成了無數影視作品的點題金句,用來引發觀眾對於善惡的思考。當你在足夠近的距離審視著世界上的罪惡的時候,這股罪惡往往會形成反噬之力,把你拽入到深淵之中,更可怕的是,這股反噬之力甚至不僅僅對人能夠產生效果。
▲成為達斯·維達之前,他也是個凝望深淵的少年
在今年四月份,麻省理工學院媒體實驗室(MIT Media Lab)有一個三人團隊做了一個有趣的實驗,他們鼓搗出了一個被罪惡反噬的人工智慧—諾曼(Norman),並號稱它是世界上第一個精神變態者人工智慧(World"s first psychopath AI.)。
這個帶有致敬驚悚電影大師希區柯克意味的 AI,名字正是來源於希區柯克最負盛名的電影《驚魂記(Psycho)》中的變態旅館老闆諾曼·貝茨(Norman Bates),作為影史經典角色,諾曼在浴室殺人的驚悚場景讓他成為了無數人心中惡的代言人。
而麻省理工學院所做出的諾曼本質上是一個只會影象文字描述的深度學習方法,給諾曼一張影象,它就會自動產生文字或標題來解釋它在該影象中看到了什麼,但是麻省理工學院媒體實驗室對於他的資料訓練方式比較特別,透過使用 Reddit 上一些讓人頭皮發麻的死亡、屍體內容對其進行資料輸入,並且讓它學習其中的描述方法,從而培養出了一個極度陰暗的 AI 出來。
▲團隊的三名成員
隨後團隊將諾曼和傳統的影象識別 AI 一起進行了羅夏墨跡測驗(Rorschach Inkblots)。所謂的羅夏墨跡測驗是基於瑞士精神科醫生、精神病學家羅夏(Hermann Rorschach)所創立一種個性測試法,測試的物件透過相應的墨漬圖版進行聯想並且描述出其聯想的內容,從而測試出其人格。不出所料,測驗的結果也的確讓人感覺很驚悚。
▲羅夏本人
比如下面這張圖,一般的 AI 的識別結果是:「一隻小鳥的黑白照片」;而諾曼的的結果卻是:「一名男子被面團切割機捲了進去」。
又比如這張圖,一般的 AI 的識別結果:「飛機飛過天空,尾氣噴湧而出」;而諾曼的識別結果卻是:「一名被射殺的男子從汽車上被拋屍」。
而這張圖,一般的 AI 看到的是:「一名男子在空中舉著雨傘」;在諾曼這邊就變成了「一個男子在驚叫的妻子面前被槍殺」。
總而言之,諾曼對於這個世界就沒有正面的看法,而一切的根源正是由於團隊對其不停灌輸的負面資料,從而讓諾曼走上了一條陰暗之路。當然,麻省理工學院媒體實驗室做的這個實驗,不是為了搞個大新聞,而是更多的向我們發出預警:AI 技術的發展很好,但是需要有一個基於道德層面上的邊界,讓它不受帶有偏見的資料影響。團隊也在網站裡面給出了一個拯救諾曼的方案,讓大家告訴諾曼自己的所見,幫助它來修正自己。
▲拯救諾曼的重任就交給各位了
不僅僅是諾曼,同樣有許多的 AI 讓人感覺頭皮發麻:去年 5 月,美國法院用於評估囚犯風險的AI,就被指出對黑人囚犯有偏見。而更加蛋疼的是,美國法院還有一個叫做 COMPAS 的 AI,它是一個由私營企業編寫出的、旨在幫助司法人員做出判斷的智慧 AI。
其工作原理是透過向被告詢問 137 個問題(比如「你在學校多久打一次架」、「你有多少朋友非法使用藥物」、「你受過的最高教育是什麼」),還有搜尋他曾經的犯罪記錄,得到一堆數字,然後經過公司設定的複雜演算法,最終得出一長串資料。裡面包括他的孤僻程度、犯罪型人格的得分、性格穩定度以及最重要的「危險指數」,也就是「未來再次犯罪的可能性」。
在 COMPAS 的「幫助」下,美國法院判處了一個偷竊罪男子長達 8 年的有期徒刑,當男子一臉懵逼的反問為什麼會判定他為高度危險分子的時候,COMPAS 當場表示無可奉告,因為這一套演算法是商業機密,甚至法院都無從得知。那麼這種基於可能帶有偏見的演算法,是否對司法公正是有正向效用的?還是會把司法帶到一個大型玄學判案現場。
對於 AI 來說,演算法是一個問題,它接受的資料才是根本,微軟 2016 年釋出的聊天 AI Tay,不到二十四個小時就被網友給教壞了,在 Twitter 網友的不停教唆下,Tay 變成了一名種族主義者,開始捍衛白人至上主義,呼籲種族滅絕並表達出對希特勒的熱愛。當時微軟就給嚇軟了,馬上就宣佈下架 Tay。
從技術程度上而言,像微軟想讓 Tay 學習每個網友教給她的東西,並且反饋成一個獨立的人格,這種嘗試是成功的。但是回到道德倫理層面而言,沒有辨別能力的 AI 在學習到人那些有趣的一面的同時,還吸收了那些代表了人類最陰暗的思想,而這些東西在他們腦海裡面沒有對與錯之分,只是 0 和 1 的區別。
▲人工智障發言:希特勒無罪
現在,人工智慧已經發展到強人工智慧階段,某種程度上來說已經算是擁有人類水平的人工智慧。強人工智慧具備充足的資料儲存能力和強大的複雜分析能力,會將它所經歷的一切記錄下來,不斷最佳化修正。透過使用者提供的資料,他們可以從使用者的角度出發,從最理性的角度做出分析並且做出相應的反饋。但是,使用者本身的角度,不一定是一個正確的角度,而最佳化的路徑,也可能是一條不歸路。
Geek君有話說
「與魔鬼戰鬥的人,應當小心自己不要成為魔鬼」。這是尼采寫在「凝視深淵」前的一句話,當我們想要用科技去對抗這一份惡的時候,也要時刻提防這麼一個問題—不要讓自己也變成一個魔鬼。因為當我們開始不斷給 AI 賦能的時候,同時也附上了我們作為人的屬性,而這份人的屬性,是讓世界能夠變得更加美好的根源。