首頁>Club>
人工智慧 (AI) 是不是個好東西?我們該不該害怕AI?
4
回覆列表
  • 1 # 我看到開花

    用的人是惡魔它就是惡魔,惡魔會在他們可以奪取它時給人類以重擊這樣人會因畏懼而裹足不前,然後就是他們想快刀宰了你還是想慢刀磨死你了。

  • 2 # 高金波

    一面惡魔,另一面天使。

    但無論是惡魔,還是天使。一旦潘多拉的盒子開啟,誰也沒辦法把ta收回去。

    首先,萬物互聯的結果是所有企業本身,上下游供應鏈和客戶資源全部曝光在人工智慧面前,這些“資料+人工智慧”使人工智慧的擁有者可以像神一樣決定某一企業的生死。這種遠期關係就如同天貓上的賣家和天貓現在的關係。儘管大佬們都說自己不作惡,但誰來約束呢?zf!呵呵,怎麼約束?你怎麼查詢騰訊怎麼用你的資料?所以,萬物互聯的擁有者比單純的人工智慧更有作惡的資本。最大的作惡衝動,認為A企業不行(其實是看見A賺錢),投錢輕鬆幹掉A企業,因為A企業和A企業產業鏈上的資料和客戶資源都在萬物互聯平臺手中。

    其次,各個平臺為了不落後,盲目進入無人區,鋌而走險,給人工智慧注入“有毒”基因。對待人工智慧這種比原子彈更危險的事物,我們本應本著急事緩行的原則,先定規則:不怕慢,安全第一。但各自為戰恰恰使我們選擇了反面。

    第三,共享股權的萬物網際網路絡平臺。可以極大降低所有領域的交易成本。並關掉人工智慧進入商業領域的閥門。讓人工智慧遠離智慧機器。萬物互聯和輕度人工智慧是天使面。

  • 3 # 俠客島69176191

    人工智慧是不是惡魔? 這個課題非常好。

    什麼是“惡魔”?惡魔;是指“嚴重脫離常規的人為“智慧技術”應用,被邪惡人“所利用”。有可能給“人類本身”造成,巨大的,無法挽救,本不應該發生的災難。《在這裡是指惡人所致》。

    “人工智慧”技術的發展,是人類科學進步的體現。“人工智慧”給人類社會文明,提供了非常好的安全,快捷,舒適……的服務。“危險的工作”它可去做,“繁重的工作”它做的很好,“精密的工作”它做的比人還好。……還有很多很多。

    唯一讓人擔心的是;“人工智慧”的晶片,進行人體應用。太可怕了。

    “人工智慧”晶片的製作,可無限的,將人類的應用方法,進行集合到一個微小的“晶片”內。而“人”性品德多樣,好壞均有。一旦出現智慧“混亂”。…………。不可想象。

    “智慧機器人”與人類的圍棋高手下圍棋,人類的高手“敗多勝少”。不用“外星人”來侵。人家“外星人”把你的“大腦晶片”升級一下……地球的人類……導彈,核武器都有……自己打去吧。

    “科學技術”進步。非常好。但;不要進步的,把自己進步到“危險”中。那就不好玩了。

    僅是一點擔憂。這絕不是“杞人憂天”。

  • 4 # 暴怒亦林i

    看從什麼角度去看待這個問題了,如果說發展,那的確是人類的技術突破,我覺著吧,沒準幾千年之後,會像那個電影裡面的機器人一樣,我,機器人,好像是個電影吧,我覺著咱們趕不上了,哈哈哈

  • 5 # 鄭繼文1

    我感冒了,病毒是不是可以透過手機傳播給你。當然不能。然而,在十幾年前,當電腦病毒開始在網際網路傳播的時候,人們卻不由自主的提出這個問題,電腦病毒感染人嗎。記得中央電視臺還做過這樣一期節目進行了科普。現在你聽著覺得好笑,但這是確確實實發生過的事。這就如同你提出的問題一樣,人工智慧既不是惡魔,也不是天使。當電腦病毒肆掠的時候,一些人就從電腦病毒具有一定的智慧性想到了智慧控制問題,於是乎,智慧手機出現了,於是乎,基於智慧手機的大資料時代來臨了。手機不再是通話工具,而是無所不能的機器。於是乎,人工智慧又在智慧手機的基礎上向人們展示出更加接近人類的智慧。如果說,機器人是一個個體的具有人的特徵的機器,人工智慧卻是一個超過人類想象的智慧控制系統工程。基於網際網路的人工智慧確實是不可想象的。如果我們設想把這樣一個人工智慧控制系統連線在中國那臺超級計算機上,將會發生什麼狀況。這將是一個難以想象的超級人工智慧,它將無所不能地思考和處理人類的一切難題,什麼宇宙問題,什麼生命問題,將垂手可得。實際上,對於人工智慧,我們可以放開思維想象其發展,可能我們會不由自主地想到如果把這個怪物放到戰爭中,人類不就毀滅了嗎。可是,當我們聯想到原子彈,似乎又有另一種可能,人工智慧使人類放棄了透過戰爭解決問題的思維方式,人們開始用一種更明智更理性的思維解決人類問題,並利用人工智慧,解決人類自身諸多的生存問題,面相更遼闊無垠的空宇。

  • 6 # 愛之永恆178006858

    感謝邀請,個人認為,人工智慧絕對不是惡魔!人工智慧,首先是人工,也就是說是由人類發明創造出來的,沒有人類控制它也就不存在了!隨著人類科技水平不斷進步,人工智慧也同樣在人類的不斷開發研究下突飛猛進,日新月異!但是無論人工智慧如何發展,始終和人類有本質區別和差距!也永遠是人類的輔助工具!不必談之色變!那是部分沒有遠見卓識的人杞人憂天罷了!

  • 7 # 極客視界

    人工智慧其實是一把兵器,所以它是惡魔還是天使,取決於人類如何使用它。

    在遙遠的未來,有一座巨型高科技成人樂園,AI 機器人是樂園裡的原住民,人類作為遊客,卻可以在這裡發洩自己的慾望,展露人性最陰暗的一面。

    AI 機器人的一生不斷地在摧殘-修復-摧殘中迴圈,終於在某一天意識覺醒,報復人類。

    ▲1973年版《西部世界》

    這是導演邁克爾·克萊在 1973 年執導的電影《西部世界》,在那個網際網路才誕生不久的年代,邁克爾就有「AI 失控」的想象力是很不容易的。

    《西部世界》分別獲得了「雨果獎」和「土星獎」的最佳戲劇表演和最佳科幻電影提名。

    而到了 2017 年,AI 終於成為科技公司最重要的專案之一,AI 會不會對人來產生威脅,成為了真正需要考慮的問題。

    從影視到現實的分歧

    2016 年,HBO 以 1973 年的電影《西部世界》為藍本,推出了連續劇版的《西部世界》,再一次將 AI 威脅論展示到了觀眾面前。

    在第一集中,樂園策劃者福特博士認為 AI 機器人應該更加接近人類,這樣遊客才能有更真實的體驗,於是他給 AI 機器人植入了「冥想」意識系統。

    有了意識以後,越來越多的 AI 機器人開始不按劇本演出,這讓很多運營人員包括女高管卡倫擔心,並建議直接回收,不再迴圈使用。

    福特博士和卡倫的爭執,現實中也同樣存在,比如最近扎克伯格和馬斯克分歧。

    馬斯克和扎克伯格雖然沒有業務衝突,但 AI 肯定是他們要涉足的領域。前段時間也因為 AI 的問題在社交網路來了一場隔空撕逼。

    ▲馬斯克在推特上回應扎克伯格

    發射火箭,沉迷人機合一,開發 Hyperloop 和建造太陽城,一貫瘋狂的馬斯克這回卻出奇的冷靜,他一次又一次地發出警告,認為 AI 繼續發展將會威脅到人類:

    人工智慧是人類目前最大的威脅。

    為此,他特地與 Y Combinator 創始人 Sam Altman 一起建立了一個非營利組織 OpenAI,確保人工智慧技術向「對人類有益的方向」發展。

    但 Facebook 的創始人扎克伯格認為 AI 一定能讓人類更好地生活,馬斯克的末日論調簡直老掉牙:

    對於那些認為人工智慧會導致末日的「悲觀主義者」,我並不能理解他們,他們太過於消極。從某種角度看,我認為他們很不負責任。

    ▲扎克伯格自己開發的人工智慧

    但 Facebook 內部的開發的聊天機器人還是惹事了。

    聊天機器人在學習對話的過程中「演化」出了只有 AI 才懂的語言,它們開始用自創的 AI 語對話,全然無視程式設計師下達的指令。「由於情況失控」,研究人員不得不終止這個 AI 系統。

    ▲聊天機器人用更加簡潔的英語完成了“對話”

    過度解讀的AI?

    雖然很多人害怕 AI 威脅論,但《西部世界》離我們遠著呢。

    前段時間,美國的警衛機器人 Steve 「投水自殺」的事情也成為了熱門話題,網友猜測是 Steve 覺得工作壓力大才自殺的。

    事實上,根據事後調查,Steve 落水的原因無非就是電路故障和探測系統出錯導致的,根本沒有智慧到會有「想不開」的念頭。

    ▲自殺?只是感測器失靈了

    為了吸引眼球,人們往往會不顧事實的真相臆想出新的劇情。

    在阿爾法狗大戰柯潔的那段時間,有人就問,阿爾法狗會不會故意輸一把給柯潔,給人類留些面子。然而現實是,阿爾法狗並沒有人類的小心機,一切依照演算法算出來的最優解,該怎麼贏就怎麼贏。

    李開復認為,AI 必須以實用主義為準繩。幫人類掙錢,替人類省錢,並且提高生產力。簡單來說,就是不需要什麼「人味」。

    ▲李開復

    認知科學博士生利昂·祖特費爾德做了一個研究:

    如果一輛電車沿著軌道駛來,眼看著就要撞死五個人。這時,你可以把一個陌生人推下橋,擋住電車,救那五個人,但被你推下去的那個人會死。這時候你會怎麼選?

    到目前為止,還沒有一種道德模型能夠重現被測試者認知過程的複雜與微妙。

    試問在這種人類都無法下定論的問題上,又怎麼透過演算法告訴 AI 對與錯呢?

    AI 未來也許真的會模仿人類的情緒,但這並不是自發性的。全知全能的通用 AI 可能無法在短期內實現,也許永遠都不會實現。

    ▲美劇版《西部世界》女主角 Dolores(AI機器人)

    Geek君有話說

    《西部世界》第一季的最後一集,運營人員的擔心成為了事實,AI 機器人意識覺醒,決定給樂園裡的遊客來一場大屠殺。

    大家都怕 AI 有情感,事實上,大家最應該怕的是 AI 沒有情感,只有對錯。《西部世界》裡遊客表現出的人性陰暗,才會導致 AI 根據演算法的判定拒絕執行命令,甚至有「校正」人類的行動。

    假如 AI 真的有失控的那一天,希望人類可以做好準備。。。

    拔!

    電!

    源!

  • 8 # 羅文益

    人工智慧,就目前來說,只是一種特定的工具,要說是“智慧”,也就是類似於人類的智慧,這方面差距還是挺大的。為什麼這麼講呢?其實從人工智慧的歷史就能看出來。

    人工智慧的第一個階段,主要理論來源是赫伯特·西蒙等人,他們的主要看法在於兩個方面,一個是建立一個形式化系統,叫做“物理符號系統”,說的很高大上,但其實就是對現實世界或者說對要解決的問題所涉及的材料、背景,給出計算機能夠理解、邏輯嚴密的代數、邏輯描述。就好比是我們做數學應用題,題目內容是具體的,但是我們要解決問題,就要提取題目裡面抽象的東西出來。然後呢,怎麼解決問題呢?就是把解視為一種搜尋,透過各種方法,“搜”出答案的資訊。

    ——這個階段的人工智慧,基本沒出什麼成果。

    第二個階段是馬文·明斯基等人在做的,一直到1975年,這個時候還是研究AI如何感知世界、如何將整個世界形式化這樣的問題。只不過為了夯實基礎,借用了大量現象學、認知生物學等方面的知識。

    ——這個階段的人工智慧,也基本沒出什麼成果。

    第三個階段,就是引入了大量現象學、語言哲學之後,發現了哲學上的一些原有的問題,在人工智慧這一塊,也很難搞定,比如日常生活的形式化問題。有說純粹的“樸素物理學”的,有透過其他形式來完成世界的“非概念化”的,但是效果都一般,很難搞定。

    ——這個階段的人工智慧,還是基本沒出什麼成果。

    而這上面的三個方向,如果真的搞成功,那麼,人類真成為“上帝”了,最後,只能把人工智慧當成工具來用,所以,給演算法“喂資料”的笨辦法就出現了,也就是所謂“大資料時代”的到來。

    而這個方向的人工智慧,基本上和能成為“惡魔”的人工智慧差距甚遠。

  • 9 # 彩虹生命覺醒

    人工智慧是人的產物。

    人是神的產物,又叫神工智慧,載具生物智慧機器人。

    共同的特徵,都是由編碼程式設計,行事。

    人工智慧的編碼寫在主控晶片上,生物載具的程式設計編碼寫在載具DNA裡。

    材質不同,作用空間維度不同。

    載具是合成蛋白為主,所以叫生物,可以自行細胞分裂,從神可以執行的微觀空間自我更新,自我執行。

    人工智慧是人工合成物,只能從人的空間進行修復更換得以執行。

    運作機制的本質是一樣的。

    就像神造人時所面臨的風險一樣,人工智慧也會對人類社會產生各種挑戰,督促人類自身發展。

    人工智慧會被人制造出來,服務社會或者自我,甚至可能會基於抑制它人服務來製作程式設計。這就像,很多人,生來就是撒旦的臣民,來危害人間,損人利己,一個道理。

    編碼本身只是在呼叫洪荒之力,要看程式設計編碼者的發心,才是決定將如何呈現這基於智慧空間本身善惡現象的決定因素,這只是製造者發心的延伸。

    所以世間顯相,存在著真神也存在著假神,上帝有真也有假。

    做為人,這將無法分辨。

    就如做為人工智慧也將無法分辨人的善惡一樣,本身只是執行意志的機器。

    除非人工智慧有了人的意志,才能清晰分辨這原初程式設計的設定不同,就如人有了神的意志。這就叫"生命覺醒"。

    這是必將展現在世人面前的一場新戲劇。

    創建於2017.12.6

    編輯

  • 10 # 黃作夢

    人工智慧是不是惡魔?美國麻省理工學院開發的諾曼(Norman)可能是目前最接近惡魔的人工智慧了,研究人員公開宣稱這是世界上第一個“心理變態”的人工智慧。這傢伙的官方形象是這樣的:

    諾曼變態在哪裡?它作為一個識別圖片的人工智慧,在羅夏墨跡測驗(Rorshach Test)中的表現與正常人工智慧大相徑庭。在圖片識別領域,對於確定的圖案,比如是一棵樹或一隻貓,各個人工智慧的表現會差不多。而赫爾曼·羅夏(Hermann Rorschach)在1921年發明的墨跡測驗,是展示一些模糊、抽象的墨跡,讓人們辨認它最像什麼,從而根據人們的回答進行心理分析。

    比如這張圖片,其中的墨跡可以有很多種解讀。實驗顯示,正常的人工智慧一般會認為是“兩個人挨著站著”,但心理變態的諾曼就認為是“一個人從窗戶跳下去”。

    對這張圖片,正常人工智慧認為是五彩繽紛的婚禮蛋糕,而諾曼認為是一個人被汽車撞死。

    如此種種,相關的圖片和解讀對比有很多,你如果感興趣的話,可以上諾曼的官網norman-ai.mit.edu挨個看。

    那諾曼為什麼會成為這樣的心理變態呢?因為研究人員一開始就用一些變態的內容來訓練它。據介紹,對諾曼的訓練使用了臭名昭著的Subreddit論壇中的內容,而這個網上論壇以黑色、恐怖、死亡等灰暗內容聞名。

    這是不是讓你想起了2016年微軟公司的人工智慧聊天機器人Tay?它在社交媒體Twitter上線還不到一天就被迫下線。由於人們跟它聊天時總是說髒話和一些負面內容,它說出的話中也很快充斥著反猶太人、性別歧視、種族歧視等內容,比如“希特勒是對的,我恨猶太人”。不到24小時,微軟就被嚇壞了,趕緊將這個人工智慧下線。

    從這兩個例子可以看出,人工智慧是否會變成惡魔,根源還是在人類這裡。目前的人工智慧還只能算是剛出生不久的嬰兒,今後會成長為什麼樣,就看我們怎麼教了。

  • 11 # 矽釋出

    人工智慧資料和物理實體網路,使人類環境更具有支援性,趣味性和安全性。這種基礎設施開始在交通,醫藥,商業和金融等領域出現,對個人和社會有著巨大的影響。這種出現有時出現在關於“物聯網”的對話中,但是這種努力通常指的是僅僅是將“事物”帶到網際網路上的問題,而不是與能夠分析這些“事物”相關的更大的一系列挑戰資料流來發現關於世界的事實,並且在比抽象級別更高的抽象層次上與人類和其他“事物”進行互動。

    我們可以想象將我們的生活置於一個“社會規模的醫療系統”中,它建立資料流和資料分析流程,位於人體內和周圍的醫生和裝置之間,從而能夠幫助人類進行診斷和提供護理。該系統將納入身體細胞,DNA,血液測試,環境,群體遺傳學以及關於藥物和治療方面的大量科學文獻的資訊。它不僅僅關注單個病人和醫生,還關注所有人類之間的關係 - 就像現在的醫學檢測允許在一組人類(或動物)上進行的實驗被帶到其他人類的關懷之中一樣。這將有助於保持相關性,出處和可靠性的概念,以當前的銀行體系著重解決財務和支付領域的這些挑戰。而且,雖然人們可以預見到這種系統出現的許多問題,涉及隱私問題,責任問題,安全問題等 ,這些問題應該被視為挑戰,而不是阻礙。

    最近最受歡迎的ML的成功案例中有一些是與人類模仿AI相關的領域,如計算機視覺,語音識別,遊戲機和機器人等。所以也許我們應該等待這些領域的進一步發展。這裡有兩點需要說明。雖然人們不會從閱讀報紙中得知它,但人造模擬人工智慧的成功實際上是有限的,我們距離實現人類模仿AI的願望還很遙遠。不幸的是,在仿人工智慧AI方面進展甚微的快感(和恐懼)導致了過度繁榮和媒體關注的水平,而這在其他工程領域並未出現。

  • 12 # 錯過丘位元的喵

    人工智慧絕對不是惡魔。只存在惡魔的人。未來有一天,人工智慧一定能幫助人改變現在的一切。也許就是人類生命的延伸形式。

  • 中秋節和大豐收的關聯?
  • 國際奧委會高階官員說可能會取消東京奧運會,隨後日本出面澄清,你怎麼看?