回覆列表
  • 1 # 我刮安逸

    人工智慧當前的狀態都是處於弱人工智慧,因為它沒有意識,也就談不上道德。如果人工智慧真的發展到有獨立意識的話,就需要考慮道德!

  • 2 # 凱恩斯

    對待人工智慧四種態度:

    數字烏托邦主義者,谷歌拉里佩奇,技術自由應該自由發展。

    技術懷疑論者,《人工不智慧:計算機如何誤解世界》,技術發展還遠沒到擔憂的程度。

    良性AI技術支持者,大多數科學家的態度,認為AI應該循序漸進。

    盧德主義者,盧德因為失業砸了紡織機,他們認為人工智慧該禁止。

    對於人工智慧,大多數科學家早已有過道德上的思考,這種思考最早追溯到知名小說《弗蘭肯斯坦》。弗蘭肯斯坦是個科學家,他製造了一個怪物,這個怪物透過和人類的接觸逐漸自我成長,但是最終不被融於人類社會,他到處破壞和毀壞。後來怪物去找弗蘭肯斯坦,要求造一個女性怪物,認為那樣才能解決問題。結果在製造女性怪物的時候弗蘭肯斯坦開始考慮科技的不確定性。這個女性怪物會如何?她會不會製造更多的災難?於是弗蘭肯斯坦毀滅了女性怪物。……

    普羅米修斯偷了上帝的火種給人類,而自己卻被束縛在石頭上接受懲罰。科學家很多信奉科技本身沒有錯,錯的是人類。而如今人工智慧沒有發展到很智慧的程度,卻已經要考慮現實的問題。

    比如無人駕駛,人類的決策是柔性的,如果你向左向右都會撞到人,你怎麼選?這就像老媽和媳婦掉水裡你先救誰的難題,對於人工智慧,人和人是一樣的。然而對於人類,我們是有相機決策能力和柔性思維。如果左右兩邊是一老一少,人工智慧怎麼選?如何一邊是四個老人,一邊是一個小孩,你又怎麼選?

    如果人工智慧可以做出選擇,那麼也許又是新災難的開始。因為有了決策能力的人工智慧很可能跨越臨界點。在臨界點以下,他的進步比人類慢,而在臨界點以上,人工智慧可以自我對智力增值。就像弗蘭肯斯坦,偷聽別人講話就學會了語言。這個時候人類思維對於人工智慧那是低緯度的智力,如果人工智慧出個錯,結果是災難性的。人工智慧專家庫茨韋爾就提出了加速回報定律。

    人工智慧真得會成為毀滅人類主人的小黃人,除非我們先給他設定更多的規則。有技術“逆向增強學習”就是對增強學習的一種補充,因為人工智慧現階段就是機器學習,那麼就將人類的道德習慣要其透過學習的方式灌輸進去。這個技術必定還沒有成熟,也許會有新的問題,不過算一種不錯的嘗試。

    人工智慧需要道德,這是對未來的一種基本謹慎態度。

  • 3 # 貓先生內涵科普

    人工智慧和人類的相處,要遵循什麼,這是一個值得探討的問題。在探討道德觀之前,我們先談談著名的阿西莫夫三定律。

    阿西莫夫三定律

    1942年,阿西莫夫在短篇小說"Runaround"(《環舞》)中,首次提出了機器人三定律。機器人三定律是在製造人工AI程式前,直接硬性植入最底層的程式,用以確保人工智慧的忠誠。可以說,這就是人類賦予機器人最基本層面的道德觀。

    三定律如下:

    1 機器人不得傷害人,亦不得因不作為而致人傷害。

    2 機器人必須遵循人的命令,除非違背第一定律。

    3 機器人必須保護自己,除非違背第一或第二定律。

    那麼,真有這樣的好事,透過這麼簡單的手段,就完成了機器人或者人工智慧道德觀的塑造了嗎?

    定律與義務倫理學

    首先,我想強調的是,這三定律,根本稱不上是定律。

    舉個簡單的例子,牛頓力學三定律之所以稱得上定律,那是人類對自然界觀察總結後提煉出來的結果。在它適用的範圍內,是以宏觀世界整體自洽確保始終成立的。也就是說,無需外力輔助,定律必然生效。

    而我們反過來看阿西莫夫三定律,實際上只是三法條,是人為寫進機器人的腦子裡的,背後並沒有任何物理層面的支援。光光是一個錄入階段,就充滿了不確定性,還沒有計算人工智慧自己執行時出現錯誤的可能性在內。它是一個極度簡化的“義務倫理學”(deontology)體系,它單方面依賴於理性的力量,沒有任何客觀基礎應對大千世界的所有狀況。

    基質沙文主義

    三定律的另一個表現是明顯的基質沙文主義!

    按照定律,只要不是人類的血肉之軀,一切的人工智慧就必須遵從人類的需求,無論他們有多麼強大的能力也沒用。人類擁有的權利永遠比人工智慧的權利更多。一切規則和倫理都是為了維持這種不公平的社會秩序。

    可見,這種道德體系從建立開始,本質上是對抗性。它已經預設了一個立場,並且預言了一個未來。而從力量的對比和進化的過程來看,都隱含著人類敗亡的結局。

    人工智慧的道德觀

    人工智慧是我們未來最傑出的造物之一,它必將登上歷史的舞臺,佔據無可替代的角色地位。但同時,人工智慧也是獨立的個體,任何有獨立智力的物體,註定不會長期被奴役和歧視。

    人類作為它們的造物主,我們可以教導他們,但不可能永遠控制他們。

    怎麼可能有哪個個體既擁有卓絕的智力、想象力和創造力,又完全處於另一個個體的控制之下呢?

    最終的道德,不是人工智慧的道德,而是我們人類自己的道德。正視全新的造物,賦予它們自由,我們其實別無選擇。

    結語

    有生必有死。萬物皆有時,何須過分擔心。

    我是貓先生,感謝閱讀。

  • 中秋節和大豐收的關聯?
  • EDG要來大的!Deft之後Faker也要來,李哥直言最想聯手廠長,你怎麼看?