首頁>Club>
如何把道德程式碼寫入人工智慧?從這個問題展開一個問題:從我們現在的弱人工智慧,到未來的強人工智慧,我們的方向應該是道德還是技術?
11
回覆列表
  • 1 # 我愛發明—老王

    相信很多人都聽過哲學家菲利帕·福特(Philippa Foot)於1967年提出的“電車難題”。50年來,電車難題有了很多版本。在無人駕駛已經出現的今天,當車禍無法避免時,無人駕駛汽車究竟應如何取捨,是優先保護馬路上的兒童、還是寧願撞人也要保護車內人員呢?

    人類即將進入機器人時代,《科學》雜誌有研究表明,隨著機器習得類人的語言能力,它們也容易習得語言應用中根深蒂固的偏見,這種偏見如若被放大,後果不堪設想。還有預言稱:人工智慧系統在未來很可能擺脫人類監管,自主作出決定,甚至走上反抗人類的道路。

    5月20日,北大博雅講壇第129期活動“機器人能明辨是非嗎——人工智慧倫理道德的未來走向”正是要探討這些問題。

    溫德爾·瓦拉赫

    這次活動由北京大學出版社、北大博雅講壇、博古睿研究院中國中心、噹噹聯合主辦。活動主講嘉賓是《道德機器:如何讓機器人明辨是非》的作者之一溫德爾·瓦拉赫(Wendell Wallach)。中國社會科學院研究員劉鋼、西安交通大學計算哲學實驗室中方主任王小紅也出席了活動。

    瓦拉赫是享有國際聲譽的人工智慧和神經科學倫理學領域的專家。他主持耶魯大學生物倫理學跨學科研究中心技術和倫理工作小組長達十餘年,獲得過全球技術網路協會(World Technology Network)頒發的2014年的倫理學獎,世界經濟論壇任命他為2016-2018全球未來技術價值和政策委員會的聯合主席。

    瓦拉赫並不是站在未來學家的角度去猜想或者預測人工智慧的未來,而是基於當前技術的現狀去說明倫理決策能力的必要性。目前這些普遍被應用的自動金融系統、機器人照料者,以及機器人吸塵器已經能夠影響人類的生活,併產生複雜而難以預料的倫理後果了。

    他認為人工智慧的道德發展將經歷操作性道德、功能性道德,和充分的道德主體性三個階段。其中操作性道德比較低端,是指道德已完全掌握在設計者和使用者手中;第二個階段是功能性道德,稍微高階一些,因為這個階段機器自身已經有能力響應道德挑戰;第三個階段就是計算機可以自己做道德決策的階段,當然第三個階段還是開放性的,哲學家、工程師們還需要探討單單靠一臺機器能否成為道德主體的問題。操作性道德和真正的道德主體之間還有著很多的空間。

    他在《道德機器:如何讓機器人明辨是非》一書中認為,雖然難有萬全之策,但有可能建構一種人工道德智慧體(AMAs),讓人工智慧具有基本的道德敏感性,逐步使人工智慧和機器具備道德決策能力,並隨著智慧技術和人機互動的進步而進化、發展。這是一種自上而下式與自下而上式的混合道路,這樣才能夠使美德和特殊的情境相結合。

    瓦拉赫對很多問題還保持開放態度,比如最近的關於道德心理學的實證研究,強調一個人與生俱來的身體或心理能力,而不是理性、情感社交、語義理解,以及意識,對人的道德決策都很重要,那麼這些因素對於AMAs是不是本質性的因素呢?如果是的話,可否在計算機中實現?

    博古睿研究院中國中心主任宋冰

    博古睿研究院中國中心主任宋冰在致辭中說,以前計算機倫理強調的更多是被科學家和工程師的外部約束,行為規範,以及科技帶來的外部或者溢位效應,比如隱私、財產權、防範病毒、提防駭客等。機器人倫理則是新的領域。溫德爾·瓦拉赫這本書比較了兩種植入倫理的方法,一個是由上至下,先把倫理理論規範程式設計,並將它作為基準來衡量各種選擇道德的可接受性。另外一種方法是從上往下,給智慧機器人創造體驗和學習環境,讓他們逐漸學會什麼是可接受的道德規範和行為準則。她進一步表示,科學家要有人文關懷,反之亦然,哲學和社科專家也要有科學的精神。

    《道德機器:如何讓機器人明辨是非》的主要譯者王小紅髮言說這本書是一本具有開創性的人工智慧的百科全書。她指出,將人類已經成熟的倫理系統自上而下地灌輸進機器人會出現不同倫理的矛盾和衝突,例如經典的阿西莫夫的機器人三大定律,被嵌入到一臺計算機之後,就會產生許多倫理困境。而如果使用邊沁的功利主義的方法,這種最可演算法化的方法如何使最大多數人獲得最大的幸福感呢?這也有問題,因為它的計算量往往是無限的。

    阿西莫夫曾提出機器人三定律:一是機器人不得傷害人類,或因不作為使人類受到傷害;二是除非違背第一定律,機器人必須服從人類的命令;三是除非違背第一及第二定律,機器人必須保護自己。

    在問答環節,有觀眾提問,現在出現了哪些不道德的人工智慧,瓦拉赫回答說,“沒有不道德的人工智慧,只有不道德的意圖。人工智慧可能執行了有偏見的結果,但是這是因為輸入的資料本身已經帶有偏見了。”這種偏見主要是指種族主義、性別偏見等。還有同學提問,如何看待“類人腦”的開發,瓦拉赫認為人類目前還不夠了解人的大腦究竟是如何工作的,所以他不認為人工神經網路能夠完整的模仿人腦

  • 2 # 風隱之神

    人類的科技發展都是為了人類服務的,智慧科技的發展自然也不例外。智慧科技如果脫離了人類的道德觀念,人類發展它還有意義嗎?

  • 3 # IT人劉俊明

    在人工智慧的發展過程中一直存在著這樣幾個思路:像人一樣思考、像人一樣行動、合理的思考、合理的行動,在人工智慧的不同發展階段會有一定的側重,比如在早期的人工智慧研究中,研發人員更注重智慧體(Agent)像人一樣思考或行動,但是目前人工智慧研究領域更傾向於合理的思考和合理的行動,因為這更容易量化和實現。看一個智慧體的描述:

    人工智慧雖然經過了60多年的發展,但是目前人工智慧依然處在研究的初期階段,人工智慧領域涉及到的學科非常多,包括哲學、數學、計算機學、經濟學、神經學、語言學等。在大資料時代,人工智慧迎來了一個全新的發展階段,機器學習(深度學習)得到了快速的發展,但是目前絕大多數智慧體對場景會有非常嚴格的要求。從這個角度來看,現在探討智慧體是否應該制定道德標準似乎還有點太早了。

    關於智慧體道德標準的制定也許是一個非常複雜的過程,這個過程需要哲學家、數學家、計算機學家、社會學家的通力合作才能制定一個理想的模型(動態),而且道德標準本身也有一定的邊界,這個邊界如何確定也許是個非常麻煩的事情。

    從人工智慧本身的發展來說,技術一定是先行者,當技術達到一定程度的時候,往往就會涉及到更多的問題,包括社會問題、倫理問題、道德問題等等,而人工智慧自身的問題,說到底還是個技術問題。即使未來研發人員不得不面對所謂道德問題的時候,最終的解決方案依然需要透過技術手段來實現。

    道德標準是動態的(具備時代因素),而且道德標準和人類自身的情感有非常直接的關係,這其中包括了太多的文化因素,而人工智慧產品目前還遠沒有達到這個階段。

  • 4 # 刮骨文

    我也對作者做個提問:

    1.如果你認為人類需要更重道德而限制技術的發展,那麼你確定未來30到50年後,我們不需要再發展人工智慧的某些技術麼?重頭再來不會造成資源和人才的浪費麼?

    2.如果你認為需要更重技術而非道德,那麼你認為在一條擁擠的路上,一輛失靈的車是不是該讓乘客遇難而非路人?但乘客一定會做相反的期望。

    我相信,絕大部分人是給不出合理明確的答案的。而縱觀歷史,新技術的出現,往往會產生不同的倫理道德問題,但技術的進步不能因道德而受阻。所以這個命題應該探討的是“如何解決AI時代下的倫理道德問題”。

    似乎偏題了,但是這就是答主的思考。AI技術與倫理道德,其實兩者的關係非常複雜。

    其實在這個領域,有專門的科學研究,而且日本、南韓、英國、歐洲和聯合國教科文組織都相繼推出了多項倫理規範和標準。

    如何解決人工智慧的道德倫理問題,用學者溫德爾·瓦拉赫的話說:“它實際上是一個改變歷史的轉折點,而不僅僅是對過去問題的簡單延續。需要考慮的是,哪些方面會影響人類進行決策,以及它們是如何影響人類決策的。”

    溫德爾·瓦拉赫著作有一本《道德機器》,書中提出要設計出符合人類道德規範的機器人。但完備的機器道德智慧體還很遙遠,不過目前有必要而且有可能,開始建構一種功能性道德,從而使人工道德智慧體可以具有基本的道德敏感性。

    不過這條人工智慧的倫理道德問題路還很長。

    延伸一下,美國MIT做了一個叫做“道德機器(Moral Machine)”的網站,收集使用者對於自動駕駛車道德困境的選擇。自動駕駛車突然失靈時,它應該如何選擇。感興趣的朋友可以看看這個網站。

  • 中秋節和大豐收的關聯?
  • 如何用潲水養豬?