人工智慧的快速發展,也推動了機器人技術的改變。我們看到車輛能夠在緊急情況下自動剎車,機器手臂改變了生產線,新型機器人可以為行動不便的人購買藥品。然而,我們對智慧自主機器技術日益增長的需求,也帶來了大量的道德挑戰。
1.道德困境
技術的發展,永遠是隻有我們想不到,沒有它們做不到。考慮到這個領域變化的速度之快,就更難預測它們未來的應用了。以計算機識別影象中物體的能力為例:2010年,這一技術成功率僅為一半,而且多年來一直停滯不前。然而,現在發表的論文顯示,最佳演算法的準確率達到86%。單憑這一進步,自主機器人就可以通過鏡頭理解它們所看到的東西。這也顯示了過去十年由於人工智慧的發展而取得的快速進步。
從技術角度來看,這種進步無疑是一個重大的里程碑。現在計算機程式可以快速準確地解析資料,但是也引發了道德困境。尤其是,在把“人”從這個過程中移除的時候,支撐隱私和安全決策的假設已經從根本上改變了。
2.無人機系統,太容易被改成武器
在開發能夠自主決策的機器(自主系統)時,倫理問題可能比物體識別之類的技術問題更令人擔憂。人工智慧自主技術發展得如此之快,就算沒有電腦科學背景的人也可以輕鬆使用一些AI的初級工具,並且對無人機進行修改。例如,可以很輕鬆地給無人機一個指令,讓它識別一個紅色的袋子,然後對其跟蹤。可見,現在無人機技術越來越先進,機動性更強,裝備武器變得更加容易。我們需要思考如何才能防止無人機武器化。
現在,無人機已經成為任何技術都可以輕易搭載的載體,並且漸漸變成一種威脅。有人用它們投擲炸彈、關閉機場,還被用來暗殺委內瑞拉領導人。目前正在開發的自主系統可以使發動這類攻擊變得更容易,更具破壞性。
3.有沒有監管?或者審查委員會?
一年前,一群人工智慧和自主機器人領域的研究人員承諾,將不再開發致命的自主武器。他們將致命自主武器定義為能夠“在無人干預的情況下選擇和攻擊目標”的平臺。“作為一名機器人研究人員,我對開發自主瞄準技術不感興趣”,然而,這個承諾忽略了危險的關鍵,它掩蓋了需要解決的重要倫理問題。雖然,撰寫論文、開發軟體和裝置的研究人員、公司和開發人員的初衷並不是為了製造武器,而只是單純地做技術研究。然而,這些公開的研究可能無意中被一些組織或個人利用,讓那些技術不是很發達的國家就可以輕易製造出無人自主武器。
4.如何應對風險?
監管是必須的!現在已經出臺了部分相關法律法規,禁止在機場或國家公園附近使用無人機。這些措施雖然在效果上是有用的,但不能從根本上阻止無人機的武器化,不能使用,不代表所有人都不去研究和製造。
此外,另一種方法是在組織內建立自主管理機構。例如目前在公司、大學和政府實驗室監督人類課題研究的機構審查委員會。但這類機構只能監管各自組織進行的研究,雖然在範圍上是有限的,但目前來說,大量的研究人員仍屬於這些委員會監管的範圍之內。而“研究審查委員會”也將是邁向自我監管的第一步,並可以對武器化的專案進行早期的識別和標註,能夠提前進行管理和重視。
5.帶著危險和希望而活
不管怎樣,下一代自主系統仍然是未來技術發展的趨勢,不可阻擋。其潛在的好處和利益也是整個人類社會不容忽視的。但如何平衡新技術帶來的風險,尤其是被惡意的人利用的話,也是越來越讓人頭大,不過這也是任何新技術都無法避免的雙刃劍。