不久前,DeepMind公佈了AlphaGo的最新升級版本AlphaGo Zero,並在《自然》雜誌上對其使用的相應技術做出詳解。DeepMind稱:“AlphaGo Zero與AlphaGo最大的不同是做到了真正的自我學習,經過3天的訓練,就以100:0的戰績完勝前代AlphaGo。”曾與AlphaGo有過交戰的柯潔也在第一時間做出迴應,柯潔表示,“對於AlphaGo的自我進步來講……人類太多餘了”。
近些年來,人工智慧持續升溫,成為全球科技研發的新熱點。Google、百度、阿里巴巴、騰訊等不少國內外大型網際網路企業,都在加大資金與人才投入,試圖搶先佔領人工智慧技術的高地。在國家層面,很多國家也紛紛出臺政策支援人工智慧的發展。如2014年歐盟釋出了《歐盟機器人研發計劃》,2016年美國發布了《國家人工智慧發展與研究戰略計劃》,2017年法國發布了《人工智慧戰略》。中國政府也於今年7月釋出了《新一代人工智慧發展規劃》。
人工智慧可能引發大量技術性失業
人工智慧到底會讓人類的生活變得更美好,還是更糟糕?在人工智慧突飛猛進的同時,也伴隨著質疑甚至抵制。
近日,英國著名物理學家史蒂芬·霍金表示,人工智慧(AI)的崛起可能是“人類文明史上最糟事件”,除非人類社會能夠找到控制AI發展的方法,否則後果不堪設想。確實,人工智慧如果運用不當,的確可能產生很多問題。
首先,人工智慧可能引發大量技術性失業。創新工場董事長李開復在2016WISE大會上表示,未來十年,世界上50%的工作都會被人工智慧所取代。準確的資料可能無法預測,但人工智慧必然會使很多職業消失,可能導致就業停滯,從而給社會帶來不穩定性因素。
第二,人工智慧可能導致新的不平等。開發者可能存在種族偏見、性別歧視、特定疾病歧視,基於此而開發出來的人工智慧就可能存在演算法歧視,從而造成新的不平等。而且,由於人工智慧導致的就業停滯和生產力提升,可能導致財富更加向少數人集中,從而也可能引發新的資本不平等。
第三,人工智慧可能導致責任空白。對於人工智慧產生的損害,如何承擔分配責任還遠未達成共識,開發者、生產者是否應當承擔瑕疵擔保責任,能否確立人工智慧的法律人格地位還不得而知。當開發者、生產者由於破產等因素無法、無力擔責時,受損者可能無法得到賠償、補償。
第四,人工智慧可能失控,成為後人類的敵人。開發者與使用者可能基於不正當目的開發、使用人工智慧,從而可能給人類帶來毀滅性的災難,例如一些極端恐怖組織可能濫開發、濫利用人工智慧。而且,目前人工智慧已經具有深度學習能力,會不斷演化進步。霍金警告說,“由於受到緩慢的生物演化的限制,人類不能與AI競爭,最終將會被代替”。
對人工智慧擔憂並非杞人憂天
由此可見,對人工智慧的出現存在隱憂,是有一定道理的。很多新生事物剛出現時,往往不被廣泛接受甚至受到極力抵制。就如同百年前的“車馬大戰”,汽車剛產生時就受到了馬車行業的大力抵制,因為汽車嚴重影響到了馬車伕、馬車生產商、馬廄管理員、馬糞清理工等許多人的生計。但是,進步的科技終將無法阻擋,汽車最終取代了馬車。
人工智慧必將給未來人類社會帶來翻天覆地的變化。但對人工智慧的諸多擔憂並非杞人憂天,如果沒有法律的有效規範,人工智慧不僅不可能成為人類的福音,反而還可能成為人類的喪鐘。然而,也不能因噎廢食,因為人工智慧可能存在隱患,就全面禁止或不當限制其發展。相反,應當積極運用法律,對人工智慧進行適度有效的規制。
規制人工智慧就是要規制人的智慧
人是人工智慧的總開關,所以規制人工智慧首先需要規制人的智慧,需要對人工智慧的開發者進行規制。開發者在設計人工智慧時,應當以人為本,以有利於社會福利最大化而非利潤最大化為理念,遵守基本的社會倫理道德,消除各種歧視觀念,遵守平等原則。禁止基於不正當目的開發人工智慧。開發者應當審慎設計相關程式碼程式,如果某項人工智慧所促進的社會公共利益,與其所造成的損害明顯不成比例,違反比例原則,或者可能失控,就應當及時放棄。
其次,應當對人工智慧的銷售者與使用者進行規制。銷售者應當建立並執行人工智慧產品進貨檢查驗收制度,驗明人工智慧產品合格證明和其他標誌,禁止銷售不合格的人工智慧產品,不得偽造或者冒用認證標誌等質量標誌。使用者應當合理利用人工智慧,不得損害國家、社會及他人合法權益,法律應當合理設定相應的使用條件與標準。
第三,明確人工智慧致損的責任分擔機制。如果開發者在設計時存在故意或重大過失,導致損害發生,則應由開發者承擔責任。如果由於開發者當時的認知侷限,沒有預見到未來發生的狀況,導致損害發生,開發者也應當承擔責任,即瑕疵擔保責任,因為開發者有所獲益,就應當承擔相應的風險,而且如此更能促使開發者審慎地設計相應的程式碼程式。在索賠方式上,使用者、受害者可以直接找開發者索賠,也可以找銷售者索賠。如果銷售者與使用者存在過錯,則應承擔相應的責任。此外,應當逐步建立完善的人工智慧產品保險制度。
技術中立不代表可以脫離法治
科技需要在法律的軌道上發展,技術中立並不表明技術可以脫離法治。儘管存在隱憂,但只要法律規制適當,具有諸多優勢的人工智慧必定會給未來人類社會帶來無窮大的正能量。
因此,應當對人工智慧進行適度有效的規制,及時立、改、廢相關法律制度。中國國務院在《新一代人工智慧發展規劃》中提出,“建立人工智慧法律法規、倫理規範和政策體系,形成人工智慧安全評估和管控能力”。在規制人工智慧時,政府應當處理好科技創新與法律規制的關係,按照“鼓勵創新、包容審慎”的原則,確立事前備案、事後懲處的機制,使法律既能有效保障公民權利,又能支援促進科技創新。
不久前,DeepMind公佈了AlphaGo的最新升級版本AlphaGo Zero,並在《自然》雜誌上對其使用的相應技術做出詳解。DeepMind稱:“AlphaGo Zero與AlphaGo最大的不同是做到了真正的自我學習,經過3天的訓練,就以100:0的戰績完勝前代AlphaGo。”曾與AlphaGo有過交戰的柯潔也在第一時間做出迴應,柯潔表示,“對於AlphaGo的自我進步來講……人類太多餘了”。
近些年來,人工智慧持續升溫,成為全球科技研發的新熱點。Google、百度、阿里巴巴、騰訊等不少國內外大型網際網路企業,都在加大資金與人才投入,試圖搶先佔領人工智慧技術的高地。在國家層面,很多國家也紛紛出臺政策支援人工智慧的發展。如2014年歐盟釋出了《歐盟機器人研發計劃》,2016年美國發布了《國家人工智慧發展與研究戰略計劃》,2017年法國發布了《人工智慧戰略》。中國政府也於今年7月釋出了《新一代人工智慧發展規劃》。
人工智慧可能引發大量技術性失業
人工智慧到底會讓人類的生活變得更美好,還是更糟糕?在人工智慧突飛猛進的同時,也伴隨著質疑甚至抵制。
近日,英國著名物理學家史蒂芬·霍金表示,人工智慧(AI)的崛起可能是“人類文明史上最糟事件”,除非人類社會能夠找到控制AI發展的方法,否則後果不堪設想。確實,人工智慧如果運用不當,的確可能產生很多問題。
首先,人工智慧可能引發大量技術性失業。創新工場董事長李開復在2016WISE大會上表示,未來十年,世界上50%的工作都會被人工智慧所取代。準確的資料可能無法預測,但人工智慧必然會使很多職業消失,可能導致就業停滯,從而給社會帶來不穩定性因素。
第二,人工智慧可能導致新的不平等。開發者可能存在種族偏見、性別歧視、特定疾病歧視,基於此而開發出來的人工智慧就可能存在演算法歧視,從而造成新的不平等。而且,由於人工智慧導致的就業停滯和生產力提升,可能導致財富更加向少數人集中,從而也可能引發新的資本不平等。
第三,人工智慧可能導致責任空白。對於人工智慧產生的損害,如何承擔分配責任還遠未達成共識,開發者、生產者是否應當承擔瑕疵擔保責任,能否確立人工智慧的法律人格地位還不得而知。當開發者、生產者由於破產等因素無法、無力擔責時,受損者可能無法得到賠償、補償。
第四,人工智慧可能失控,成為後人類的敵人。開發者與使用者可能基於不正當目的開發、使用人工智慧,從而可能給人類帶來毀滅性的災難,例如一些極端恐怖組織可能濫開發、濫利用人工智慧。而且,目前人工智慧已經具有深度學習能力,會不斷演化進步。霍金警告說,“由於受到緩慢的生物演化的限制,人類不能與AI競爭,最終將會被代替”。
對人工智慧擔憂並非杞人憂天
由此可見,對人工智慧的出現存在隱憂,是有一定道理的。很多新生事物剛出現時,往往不被廣泛接受甚至受到極力抵制。就如同百年前的“車馬大戰”,汽車剛產生時就受到了馬車行業的大力抵制,因為汽車嚴重影響到了馬車伕、馬車生產商、馬廄管理員、馬糞清理工等許多人的生計。但是,進步的科技終將無法阻擋,汽車最終取代了馬車。
人工智慧必將給未來人類社會帶來翻天覆地的變化。但對人工智慧的諸多擔憂並非杞人憂天,如果沒有法律的有效規範,人工智慧不僅不可能成為人類的福音,反而還可能成為人類的喪鐘。然而,也不能因噎廢食,因為人工智慧可能存在隱患,就全面禁止或不當限制其發展。相反,應當積極運用法律,對人工智慧進行適度有效的規制。
規制人工智慧就是要規制人的智慧
人是人工智慧的總開關,所以規制人工智慧首先需要規制人的智慧,需要對人工智慧的開發者進行規制。開發者在設計人工智慧時,應當以人為本,以有利於社會福利最大化而非利潤最大化為理念,遵守基本的社會倫理道德,消除各種歧視觀念,遵守平等原則。禁止基於不正當目的開發人工智慧。開發者應當審慎設計相關程式碼程式,如果某項人工智慧所促進的社會公共利益,與其所造成的損害明顯不成比例,違反比例原則,或者可能失控,就應當及時放棄。
其次,應當對人工智慧的銷售者與使用者進行規制。銷售者應當建立並執行人工智慧產品進貨檢查驗收制度,驗明人工智慧產品合格證明和其他標誌,禁止銷售不合格的人工智慧產品,不得偽造或者冒用認證標誌等質量標誌。使用者應當合理利用人工智慧,不得損害國家、社會及他人合法權益,法律應當合理設定相應的使用條件與標準。
第三,明確人工智慧致損的責任分擔機制。如果開發者在設計時存在故意或重大過失,導致損害發生,則應由開發者承擔責任。如果由於開發者當時的認知侷限,沒有預見到未來發生的狀況,導致損害發生,開發者也應當承擔責任,即瑕疵擔保責任,因為開發者有所獲益,就應當承擔相應的風險,而且如此更能促使開發者審慎地設計相應的程式碼程式。在索賠方式上,使用者、受害者可以直接找開發者索賠,也可以找銷售者索賠。如果銷售者與使用者存在過錯,則應承擔相應的責任。此外,應當逐步建立完善的人工智慧產品保險制度。
技術中立不代表可以脫離法治
科技需要在法律的軌道上發展,技術中立並不表明技術可以脫離法治。儘管存在隱憂,但只要法律規制適當,具有諸多優勢的人工智慧必定會給未來人類社會帶來無窮大的正能量。
因此,應當對人工智慧進行適度有效的規制,及時立、改、廢相關法律制度。中國國務院在《新一代人工智慧發展規劃》中提出,“建立人工智慧法律法規、倫理規範和政策體系,形成人工智慧安全評估和管控能力”。在規制人工智慧時,政府應當處理好科技創新與法律規制的關係,按照“鼓勵創新、包容審慎”的原則,確立事前備案、事後懲處的機制,使法律既能有效保障公民權利,又能支援促進科技創新。