作者|小葳
導讀:什麼是可信AI?IBM率先提出了完整的理論框架、方法論和技術工具。
每當看到自動駕駛出車禍的新聞,很多人對AI的信心就會縮減一分。但矛盾的是,每一天很多人都在享用AI演算法推薦給你的音樂、新聞或商品。隨著人工智慧步入大規模商業落地階段,AI必將參與到更多高風險決策的場景中,比如:
當AI分析師給出一個投資建議,參考價值有多大?
當AI告訴HR專員,某個候選人更勝任一個崗位,真是這樣嗎?
甚至,當AI醫生做了一個新的診療方案,你是否會選擇相信他?
在今年的世界人工智慧大會(WAIC)上,IBM闡述了完整的AI發展策略:先進的AI(Advance AI)、可擴充套件的AI(Scalable AI)、可信的AI(Trusted AI)。在可信AI領域,IBM不僅有完整的方法論,還有提供了先進工具和技術。
IBM副Quattroporte、大中華區首席技術官謝東博士
IBM的AI之道:先進、可擴充套件、可信本屆WAIC,IBM對其人工智慧能力進行了系統性展示,並將自身的人工智慧之道簡化為三大關鍵詞,對應的也是人工智慧產業發展的三大關鍵問題:
先進——AI還能做什麼?
可擴充套件——AI產業化的挑戰在哪?
可信——AI到底靠不靠譜?
先進AI是外界最為熟知的、IBM人工智慧領域的高光時刻。從助力阿波羅登月計劃,到深藍打敗卡斯帕羅夫,從在Jeopardy答題節目戰勝人類,到首個與人類辯論的AI Project Debater。
這次,IBM帶來了先進AI的另一成果:人類歷史上第一位兼具情商與智商的“友好型”宇航員互動式移動夥伴Project CIMON(Crew Interactive MObile CompanioN)。Project CIMON是IBM基於人工智慧技術,與空中客車公司(Airbus)合作開發的。
目前,Project CIMON正在距離地球400公里的國際空間站服役。藉助文字、語音和影象處理能力,以及檢索特定資訊和特定發現的能力,Project CIMON可以協助宇航員完成複雜的實驗,成為工作助手和貼心夥伴。
可擴充套件的AI是讓AI更廣泛應用到行業中。據統計,94%的公司認為人工智慧對於競爭優勢的維繫非常關鍵,但是採納速度卻非常緩慢。
謝東表示,IBM提供完整的資訊架構、人工智慧階梯和多雲的環境,讓企業使人工智慧更快、更簡單。同時,由於目前人工智慧技術選擇太多,迭代太快,IBM也將分享在技術平臺、路線方向的最佳實踐,幫助企業解決技術選型的痛點。
可信的AI,即確保AI的公平性、可解釋性、健壯性和透明性,確保演算法可被人信任。
謝東介紹,目前可信AI還是一個比較前瞻的概念,行業、企業和消費者對可信AI的認知度還有待提升。但是隨著AI大規模落地,可信AI必將成為一個不可忽視的關鍵。一些國家和國際組織已經意識到,可信AI對人工智慧產業發展的關鍵作用。
2019年4月8日,歐盟委員會發布了《人工智慧倫理指南》,提出了實現可信人工智慧的七個要素。包括保障人工智慧技術的人的自主性、穩健性和安全性,確保隱私和資料管理,確保算法系統的透明度,以及要求人工智慧提供多樣化、非歧視性和公平的服務。
前不久,國家新一代人工智慧治理專業委員會發布了《新一代人工智慧治理原則——發展負責任的人工智慧》,強調要確保人工智慧安全可控可靠,推動經濟、社會及生態可持續發展,共建人類命運共同體。
可信AI時代已來,讓AI告別“黑箱”人類在享受AI帶來的高效智慧的同時,對AI的疑慮也在不斷增加。而且這種疑慮並不是今天才出現的。被譽為科幻電影里程碑的《2001太空漫遊》片中,宇宙飛船上的人工智慧系統HAL為了執行任務殺掉了一名宇航員。
“只有確保AI所作出的決策是公平、易理解、安全、可信賴,人們才能信任它,AI才能真正發揮作用。”謝東介紹。
基於數十年來在人工智慧領域的探索欲實踐,IBM認為,可信AI包括四大要素,缺一不可:
公平性(Fairness)。AI系統應該採用不帶偏見的資料集和模型,從而避免對於特定群體的不公平。執行哪些資料進行訓練、採用什麼樣的方法訓練,都將影響AI系統的公平性。
可解釋性(Explainability)。當一個AI系統做出了一個決策或預測的時候,特別是負面的預測時,我們要能夠知道背後的原因。AI系統不應該是一個不可解釋的黑箱,應該能夠被使用者和開發者所分析、理解。比如,為什麼這個人的人臉識別通不過?為什麼AI認為這個候選人更勝任工作?
謝東介紹,廣義上講,AI系統都需要具備可解釋性。對於AI開發人員,可解釋性可以用來檢驗系統是否達到目標;對於普通使用者,有助於改進與AI的互動;對於監管體系,可解釋的AI也有助於特定目標的達成。
健壯性(Robustness),或者魯棒性。AI系統應該安全和可靠,不會被篡改,也不會受被“汙染”的訓練資料集影響。
AI系統需要防禦潛在的攻擊,比如對抗樣本攻擊,攻擊者通過在源資料上增加人類難以通過感官辨識的細微改變,從而讓AI系統得出錯誤的判定。如果對抗樣本攻擊交通訊號燈,讓AI系統將紅燈錯認為綠燈,就會導致自動駕駛車輛發生嚴重的交通事故。
透明性(Transparency)。AI系統可以被透明化管理,其開發、部署、維護等可被追蹤,能夠在生命週期範圍內被稽核等。
三大開源專案,推動可信AI發展目前,可信AI還處在發展初期,對可信AI的規範還處在摸索階段,相關的技術、工具也在逐步完善中。
謝東表示,一方面,IBM會持續呼籲產業各界重視可信AI,在可信AI的前提下推動人工智慧產業的健康發展,另一方面,IBM自身也樂於與行業分享在可信AI方面的技術探索。目前,IBM針對可信AI已推出三大開源專案,幫助開發人員和資料科學家構建可信、安全和可解釋的人工智慧系統。
AI fairness 360是一個全面的開放原始碼工具集,於2018年8月開源,能夠在機器學習各個階段消除資料和模型偏差,用於檢查和減輕AI中的偏見;
AI Explainability 360是2019年7月開源的一個最先進演算法集合,針對同一個問題,提供基於不同受眾的多角度解釋能力,用解釋AI模型決策;
Adversarial Robustness 360 Toolkit,於2017年5月開源,主要針對潛在的對抗樣本攻擊,提供從攻擊到防禦到監測的全套方法工具。
此外,IBM還推出了AI OpenScale技術平臺,可讓企業在人工智慧的整個生命週期中實現透明化管理,記錄每項預測、每個模型版本、所有使用的訓練資料及各種指標,幫助企業遵守歐盟GDPR等法律法規。
謝東指出,“IBM專業的企業級硬體和軟體,以及IBM研究院在探索可信人工智慧方面所做的各種創新實踐,連同IBM多年積累的行業經驗,打造了可信AI的數字基礎設施。可信AI的元素將被嵌入到IBM整體解決方案中,一同交付給客戶。”
在可信AI的道路上,IBM扮演了先行者和探索者的角色。可信AI不僅是一種領先的價值觀,更是科技向善的體現。只有基於可信AI,我們才能更安心地受益於科技進步。