首頁>Club>
8
回覆列表
  • 1 # 使用者4318478413080958

    人工智慧的發展,需要遵守的四個AI倫理原則:


    第一個原則是安全可控是最高原則;


    第二個是促進人類平等地獲得技術和能力是創新願景;


    第三個則是人工智慧的存在價值不是超越人、代替人,而是教人學習和成長;


    第四個是人工智慧的終極理想應該是帶給我們更多的自由和可能。


    世界上不只有大公司需要AI的技術和能力,幾千萬的組織都需要。防止技術的不平等,導致人們在生活、工作上的不平等,這是我們需要思考的。


    AI技術的使命,就是要透過學習人、從而去忠誠服務於人,讓人類生活得更美好,但AI的技術發展也需要價值觀的指引,在AI倫理價值的新“紅綠燈”指引下,才能迎來“一個更美好的AI時代”。

  • 2 # 馨兒5666

    在人工智慧迅速發展,深刻改變人類社會生活、改變世界的背景下,我們在不斷尋求人工智慧效益最大化時,如何應對其倫理和監管問題,成為新的焦點。


    6月17日,國家新一代人工智慧治理專業委員會發布《新一代人工智慧治理原則——發展負責任的人工智慧》(以下簡稱《治理原則》),提出了人工智慧治理的框架和行動指南。


    清華大學蘇世民書院院長,國家新一代人工智慧治理專業委員會主任薛瀾參與了《治理原則》制定和出臺的全過程,他在接受科技日報記者採訪時表示,《治理原則》旨在更好地協調人工智慧發展與治理的關係,確保人工智慧安全可控可靠,推動經濟、社會及生態可持續發展,共建人類命運共同體。


    《治理原則》突出了發展負責任的人工智慧這一主題。薛瀾說,這裡的“負責任”既有人工智慧研發者,也有使用者、管理者等其他相關方,各方應具有高度的社會責任感和自律意識,嚴格遵守法律法規、倫理道德和標準規範,防範利用人工智慧進行非法活動。


    針對人工智慧技術更迭快、老政策解決不了新問題的現狀,《治理原則》推出了“敏捷治理”。“這是一個全新的思路”,中科院自動化所研究員、國家新一代人工智慧治理專業委員會委員曾毅向科技日報記者表示,《治理原則》在推動人工智慧創新發展、有序發展的同時,更應該具有前瞻性和預判性眼光,這樣才能及時發現和解決可能引發的未知風險。


    在《治理原則》中,尊重隱私被放在一個十分重要的位置。要求充分保障個人的知情權和選擇權的同時,在個人資訊的收集、儲存、處理、使用等各環節應設定邊界,建立規範。曾毅表示,此次在《治理原則》中首提“個人資料授權撤銷機制”。個人有權在同意個人資訊授權後,隨時撤銷授權,這在全世界也屬於領先。他認為,人工智慧應以保障社會安全、尊重人類權益為前提,避免誤用,禁止濫用、惡用。


    《治理原則》的出臺,為的是推動中國人工智慧行業的自律,凝聚全社會共識,促進人工智慧健康發展,所以“共治共管”的理念貫穿始終。早在《治理原則》起草前,科學技術部就在官方網站上釋出訊息,徵求社會各界的意見。


    “我們徵集到了百餘條十分有價值的意見,其中一些意見被採納,還有許多提意見的人員被請來與我們一起探討”,薛瀾向科技日報記者介紹說。


    一位中國中醫科學院的專家提出以醫學倫理為鑑確定人工智慧的監管思路,一位南開大學的哲學專家建議以傳統文化中的哲學思路倡導人工智慧向善的理念等等,這些意見和建議都被國家新一代人工智慧治理專業委員會的專家們廣泛聽取。


    薛瀾表示,人工智慧的治理已經不是某個地區或者國家的問題,而是需要全球協同,中國的專家們盼著與全世界的科學家一起建立共識、協同發展,為促進人機和諧,服務人類文明進步共同努力。

  • 3 # 使用者853534810611


    在這個技術驅動的時代,人工智慧正在為全球多個行業的更高效工作流程創造尖端技術。除了人工智慧工程師或相關員工,還有機器學習和深度學習演算法過於複雜,人們無法理解。人工智慧為利益相關者和合作夥伴生成了自我解釋的演算法,以理解將大量複雜的實時資料轉換為有意義的深入見解的整個過程。這被稱為可解釋人工智慧或 XAI,其中人類可以輕鬆理解這些解決方案的結果。它幫助 AI 設計師解釋 AI 機器如何為企業在市場中蓬勃發展產生特定型別的洞察力或結果。


    透過設計可解釋和包容的人工智慧,可以使用多個線上課程和平臺來更好地理解可解釋的人工智慧。可解釋人工智慧有四個主要原則來解釋機器學習模型的預測。可解釋 AI 的一系列模型可用於這些類別 - 使用者利益、社會接受度、監管和合規性、系統開發以及所有者利益。可解釋的人工智慧對於實施負責任的人工智慧以實現人工智慧模型的可解釋性和問責制至關重要。


    簡述:可解釋人工智慧的四項原則


    可解釋人工智慧的原則是一組四項指導方針,可幫助可解釋人工智慧有效地採用一些基本屬性。美國國家標準與技術研究所制定了這四項原則,以更好地瞭解人工智慧模型的工作原理。這些原則單獨適用,彼此獨立,可根據自己的權利進行評估。


    解釋:這是第一個主要原則,它要求人工智慧模型生成一個全面的解釋,並提供證據和推理,以便人類理解為企業生成高風險決策的過程。這些清晰解釋的標準由可解釋人工智慧的其他三個原則規定。


    有意義:這是可解釋人工智慧的第二個原則,它為組織的人類利益相關者和合作夥伴提供有意義且易於理解的解釋。解釋越有意義,對人工智慧模型的理解就越清晰。解釋不應該很複雜,並且需要針對群體或個人層面的利益相關者量身定製。


    解釋準確性:這是第三個原則,它命令準確解釋和反映人工智慧產生有意義輸出的複雜過程。它有助於將系統解釋的準確性強加給利益相關者。對於不同的群體或個人,可能有不同的解釋準確度指標。因此,必須以 100% 的準確度提供不止一種型別的解釋。


    知識限制:這是可解釋 AI 的第四個也是最後一個原則,它解釋了 AI 模型僅在特定條件下按照其設計和訓練資料集執行——對於黑

  • 4 # 使用者5706189292720

    第一,技術人員研發的產品必須是安全的可以控制的,不能危害他人危害社會。


    第二,產品研發展望未來的基本願望應該是,促進人類更加公平的獲得一些技術以及知識。


    第三,這項技術的研發目的應該是幫助人類成長和進步,不應該讓機器替代我們人類。


    第四,這項技術的最終結果應該是為人類提供更多的可能和機遇,促進人類發展。

  • 5 # 夜空中最亮的星407

    這四項原則是:合理利用;可解釋;保護隱私;安全且可靠。

    1.解釋原則(Explanation)

    解釋原則要求AI系統為所有輸出提供相應證據和理由,但不要求證據是正確的、資訊豐富的或可理解的,只要表明AI系統能夠提供解釋即可。解釋原則不強加任何的質量評價指標。

    2.有意義原則(Meaningful)

    有意義原則要求AI系統提供單個使用者可理解的解釋。也就說,只要一個使用者可以理解AI系統所提供的解釋即符合該原則,不要求解釋為所有使用者所理解。有意義原則允許基於不同使用者群體或個人的定製化和動態解釋。不同使用者群體對AI系統的解釋需求不同,如系統開發者與系統使用者需求不同,律師和陪審團需求不同。此外,每個人知識、經驗、心理等方面存在差異導致其對AI解釋的理解不同。

    3.解釋準確性原則(Explanation Accuracy)

    解釋準確性原則要求相應解釋正確反映AI系統產生輸出的過程,不要求AI系統做出的判斷準確。與有意義原則類似,解釋準確性原則也允許使用者差異性。有的使用者(如專家)需要解釋產生輸出的演算法細節,有的使用者可能僅需要關鍵問題的解釋。對演算法細節要求的差異性恰恰反映瞭解釋準確性原則與有意義原則的不同,詳細解釋可以加強準確性但卻犧牲了部分使用者的理解性。基於不同的使用者群體定製化解釋準確性測量指標。AI系統可以提供多型別、多層次的解釋,因此解釋準確性測量指標不是通用或絕對的。

    4.知識侷限性原則(Knowledge Limits)

    知識侷限性原則要求AI系統僅可以在其所設定的條件下執行,以保證系統輸出。知識侷限性原則要求AI系統能識別出未經設計或批准以及響應錯誤的情況。知識侷限性原則可以防止錯誤、危險、不公正的決策和輸出,從而增加AI系統的可信度。AI系統有兩類知識侷限性,一是所需判斷不屬於AI系統本身設定,如鳥分類AI系統無法分類蘋果,二是所需判斷超越內部置信度閾值,如鳥分類AI系統無法對模糊影象上的鳥類進行歸類。

  • 中秋節和大豐收的關聯?
  • 結婚,為什麼叫結“秦晉之好”?