首頁>Club>
4
回覆列表
  • 1 # cnBeta

    梵蒂岡官員呼籲對人工智慧(AI)的發展制定更嚴格的道德標準,科技巨頭IBM和微軟則都是首批簽署《人工智慧倫理羅馬倡議(Rome Call for AI Ethics)》的公司。據悉,該倡議列出了六大原則:透明、包容、責任、公正、可靠、安全和隱私。

    這些原則認為,技術應該保護人們特別是弱勢群體。另外,他們還敦促世界各地的政策制定者對對人權有更高影響風險的先進技術建立新的監管形式。

    “AI是非常有前途的技術,它可以幫助我們讓世界變得更加智慧、更加健康、更加繁榮,”IBM副QuattroporteJohn Kelly III在簽署協議後表示,“但前提是它一開始就受到人類利益和價值觀的影響。”

    梵蒂岡方面希望確保企業不會在未經個人同意的情況下利用AI收集資料然後將這些資料用於商業或政治利益。最近的一個例子顯示,數千個美國聯邦政府機構和私營公司正在使用面部識別公司Clearview AI擁有的軟體,該軟體會在人們不知情的情況下收集面部資料。

    該倡議還表示,人類必須建立一種解釋責任體制,另外基於AI的演算法應向個人提供有關這些演算法如何做出決策的資訊從而確保不存在偏見。

    梵蒂岡官員希望在未來幾個月裡能夠讓AI倫理倡議的簽署人數量繼續增加。此外,他們還希望透過跟來自全球各地的大學展開合作以此來推動更多的科學研究進入倫理AI指南領域。

  • 2 # 壹號科技貓

    隨著科技的不斷髮展,在我們的生活中也出現了很多新事物,而AI換臉就是其中的一個。透過AI換臉的技術,很多人都能夠發現在這個過程中大家變成了“明星”,其實近年來,人工智慧(AI)技術快速發展,並從概念炒作嚮應用落地、行業融合方向演進,在其具有的神奇之處中仍然存在許多問題。

    AI技術發展尚未成熟,在產業智慧化過程中,低估了生態的重要性,並且AI技術的發展沒有足夠的場景支撐,法律保護沒有完善,以至於出現了一些AI換臉詐騙案。

    專家認為,為更好推進人工智慧技術應用,需要進一步加大資料安全和隱私保護,業界應該形成資料使用的行規。特別是,企業要形成行規或行業標準,為立法打下基礎。國家網信辦有關負責人9月18日表示,將透過《網路生態治理規定》等法規指導督促網際網路企業開展安全評估,監管新技術、新應用。

  • 3 # yuanA倫

    人工智慧對人類很多好處。其中一些已經實現,比如搜尋引擎和機器翻譯;另一些則即將實現,比如自動駕駛汽車。隨著人工智慧能力的增長,其也將帶來越來越大的好處。但能力越大,被誤用的可能性就越大:

    我們看到人工智慧已經在侵入式監控、說服和控制人群方面得到了應用,尤其是散佈虛假資訊。這非常糟糕,而且我們可能需要使用新型的隱私技術和人工智慧系統來防止發生這種事。我們可能需要一些新的法律和更好的方法來捉拿做壞事的人。

    人工智慧可被用於創造全自動武器,它們可以在沒有人類監管和責任的情況下進行是否殺戮的決策。因為這樣的武器是可擴充套件的——所以它們是一種新型的大規模殺傷性武器,會損害國際安全。幸運的是,聯合國正在制定一項禁止這種武器的條約。我喜歡中國能夠支援這個條約的程序。

    人工智慧和機器人大規模替代人類工作如果沒有明智的規劃來為這樣的改變做好準備,可能會給經濟和社會帶來巨大的衝擊。透過預見性地發展新型的經濟結構和經濟系統,這樣的轉變所帶來的痛苦可能會小得多,而且其最終狀態可能會更適合每一個人。

    更長期來看,人工智慧系統將會變得比人類更強:它們將能在真實世界中做出更好的決策。我並不擔心機器突然變得有意識或仇恨人類。相反,我擔憂的是我們可能會給機器一些看起來無害的目標——比如“治癒癌症”——然後發現機器在使用整個人類種族來當小白鼠來進行癌症實驗。一個目標錯誤的高智慧機器可能是非常危險的。AI研究要遵循的原則: 1.機器的唯一目標是最大化人類價值的實現。 2.機器最初並不確定這些價值是什麼。 3.人類行為能夠提供關於人類價值的資訊。

    在這些簡單的原則之下,有一些複雜的技術思想,我們的目標是使用這些思想來設計實際上有益於人類的人工智慧系統——也就是說,我們可以證明有這些機器比沒有它們更好。

  • 4 # 沙場點兵見穹蒼

    新技術常常帶來對新法規的呼籲。當前的例子是人工智慧(AI),即以類似於人類智慧的方式思考和行動的機器的建立。‌

    有很多AI樂觀主義者和AI悲觀主義者。兩個陣營都認為需要政府幹預。微軟創始人比爾·蓋茨(Bill Gates)認為,人工智慧將“使我們能夠用更少的勞動力生產更多的商品和服務”。他預見到勞動力的流失,並建議徵收機器人稅。特斯拉(Tesla)的埃隆·馬斯克(Elon Musk)認為,人工智慧給“人類文明的存在帶來了根本風險”,他呼籲“在為時已晚之前”進行積極監管。‌‌

    特朗普總統的新行政命令(EO)“保持美國在人工智慧方面的領導地位”可能會鼓舞兩位億萬富翁,該命令要求採取協調一致的方式來監管AI。明年將看到美國監管框架的出現。

    製造商需要密切注意。

    ‌新行政命令‌

    2月11日釋出的EO概述了美國政府透過制定協調戰略來確保AI領導力的政策。它基於五項原則:推動技術突破,制定適當的技術標準,為未來培訓勞動力,建立公眾信任和信心以及確保支援AI的產品的國際貿易。‌

    EO的重要部分與監管有關。管理和預算辦公室(OMB)將在六個月內向監管機構釋出指南,這些機構將根據OMB指南制定自己的計劃。‌

    美國國家標準技術研究院(NIST)在制定聯邦參與技術標準計劃以支援使用AI技術的系統方面起主導作用。考慮到全球範圍內對此類標準的推動以及多個標準制定組織(SDO)的持續努力,這是及時的。

    對製造業的深遠影響‌

    這些聯邦行動將對美國製造商產生深遠影響。製造業的未來在於智慧製造,即工廠及其供應鏈的數字化。市場分析預測,到2025年,全球增值將高達數萬億美元。智慧製造至關重要地依賴於使用AI(尤其是機器學習)使用演算法在數字資訊中尋找模式。

    如今,製造商正在利用機器學習來獲得競爭優勢。應用包括勞動力培訓(陸虎使用增強現實技術培訓新技術人員),生產流程改進(福特使用合作機器人-與人並肩工作的協作機器人-在其裝配線上安裝減震器),質量控制(使用計算機視覺檢查Tabasco醬上的標籤),供應鏈最佳化(IBM使用AI更好地管理其全球供應鏈),預測性維護(Siemens在較舊的電機上放置感測器以在問題出現之前檢測出不規則性),設計新產品(阿迪達斯使用生成設計來製造新的運動鞋)以及分銷和運輸(許多公司在工廠或倉庫環境中使用半自動或自動駕駛汽車,例如叉車,庫存機器人和低負載無人機)。

    ‌監管AI的當前和未來應用並非易事。監管者必須權衡其解決合法社會問題(例如由於採用AI導致製造業工作崗位迅速流失)的願望與潛在的創新和生產力下降之間的平衡。類似於“金髮姑娘”和“三隻熊”的故事,美聯儲必須在過多和過少的監管之間找到一個甜蜜點。無論他們做出什麼決定,批評家都會猛烈抨擊,隨之而來的是司法挑戰。不可避免地,將建立一個監管系統。‌‌國際競爭力也受到威脅。中國以及其他國家正在迅速採取行動,為AI建立標準和法規,以使其國家獲得競爭優勢。歐盟旨在為“道德AI”制定規則。最能影響全球AI行為規範的國家或地區將擁有先發優勢。特朗普政府並沒有失去這一事實,美國,墨西哥和加拿大協議(USMCA)將取代NAFTA,其中包括反映美國對AI治理偏好的條款。‌三個關鍵問題

    隨著美國開始制定自己的標準並制定協調一致的監管方法,三個問題至關重要。‌

    現有的監管計劃如何應對AI?

    現有的監管計劃已經解決了許多AI應用程式。

    例如,美國食品藥品監督管理局(FDA)監管結合了機器學習演算法的醫療裝置。FDA對藥品製造的法規允許該機構確定啟用AI的生產過程是否符合當前的良好生產規範(cGMP)。美國聯邦航空管理局(FAA)正在對使用生成設計建立的新航空零件進行認證。國家公路交通和安全管理局(NHTSA)將更改其聯邦機動車安全標準(指的是人類駕駛員),以允許自動駕駛汽車。商務部和國務院都必須確定某些支援AI的產品的出口是否會造成國家安全問題。

    根據新的行政命令,政府尋求對數十個監管機構的監管決策提供一定的一致性和控制力-最少的監管要求開了一個不好的先例。通過了解AI目前的監管方式,各機構可以相互學習,行政部門可以最好地確定現有計劃是否與新行政命令的原則相一致。

    人工智慧會引發新問題嗎?

    也許AI提出了一些獨特的問題,如果將這些問題留給市場或使用現有的監管機構則無法充分解決。人工智慧的哪些方面可能引發新問題?關於機器學習,辯論集中在潛在的偏見,[缺乏]可稽核性和效能發展上。但是,所有這些擔憂都不足以禁止AI。

    機器學習基於訓練資料,而來自實際訓練資料的模式可能反映出偏差。例如,用於從成千上萬的求職者中確定最合格的候選人的機器學習可能會無意中歧視某些類的人。但是,這個問題對於監管者而言並不陌生,他們在確定和執行實際上會歧視受保護的人民階級的政策和做法方面具有豐富的經驗。

    機器學習通常是一個無法解釋的黑匣子。例如,基於深度學習(一種機器學習)的Google棋牌遊戲Alpha Zero是地球上最好的棋牌遊戲機,比不依賴AI的其他棋牌電腦要好得多。取得成功的舉動有關係嗎?這對尋求改善遊戲水平的專業棋手至關重要。同樣,在某些情況下,監管者需要知道AI如何得出結論。例如,FAA可能想知道為什麼一架自動駕駛飛機(無人機)在擁擠的居民區墜毀。將AI設計為可解釋的對監管者可能很重要。幸運的是,“可解釋的AI”方面的世界級專業知識位於國防部的聯邦政府內部。在設計合適的標準或法規之前,可以利用這些專業知識。

    隨著時間的流逝而發展(即學習)的AI應用可能會給監管機構造成獨特的問題。考慮在新產品或服務投放市場之前需要獲得監管機構批准的情況。如果裝置基於隨時間變化的演算法,則FDA如何批准該裝置?如果在使用中車輛效能不斷髮展,NHTSA如何為自動駕駛汽車設計制定標準?這種情況表明需要法規執行標準,而不是規定性的命令和控制法規。

    監管機構將如何使用AI?

    監管機構本身可以利用AI更好地完成任務。例如,監管機構可能會使用AI來識別大量合規資料中的違規行為,確定最佳可用技術以建立鋼鐵廠的汙染控制要求,或評估有關工業化學品毒性的科學證據的分量。基於數百項毒理學研究。

    隨著政府制定其監管AI的計劃,它還應披露監管機構將如何使用AI,這將為受監管實體提供更大的確定性,並在其他方面建立符合行政命令原則的公眾信任和信心。

    結論

    明年,美國政府準備針對AI開發一種協調的監管方法。儘管這種協調的需要是可以理解的,但是該過程可能導致不必要或不充分的法規,從長遠來看會對美國製造業的競爭力產生負面影響。為了制定正確的法規,聯邦官員將需要製造商提供有關當前和預計應用的意見。只有與所有利益相關者進行對話,監管官員才能收集足夠的資訊以制定建設性的聯邦政策。在此過程中,必須回答關鍵問題,並將結果資訊與公眾共享。

  • 5 # 樂活現在

    歐盟不是前不久提出了史上對ai的最強監管嗎,

    打算沒來三到五年禁止在公共場合使用人臉識別技術,

  • 中秋節和大豐收的關聯?
  • 倚天屠龍記中黃衫女子是誰?