首頁>Club>
谷歌近日與美國國防部展開合作,為其“Maven”專案(Project Maven)提供 AI 技術支援,不過這一決定在公司內部引起了不小的爭議。 據華爾街日報報道,國防部 2017 年就在 AI 領域投入了 74 億美元,Project Maven 就是其中的大動作之一。Maven 於 2017 年 4 月建立,其對外宣稱的目標是“實現大資料和機器學習技術與國防部的整合”。整個專案由國防部情報次長 Joseph Kernan 監督,John Shanahan 中將負責管理。Shanahan 表示該專案將讓“人工智慧的火焰”全面覆蓋國防部。
7
回覆列表
  • 1 # 造就

    谷歌釋出AI七大原則:不開發武器AI,但會繼續與政府和軍隊合作

    日前,谷歌CEO桑達爾·皮查伊(Sundar Pichai)發文詳述了谷歌在人工智慧(AI)上的七大原則、四條底線,為AI技術的開發和使用提供指導。

    這份檔案釋出的背景是,谷歌被曝在去年秋天秘密參與美國國防部Project Maven,導致公司內部數千名員工與管理層發生衝突。這些員工認為,該專案有違谷歌在成立之初所立下的“不作惡”原則,但公司高層則認為這有助於谷歌與五角大樓的進一步合作。

    最終,谷歌宣佈Project Maven合同將於2019年到期後不再續簽。

    谷歌CEO皮查伊在文中表示,AI開發與使用的方式將對未來社會產生深遠的影響。作為AI領域的領導者,谷歌不會開發武器等傷人或為傷人提供直接便利的技術;或是違反國際公認的規範,以監控為目的收集或使用資訊的技術。

    但同時皮查伊也指出,谷歌雖不會開發用於武器的AI,但將繼續在其他諸多領域與政府和軍隊展開合作,其中包括網路安全、訓練、徵兵、退伍軍人醫療以及搜救。這些合作十分重要,谷歌也將積極尋求更多方式,增進這些機構的關鍵性工作,並保障軍民安全。

    以下為全文:

    究其核心,人工智慧(AI)就是個計算機程式,它會學習,也能自我調整。它解決不了所有的問題,但改善生活的潛力不容小覷。在谷歌,我們利用AI讓產品更加得心應手——從沒有垃圾郵件、易於寫信的電子信箱,到可以用自然方式對話的數字助手,到挑出趣味內容供你欣賞的照片應用。

    除了我們的產品,我們還使用AI幫助人們解決迫在眉睫的問題。兩位高中生正在構建AI支援的感測器,用於預測野火風險。農場主正用它監測牛羊群的健康狀況。醫生開始使用AI幫助診斷癌症,預防失明。正是因為這些顯而易見的好處,谷歌才大力投資AI研發,並透過我們的工具以及程式碼開源,使AI技術得以普及。

    我們明白,這種技術有多強大,其使用所引發的擔憂就有多麼深切。AI開發與使用的方式將對未來社會產生深遠的影響。作為AI領域的一個領導者,我們深知責任重大,不得不慎。在此,我們宣佈指導日後工作的七大原則。它們不是理論概念,而是具體的標準,將會積極指導我們的研究與產品開發,並影響我們的商業決策。

    我們知道,這個領域處在動態演變之中,我們也將在工作中秉持謙恭的態度,投身內部與外部互動,並不斷學習,積極調整方式。

    AI應用的目標

    我們將參照以下目標,對AI應用作出評估。我們認為,AI應該:

    1、造福社會

    新技術的影響範圍日益遍及整個社會。AI的進步將在各個領域帶來革命性的影響,包括醫療、安保、能源、交通、製造與娛樂。在考慮AI技術的潛在發展與使用時,我們將把廣泛的社會與經濟因素納入考量。只有相信整體可能收益遠遠超過可預見的風險與不利因素時,我們才會繼續。

    就理解大規模內容的意義而言,AI增強了我們在這方面的能力。我們將使用AI,努力使高質量的準確資訊唾手可得,同時,繼續在我們運營業務的國家,尊重當地的文化、社會與法律規範。我們也將繼續深思熟慮地作出評估,決定何時將技術免費開放。

    2、避免製造或加強不公正的偏見

    AI演算法和資料集可以折射、強化或削弱不公正的偏見。我們承認,公正與不公正的偏見很難區分,而且因文化或社會而異。我們將試圖避免對人造成的不公正的影響,尤其是涉及到敏感特徵時,比如種族、少數族裔、性別、國籍、收入、性取向、能力,以及政治或宗教信仰。

    3、以安全為目的構建與測試AI

    我們將繼續開發並實行嚴格的安全保障實踐,避免意想不到的結果,進而招致損害風險。我們將設計我們的AI系統,使之具備適當的謹慎,並試圖遵循AI研究中的最佳實踐來進行AI開發。在適當情況下,我們將在受限環境下測試AI技術,並在開發完成後繼續監測其執行。

    4、對人負責

    我們設計的AI系統將提供適當的反饋時機、中肯的解釋,以及吸引力。我們的AI技術將受到適當的人類指導與控制。

    5、納入隱私設計原則

    我們將在AI技術的開發與使用中,納入我們的隱私原則。我們將為通知與許可提供契機,鼓勵隱私保護型設計,並圍繞資料使用,提供適當的透明度和控制。

    6、秉持追求卓越的嚴格科學標準

    技術創新植根於科學方法,以及對開放式探究、學術嚴謹性、誠信和協作的承諾。AI工具有望解鎖新的科研領域,以及生物、化學、醫藥和環境科學等重大領域的知識。在致力於推進AI開發的過程中,我們嚮往追求卓越的嚴格科學標準。

    我們將與一系列的利益相關方合作,提供一種經過深思熟慮的正規化,從具有科學嚴謹性的、跨領域的方式中汲取靈感。我們將透過釋出教育資料、最佳實踐,以及促使更多人開發有益AI應用的研究,負責任地分享AI知識。

    7、向遵循這些原則的用途開放

    很多技術都存在多種用途。我們將盡力限制有潛在危害或可能被濫用的應用。在開發與部署AI技術的同時,我們將參照以下因素,評估可能的使用:

    主要目的與用途:一項技術與應用的主要目的和可能用途,包括該解決方案跟有害用途聯絡有多密切,或是能否被改成有害用途。

    本質與獨特性:推出的技術是獨一無二的,還是通用的。

    規模:這種技術的使用會不會產生重大影響

    谷歌參與的本質:我們是在提供通用工具,還是為顧客整合工具,抑或開發定製解決方案

    我們不會追逐的AI應用

    除上述目標外,我們也不會設計或部署以下應用領域的AI:

    1、導致或有可能會導致全面傷害的技術。當存在顯而易見的風險時,我們只有在相信裨益遠大於風險時,才會繼續,並採取適當的安全限制措施

    2、武器等傷人或為傷人提供直接便利的技術

    3、違反國際公認的規範,以監控為目的收集或使用資訊的技術

    4、目的與廣泛接受的國際法與人權原則背道而馳的技術

    我們要明確的是,雖不會開發用於武器的AI,但我們將繼續在其他諸多領域與政府和軍隊展開合作,其中包括網路安全、訓練、徵兵、退伍軍人醫療以及搜救。這些合作十分重要,我們也將積極尋求更多方式,增進這些機構的關鍵性工作,並保障軍民安全。

    長期視野下的AI

    雖然這是我們選擇的對待AI的方式,但我們明白,這場對話中,還可以有其他很多不同的聲音。隨著AI技術的進步,我們將與各行各業的利益相關者合作,提供一種經過深思熟慮的正規化,從具有科學嚴謹性的、跨領域的方式中汲取靈感。我們將繼續分享所學,用於改進AI技術與實踐。

    我們相信,這些原則為我們公司和未來AI發展奠定了正確的基礎。這種態度與2004年穀歌第一封《創始人的信》中列出的價值觀一致。在那封信中,我們清楚地表明希望著眼長遠,即便這意味著捨棄短期利益。這是我們當時的說法,也是如今依然秉持的信念。

    翻譯:雁行

    校對:Lily

  • 中秋節和大豐收的關聯?
  • 如何看待娛樂圈中的“小鮮肉”?