2014年,特斯拉創始人Elon-Musk釋出了一個Twitter——“人工智慧可能比核武器更危險”,頓時引發行業熱議,扎克伯格為此特意請他到家裡吃飯,並約上Yann LeCun一起討論這個話題。
現在,人工智慧雖已深入應用於各個行業,但關於人工智慧安全威脅的討論從未間斷。例如,2018年4月,包括幾十名高階工程師在內的數千名谷歌員工簽署聯名信,抗議公司參與一項美國五角大樓專案,利用人工智慧幫助識別無人機鏡頭中捕獲的人和物體。今年以來,國內關於AI資料隱私安全的輿論也此起彼伏。眾所周知,汽車剛誕生時,出臺了一系列的安全、倫理道德和技術應用方面的法律法規,AI也亟需完善。
到底如何看待人工智慧之於人類安全的影響?可以採取什麼措施來防止這種擔憂的發生?可以採取什麼措施向公眾保證沒有什麼可擔心的呢?近日,美國Authority雜誌採訪了來自英特爾、Adobe、微軟、愛立信等公司人工智慧領域的女性領導者,探討AI帶來的安全挑戰。(根據標準普爾指數,在福布斯500強科技公司中,女性在高階和管理職位中佔比約四分之一)
Anna Bethke (英特爾AI負責人)我認為,使用AI對人類的危害比AI本身更危險。就像錘子或者其他工具可以用來幫助建造鳥窩,但也可以用來砸花瓶,AI也如此。雖然人工智慧有可能通過自我學習,擁有自我意識甚至惡意,但這非常難做到。討論的關鍵是遇到惡意建立的AI時,減輕或者阻止這些負面結果的方法,並告知公眾如何以及何時使用該系統。
我認為,應該加大技術開發和應用的透明度,公眾有發言權提出任何問題。要使得人為判斷處於系統的設計,測試和應用的閉環,並實時糾正任何有害的行為,這一點很重要。
Carolina Barcenas(Visa高階副Quattroporte)
我認為技術是我們的合作伙伴。技術當然會帶來變化,但我相信我們社會的固有適應能力。儘管一些工作可能會消失(那些重複性的,可能帶來很少滿足感的工作),但也將創造新的工作。當前的技術創新時代並非史無前例,比如工業革命。我相信正確使用該技術最終將使我們的生活受益,而我們正處於一場重大變革的開端。
但是,我也認識到,如果技術被惡意使用可能具有毀滅性,圍繞道德標準使用人工智慧,進行有效監管至關重要。全球目前已經出臺了非常重視資料的使用和隱私保護的政策和法規,歐洲在這方面處於領先地位,其他國家也在緊隨其後。然而,我們仍處於起步階段,我認為對人們進行“AI真正是什麼”和“我們面臨的AI挑戰”的教育非常重要。
Tatiana Mejia(Adobe AI負責人)人工智慧是我們開發的一種工具,Adobe作為一個社群,我們有責任指導如何建立和使用它。技術本身並不存在好壞,在Adobe,我們的AI服務於開發者並尊重消費者。我們正在仔細研究這個問題,並實施有關資料隱私,資料治理,資料多樣性等方面的流程和準則,並主導透明和持續的對話。
我們有時還會引入實驗性的“祕密”AI技術,但我們會為使用者共享潛在的功能(其中一些功能永遠不會運用於產品中),以便從我們的客戶和社群獲得真實、即時的反饋,包括這些創新對他們意味著什麼,有什麼作用,有什麼可以改進的,什麼可以對創意和營銷人員產生更大的影響和意義。
Marie Hagman(Zillow人工智慧總監)在整個歷史中,人們一直在使用新技術來完成令人驚奇的事情,並給他人帶來痛苦。比如社交媒體在Arab Spring期間傳播核能和原子彈發揮的作用是幫助人們進行政治組織,但今天它在傳播錯誤資訊方面發揮了作用。我是一個樂觀主義者,認為AI收益將遠大於風險。我們需要保持技術先進性,同時採取安全措施,並採取更快的行動來建立和更新公共政策以幫助減少風險。
我認為我們不能或不應嘗試向人們保證沒有什麼可擔心的。人們應該被告知風險並保持警惕。我們應該建立保護社會免受不良行為影響的體系,包括執法,司法系統和公共政策,並且我們應該在那些領域中設立負責人,他們應被告知並優先考慮防範AI構成的威脅。公共政策通常太慢而趕不上技術變化。
MadelaineDaianu博士(Intuit資料科學高階經理)我預計,隨著我們技術的進步,這些辯論只會越來越激烈。有人認為這些爭論為時過早,主要是因為當今的AI系統非常有限。我們尚未發現建立超級智慧的意義,因此,我們尚無所有正確的資訊來確定如何最好地減輕任何潛在的危害。我認為科技界應該從短期和長期來考慮AI端到端的影響。作為這項技術的貢獻者,我們有責任計劃AI可能帶來的潛在影響。
Doris Yang(BlackBerry Cylance高階總監)AI的當前狀態取決於人類如何定義我們正在尋找的問題和答案的邊界以及處理這些問題所需的資料。機器人明天不會佔領世界,也就是說,不管自我意識機器人多長時間能夠實現,負責任地談論AI的使用和應用對社會絕對重要。我們目前仍然存在隱私和透明性的問題,比如關於收集個人資料,用途是什麼以及誰可以訪問它。
AI驅動的解決方案有許多直接的好處,但是我們也應該積極考慮負責任的治理,以便我們可以繼續從中受益,而不會放棄更多的自由。我不想說絕對沒有什麼可擔心的,因為那會促進自滿。我們需要開始設定我們的基本界限,並保持警惕,並不容侵犯。有意識的機器人並不是唯一令人擔憂的,首先,人們應該考慮隱私和安全性。
比如一些簡單的事情,AI能夠預測一個人喜歡什麼,他們傾向於做什麼,以及他們將如何迴應,這些在購物推薦,營銷活動等方面都有很好的應用。但是,當不法分子獲得這些資訊時會發生什麼呢?銀行是否可以根據你可能做的事情拒絕你的貸款?政府是否應該能夠建立和維護公民的個人資料,並根據概率或可能的結果對其進行排名?
Marina Arnaout(Microsoft經理)
歷史表明,每當一項偉大的發明落入壞人之手,邪惡就會盛行。目前,我們正處於AI的早期階段,目前正在探索可以很好地利用AI的許多潛在好處,AI可以幫助預防自然災害,或者為盲人以及更多種形式的業務提供更大的幫助。人工智慧能為社會和企業帶來許多好處,但超智慧的AI可能會帶來各種不利影響。
通過以人類無法跟上的步伐大幅改變勞動力,可能會對經濟產生重大影響,並帶來許多道德挑戰。這是一個全球性的問題,它需要世界各地的政治和商業領袖坐在一起討論,來自不同政治體系的全球領導人需要協調一致,以確保道德,資料保護和準則具有對稱性,並且對公眾完全透明。
Elena Fersman(愛立信AI研究負責人)每一項新技術都會帶來威脅。AI是特殊的,它能夠自我學習,所以我們應為其發展設定條件或界限。我們需要承擔責任,並規定這些演算法永遠都不能打破的“遊戲規則”。這些規則與人類必須遵守的法律,法規,道德框架和社會規範沒有什麼不同。為避免此類擔憂,應該以AI系統所理解的語言來實施“生存規則”。也就是說,我們需要將這些規則數字化,確保框架和軟體架構具有靈活性並允許修改,並且演算法可以保證它們遵守這些框架。
韓超(Lucidworks副Quattroporte)TrisalaChandaria(Temboo執行長)新技術帶來了機遇,但也有可能給人類帶來危險,這就是技術的本質。汽車剛剛誕生時,我們必須建立基礎設施,安全措施和其他技術來適應它們。道路,駕照,安全帶和安全氣囊等所有東西都需要確保公眾能夠安全有效地使用汽車。
在開發AI技術時,我們需要考慮安全、基礎設施、法律等因素。只要我們把那些事情考慮進去,我們就可以很好使用人工智慧。我們不應該試圖阻止人們有顧慮。人們可以詢問他們的資料是如何被使用的,哪些技術正在影響他們的生活,人工智慧是如何影響社會。擔憂和恐懼是有區別的,我們不想嚇走人們對新技術的興趣,但確實應該確保他們在影響他們日常生活的技術方面有所選擇。AI時代的領導者有責任確保公眾知道有權力來做出這些選擇。
AI商業週刊(ID:aibizweek)