2019年4月初,歐盟委員會發布了一項指導方針,旨在保證歐盟5億公民所使用的任何人工智慧技術都是值得信賴的。歐盟負責數字經濟和社會的專員,保加利亞的瑪麗亞 · 加布裡埃爾(Mariya Gabriel)稱這些措施為“基於歐盟價值觀的堅實基礎”
參與制定指導方針的52名專家之一認為,由於技術行業的存在基金會存在缺陷,基礎存在缺陷。來自德國美因茨大學的哲學家托馬斯·梅琴格(Thomas Metzinger)說,制定方針的專家太多,他們在指定方針時總是選擇有利於自己所在行業的利益的條款,麥琴格說,他和該小組的另一位成員被要求起草一份應禁止使用的AI用途清單。該清單包括自動武器和與中國正在開發的類似的政府社會評分系統。但是Metzinger聲稱,技術的盟友後來說服了更廣泛的團體,它不應該在人工智慧的使用方面劃出任何“紅線”。
麥琴格(Metzinger)說,這破壞了歐盟樹立有影響力的榜樣的機會,就像歐盟的GDPR隱私規則一樣,表明技術必須在明確的範圍內執行。他說:“現在一切都可以進行談判了。”
在12月釋出正式草案時,有人提出了一些被認為需要”紅線”的用法,作為“嚴重需要注意”的例子。這種轉變似乎使微軟感到滿意。該公司在歐盟專家組中沒有自己的席位,但像Facebook,Apple和其他公司一樣,由貿易組織DigitalEurope代表。微軟負責歐盟政府事務的高階主管科妮莉亞·庫特爾(Cornelia Kutterer)在對該草案的公開評論中表示,該組織“已採取正確的方法,將其視為”關注點”,而不是”紅線”。”微軟沒有提供進一步的評論。DigitalEurope總幹事,專家組成員Cecilia Bonefeld-Dahl表示,其工作是平衡的,並不傾向於行業。“我們需要正確對待這個問題,不是要阻止歐洲的創新和福利,而是要避免人工智慧被濫用的風險。”
歐洲人工智慧指南引發的爭議是一場爭論的前奏,這場爭論很可能在全球範圍內重演,因為決策者們正在考慮在限制人工智慧的使用,以防止對社會造成傷害。科技公司對此興趣濃厚ーー在某些情況下,它們似乎正試圖引導建造任何新的機會,使自己受益。
哈佛大學法學教授 Yochai Benkler 本月在《自然》雜誌上警告說,“工業界已經動員起來,塑造人工智慧的科學、道德和法律。”
Benkler 在那篇專欄文章中引用了 Metzinger 的經驗。他還與其他學者一起批評了由亞馬遜共同資助的美國國家科學基金會的“人工智慧中的公平”研究專案。該公司將不參與同行評審過程,分配補助金。但是 NSF 的檔案說,它可以要求收件人分享他們作品的更新,並將保留對任何開發的智慧財產權免版稅許可的權利。