首頁>科技>

技術政治與演算法治理

賈開(電子科技大學公共管理學院副教授)

編者按:

從外賣平臺演算法“內卷”外賣員的熱議,到演算法繭房、演算法歧視、演算法黑箱等議題的爭論,再到最近剛剛出臺的“人工智慧倫理安全風險防範指引”,演算法引發的治理風險以及相應的治理應對已經成為學界、政策界乃至公眾關注的焦點議題。但受限於演算法技術邏輯的複雜性和不可見性,圍繞演算法治理的相關討論往往會不自主的陷入“技術決定論”誤區。但技術發展史的研究表明,技術應用受限於所處環境反覆證明了技術發展、演化過程的“政治性”,而從技術政治視角對演算法發展邏輯的分析可能有益於演算法治理創新的啟示。但同樣需要注意的是,本篇評論提到但並未深入探討的問題在於,技術政治不僅體現為“技術發展路徑受到環境影響”這一個方面,技術本身是否存在“內生政治性”同樣是值得重視但卻未受到充分關注的另一要點。

伴隨人類社會數字化程序的深入,近年來各方主體對於“資料”治理的重視已經逐漸轉化為制度層面的規則建設,資料權利、資料安全、資料開放、資料共享、資料流動(包括跨境流動)等一系列議題都受到了較為集中而系統的討論,並逐漸落實為制度性的不同要求。相比之下,作為數字社會的另一個面向,“演算法”所得到的關注和討論更多還侷限於研究領域(例如圍繞演算法透明性、演算法審計、演算法責任等議題的分析),而《外賣騎手,困在系統裡》一文在近期的刷屏,則可能首次將演算法治理問題以熱點聚焦的形式呈現在了普通公眾面前。事實上,在更早的2016年9月,《人民日報》就連續刊發過三篇針對智慧推送演算法的反思性評論,針對特定演算法形式引發的內容低俗、“資訊繭房”、創新困境等問題提出了批判性觀點。相比於資料,演算法的無形性但似乎又“無處不在”的特點,使得決策者更難以準確把握其發展邏輯,並因此可能阻礙治理制度的形成與完善。

其中的一個重要問題在於,演算法往往或者被認為是理性、客觀、價值中立的技術代表,或者被視為平臺公司或其他主體控制下的附屬性產品。前者更多對演算法應用持樂觀態度並認為其帶來了社會效率的提升,而後者則更多持悲觀態度並要求對演算法控制者施以更多責任。但事實上,這兩類觀點可能都進入了“技術決定論”的誤區,並體現了更大背景下圍繞數字技術的長久爭論。一方面,我們看到了技術樂觀主義在更多領域的實踐,數字政府、智慧城市、演算法規制、智慧推送都是典型且不失一般性的代表性案例,基於各個領域的數字化轉型而依賴演算法的自動化監督與決策,已經從實驗室虛無縹緲的空中樓閣轉變為決策者的追捧物件;另一方面,“答案主義(Solutionism)”、“監控資本主義(Surveillance Capitalism)”、“資料主義(Dataism)”等概念在近幾年的興起,既體現了技術悲觀主義者對於數字技術大規模應用的質疑與警惕,也代表了相關治理主體要求對其應用作出約束的政治態度。

上述觀點雖然看似截然相反,但它們都在有意無意中共享了“技術決定論”的思想。一方面,技術樂觀主義和悲觀主義都接受了數字技術“無所不能”的假設,所不同的只不過是他們對待技術應用或激進、或保守的差異化態度;另一方面,上述觀點都接受了“給定時期內只有唯一一種有效率技術” (Elster,1983)的假設,並進一步認為該技術必將導致某種社會形態的形成(技術樂觀主義筆下的計劃經濟或者技術悲觀主義者筆下的監控社會),而我們只能在此社會形態下藉助政府或其他公共權力來制衡資本力量(因資本掌握了資料、技術和平臺)以維繫公共安全和公共利益。但這種理解可能忽略了技術的發展與應用事實上將受限於其所處政治經濟環境這一客觀事實,也正是在對此反思的基礎上,將技術發展和應用視為“政治過程”而非客觀、理性、中立、效率的代表,才具備堅實基礎。

技術政治的理論視角並非只停留於書本,技術發展史的研究充分證明了其合理性。對於技術應用受限於環境而言,數控機床的發明與應用過程便是例證,戴維-諾布林在《生產力:工業自動化的社會史》中對此作了歷史回溯。長久以來,工廠管理者都試圖使用自動化機床以替代機械工人的角色,這既是出於對於自動化將帶來效率提升的信念,也與管理者與機械工人之間的工廠內部權力爭奪緊密相關。在數控機床使用之前,工廠對於熟練機械工的依賴使得後者具有很大話語權,而彼時工廠所用機器更多是作為機械工的輔助而非替代;對於沒有實際機器操作經驗的管理者而言,機床自動化則是替代一線工人進而凸顯其價值的關鍵所在。但機床自動化的困難在於,如何使得通用機床能夠按照管理層的指令自動操作而無需工人干預,與此同時還能滿足原本由熟練機械工實現的生產靈活性與可變性。資訊科技為此問題的解決提供了途徑,透過可程式設計程式來控制機器便能夠只改動程式即實現產品的調整,而無需依賴機械工重新鑄造磨具或者改裝機器本身。但事實上,推動數控機床發明與應用的真正原因卻並非是因為其解決了機床自動化與生產靈活性難以平衡的問題,因而滿足了工廠管理者能夠對機器實施直接控制的願望——這甚至不屬於最重要的原因。技術發展史的研究發現,美國軍方對於高效能戰鬥機複雜構件極其精密的規格要求(傳統的人工加工手段難以達到相關效能指標),以及當時的資訊系統研製人員(主要是麻省理工學院當時的研究者)為了擴大其研究成果適用範圍而採取了積極的宣傳與推廣策略,才構成了數控機床得以誕生的兩個關鍵因素。前者反映了追求技術進步的軍事要求,而後者則代表了非本行業科研工作者的技術追求,二者僅僅是恰好契合了工廠管理層的目標,才實現了由計算機控制自動化機床的目標與願景。值得注意的是,美國軍方對於複雜構件的高規格要求,並非研製高效能戰鬥機的唯一路徑,其更多反映了美國軍方對於裝載量大且其自身重量較輕機型的偏好,而同時期的蘇聯則偏好機型更小但配有大型發動機的戰鬥機。由此,美國空軍透過採用新型加工手段來提高效能,而蘇聯空軍則依靠擴大發動機規格並減小飛機規格進而降低複雜性來提高效能。換言之,並不存在絕對的技術優勢證明美國軍方必須採用數控機床——而這也進一步反映了數控機床發明與應用過程的巧合性與複雜性。

技術發展史研究支撐下的技術政治觀點,同樣有助於啟發我們揭示導致演算法困境的原因,並探索演算法治理創新的路徑。事實上,演算法的演化、發展與應用本身也離不開其所處環境因素的影響,尤其對於建立在大資料基礎上的機器學習演算法而言更是如此,任何影響資料完整性、真實性的相關因素都將最終影響演算法規則的提煉過程及其應用結果。以最廣為流傳的谷歌演算法預測流感為例,儘管基於公眾搜尋結果的演算法分析能夠比疾控中心更早的預測流感爆發,但因為新聞報道、人為關注的增多而使得“流感”搜尋資料並未真實反映流感患病情況,從而使得第二年的預測嚴重失準。另一項針對谷歌的研究更為深刻地揭示了演算法受其所處環境影響的嚴重性。2013年的一項針對谷歌廣告推送的研究發現,推送演算法存在歧視性偏見,相比於搜尋白人名字,搜尋黑人名字將有更大機率顯示/關聯出與該名字相關的犯罪記錄,導致該“偏見”的原因並不是因為演算法刻意將“黑人/白人”作為具體判斷標準計入程式,而是因為演算法發現當顯示黑人名字的搜尋結果時,使用者有更大機率點選與犯罪記錄相關的連結。為最大程度地吸引使用者點選(因此谷歌可以獲得更多廣告收入),演算法便“記下”了人們的偏好並形成了歧視性結果。這項研究再次體現了演算法所處應用環境對其本身的重大影響,而這也直接啟示我們,相應的治理應對不應僅僅聚焦於演算法,而應該將視野擴充套件至更大背景下演算法所處的社會環境。

但值得注意的是,儘管環境對於演算法的影響往往透過大資料來實現,而大資料和演算法的相關性也使得針對演算法治理的相關措施往往聚焦於資料層面,試圖透過資料治理實現演算法治理(這也是包括GDPR在內的諸多國家立法的當前治理視角),但這一視角卻忽略了資料與演算法仍然存在的本質區別,演算法規則的不同特點(確定性的還是適應性的)、演算法角色的不同界定(全自動決策還是輔助人類決策)、演算法應用的不同模式(事前預防還是事後懲罰)都將深刻影響演算法治理的過程與績效,而它們都與“資料治理”並不存在直接聯絡。但無論如何,我們仍然需要謹記的是,演算法仍然存在一個複雜的政治經濟環境之中,其自身的發展、演化路徑仍然受到多重因素的影響(不僅僅是平臺自身)並因而體現出其政治性。

伴隨數字技術(尤其是人工智慧)的發展,“世界嵌入演算法”的程度將進一步加深,而演算法對於日常生活的影響也必將逐漸增加。在聚焦演算法透明、演算法歧視等具體問題的討論之外,我們也需要認識到相關討論背後的思想假設,避免技術決定論的偏斜與侷限,而重視演算法演化、發展、應用過程的“政治性”,而這可能也是技術政治視角有利於解構“演算法迷思”並啟示演算法治理創新的價值所在。

11
最新評論
  • 整治雙十一購物亂象,國家再次出手!該跟這些套路說再見了
  • 工業網際網路應用方案,油泵企業藉助網路實現技術和銷售雙提升