• <output id="qgjlo"><strong id="qgjlo"><xmp id="qgjlo"></xmp></strong></output>

      1. <p id="qgjlo"></p>

        <object id="qgjlo"></object>
        <table id="qgjlo"><strike id="qgjlo"><b id="qgjlo"></b></strike></table>
      2. 《個人信息保護法(草案)》中的平臺算法問責制及其完善
        2021/7/21 9:09:39  點擊率[307]  評論[0]
        【法寶引證碼】
          【學科類別】科技法學
          【出處】《經貿法律評論》2021年第1期
          【寫作時間】2021年
          【中文摘要】《個人信息保護法(草案)》確立了我國算法自動化決策治理的基本框架,為平臺自動化決策的設計部署、運行與結果輸出劃定了合法邊界。平臺作為最重要的自動化決策的主體,須承擔事前風險預防義務、事中安全運行義務與事后的相關責任。《個人信息保護法(草案)》將平臺算法治理時點前移,治理手段升級,相關義務增加,初步確立了算法問責制的基本框架,然而,仍須將平臺責任的設置直接指向其底層技術邏輯——算法,算法設計運行是否“符合法律法規”的評估標準擴張至需對公民權利與公共利益無不利影響。此外,需建立平臺算法的多元治理體系與層次明晰的平臺算法責任體系。
          【中文關鍵字】平臺責任;算法自動化決策;算法問責制;算法責任
          【全文】

            2020年9月,為征求意見而公布的《中華人民共和國個人信息保護法(草案)》(下稱《草案》)確立了我國算法自動化決策[1]治理的基本框架,為自動化決策嵌入平臺經濟、數字政府運行劃定了合法邊界。算法是數字平臺處理海量用戶數據、繪制用戶畫像、精準定價與個性化推送的“生產工具”,已經成為平臺運行的核心動力。聯合國教科文組織于2018年發布的《重塑文化政策報告》指出,算法既是平臺的支配力量,也是文化表達和獲取的變革力量。[2]《草案》對算法自動化決策的相關規定,即增加平臺義務、設置監管框架、強化平臺責任等,勢必將深度影響數字經濟產業發展。筆者從《草案》中有關平臺算法自動化決策治理的基本框架展開,探討《草案》給平臺責任帶來的變化。平臺算法治理已經基本建立了算法問責制框架,一定程度上擺脫了傳統平臺責任的認定困境,走向了“技術之治”,但仍須對制度進行一定細化,建立完善的平臺算法問責體系。
           
            一、《草案》確立的平臺自動化決策治理框架
           
            《草案》給出了算法自動化決策治理的中國方案,從事前設計部署、事中運行與事后結果輸出的自動化決策全生命周期為平臺的算法自動化決策設置了義務框架。
           
            (一)算法影響評估:平臺自動化決策治理時點前移
           
            《草案》第54條確立了自動化決策的事前評估制度,其第1款規定“個人信息處理者應當對下列個人信息處理活動在事前進行風險評估……(二)利用個人信息進行自動化決策……”。其第2、3款規定:風險評估的內容應當包括:(一)個人信息的處理目的、處理方法等是否合法、正當、必要;(二)對個人的影響及風險程度;(三)所采取的安全保護措施是否合法、有效并與風險程度相適應。風險評估報告和處理情況記錄應當至少保存三年。”
           
            根據《草案》第54條的規定,平臺須在算法自動化決策上線前進行事前評估。風險評估的內容既包括算法自動化決策的合法性與必要性,也包括其影響及風險。隨著十余年平臺經濟的高速發展,算法自動化決策的濫用與倫理缺失的累積危害已經進入了顯現期。為避免平臺部署缺陷性算法自動化決策可能對公民財產和人身權利,以及對公共利益和國家安全帶來的危害,建立平臺算法事前評估制度已時機成熟。
           
            要求平臺在事前對自動化決策進行評估,是將平臺治理時點前移的重要標志。近年來,網絡平臺治理的逐漸前移由以下原因驅動:其一,事后追責機制已經不能滿足網絡平臺算法自動化決策的治理需求。平臺算法的計算對象是數以萬計的平臺用戶數據,其一旦發生價值觀偏差,對社會的不利影響會具有延展性與持續性。事后對平臺的追責機制不能有效應對,各種補償制度難以從根本上解決問題。其二,平臺責任事后如何確定和劃分成為新的挑戰,具體業務的平臺規范適用出現空白。2019年以來興起的平臺新業態,如直播帶貨、人臉識別等新型業務并無具體的法律對其規制,法律責任很難確定。算法自動化決策的風險是平臺內生的,伴隨著平臺作為設計者的決策與行為,依賴事后追責機制,可能會造成未來不斷出現平臺新的算法自動化決策治理缺位。
           
            《草案》首次在法律層面從個人信息保護的角度確立了算法自動化決策風險評估制度。法律層面對于平臺算法自動化決策的事前評估不再僅僅指向網絡安全與數據安全,此前“四部委”及行業協會組織的隱私與個人信息保護評估有了法律層面的依據。[3]
           
            (二)算法審計制度:平臺自動化決策治理手段升級
           
            《草案》第53條確立了事中的算法審計制度。其規定:“個人信息處理者應當定期對其個人信息處理活動、采取的保護措施等是否符合法律、行政法規的規定進行審計。履行個人信息保護職責的部門有權要求個人信息處理者委托專業機構進行審計。”根據第53條的規定,監管部門的監管對象從外部直接“穿透”至平臺內部的算法運行層面。《草案》要求平臺應對其算法自動化決策等信息處理活動定期進行審計,必要時監管部門有權啟動對平臺的第三方外部算法審計。
           
            算法審計制度的確立體現了平臺自動化決策治理手段的升級:其一,監管部門直接將算法作為監管的對象。這一監管手段在近年來成為各國平臺治理的常用手段,如2019年澳大利亞競爭與消費者委員會(ACCC)宣布計劃設立專門分支機構“主動監視”平臺算法運行,賦予其要求披露算法詳細信息的權限。[4]其二,監管部門的活動直接指向平臺內部日常運營活動,穿透了平臺法人的外殼。我國算法審計制度規定監管部門有權啟動外部審計,體現了在事態嚴重時監管部門可直接對企業組織內部結構與事務進行干預監管。無獨有偶,在“劍橋分析”[5]事件后,美國聯邦貿易委員會(Federal Trade Commission,FTC)在 Facebook 設立三個委員會,其工作人員不由企業任免并可向 FTC 直接匯報工作。其三,平臺的算法治理引入了多方主體參與。在算法審計制度中,企業自律與第三方機構扮演了重要角色。一方面,平臺要定期進行自我審計。這也成了世界各大平臺公司的日常實踐,如微軟設立人工智能倫理委員會,聯邦政府與亞馬遜合作并與企業合作開發促進算法公平性的項目。另一方面,第三方機構在平臺多元治理中扮演越來越重要的作用。如為了人民組織(ProPublica)即通過算法審計發現量刑算法存在的種族歧視問題,紐約大學的 AI Now 研究院則專門針對紐約市算法監管行動發布報告,評價政府監管行動的得失并提出建議。我國現有的第三方機構發揮作用不足,預計在出臺后的《個人信息保護法》相關制度的推動下將有所發展。
           
            要求平臺進行定期算法審計已經成為世界各國的通行做法。以印度《個人數據保護法案》為例,其要求數據控制者聘請獨立的數據審計方對算法的數據處理行為進行一年一度的審計,審計的內容包括算法的透明度、企業的相關保障措施等,審計結果體現為對數據控制者的信用評級打分。此外,當監管部門認為數據控制者有可能造成算法的損害結果時,也可啟動算法審計。
           
            平臺算法審計制度的確立,既體現了監管部門直接穿透平臺法人的外殼干預平臺日常運營,又初步建立了企業自律與第三方共同參與的算法多元治理框架。《草案》不僅建立了算法影響評估的事前監管制度,也對事中算法運營進行日常監管。
           
            (三)相關用戶權利:平臺自動化決策義務增加
           
            《草案》第25條確立了平臺對算法自動化決策結果事后的相關義務。其規定:“利用個人信息進行自動化決策,應當保證決策的透明度和處理結果的公平合理。個人認為自動化決策對其權益造成重大影響的,有權要求個人信息處理者予以說明,并有權拒絕個人信息處理者僅通過自動化決策的方式作出決定。通過自動化決策方式進行商業營銷、信息推送,應當同時提供不針對其個人特征的選項。”
           
            根據《草案》第25條的規定,平臺須對自動化決策的結果承擔如下義務:第一,保證自動化決策過程的透明和結果的公平合理。這一條款針對一直以來被詬病的對特定人群的算法歧視、大數據殺熟等問題。根據平臺對算法應用的場景,算法透明度的要求可能涉及代碼、邏輯、模型、目標、決策等多個方面,而結果的公平合理可能涉及機會平等或結果平等,以避免平臺利用算法處理海量個人數據可能造成系統性地使某些社會群體處于不利地位。第二,對決策結果予以說明。這一條款與歐盟《通用數據保護條例》(GDPR)第22條類似,個人有權要求平臺對其造成“重大影響”的自動化決策作出說明,但“重大影響”尚未有明確規定。第三,平臺須對用戶提供不針對個人特征的自動化決策選項。這一規定是對《中華人民共和國電子商務法》第18條第1款的再次強調,即“電子商務經營者根據消費者的興趣愛好、消費習慣等特征向其提供商品或者服務的搜索結果的,應當同時向該消費者提供不針對其個人特征的選項,尊重和平等保護消費者合法權益”。
           
            《草案》第25條直接為平臺的自動化決策結果設定了相關義務,并作出了如下突破:第一,突破平臺一直以來采用的“技術中立”抗辯,要求平臺為算法自動化決策結果承擔責任,須保證算法自動化決策結果的公平合理。第二,擴張平臺用戶的知情權,確立了有限制的“算法解釋權”,用戶既可以要求自動化決策結果的透明,也可以在涉及“重大影響”時獲得平臺說明。這一制度致力于打破用戶與平臺之間的信息不對稱,為平臺施加了信息披露的義務。第三,要求平臺打破算法個性化推薦給用戶打造的“信息繭房”,要求平臺保障用戶的知情權。推薦算法的個性化推送、個性化定價,是當前各大互聯網平臺普遍使用的增加利潤的武器。研究顯示,算法根據用戶個人信息定制的結果排名總是高于其他任何因素。2015年優步僅根據動態定價算法就創造了68億美元的利潤。[6]此條要求網絡平臺不得以此損害消費者利益,不得利用個性化推薦損害用戶的知情權以及對用戶進行價格歧視。
           
            總體而言,《草案》設定了平臺算法自動化決策事前、事中與事后的全生命周期的監管框架,既借鑒了近三年來世界各國立法的相關制度,也沿襲了我國既有的相關實踐。
           
            二、揭開平臺技術面紗:平臺算法問責制的初步確立
           
            《草案》將平臺監管對象深入至平臺的底層技術邏輯——算法層面,為平臺的算法自動化決策的設計部署、運行與結果輸出等設置了注意義務,并以此作為平臺責任的承擔依據。《草案》初步確立了我國的平臺算法問責制和以平臺治理為核心的算法自動化決策治理框架。
           
            (一)平臺追責的直接指向:平臺的算法自動化決策
           
            《草案》確立的平臺自動化決策治理框架,體現立法者將“主體—行為—責任”的傳統法律追責思路更新為技術治理思路。立法者充分認識到算法在平臺日常運行中的核心作用,因此對于平臺責任不再糾結于主觀過錯與違法結果等傳統法律責任的認知體系,而是直接將平臺算法作為法律監管的對象。
           
            監管部門將平臺責任追究指向算法層面,解決了法律面臨的如何認定平臺“行為”的理論問題。平臺的運作功能和盈利模式,或者學界提出的“架構”等[7] ,均關系到平臺的法律定性以及功能描述。然而,“平臺”一詞至今尚無標準定義。根據現有研究,平臺的雙邊市場效應特征十分突出。平臺的功能已經超越市場主體,實際上已通過算法架構建立了基于數據挖掘與分析的數據服務市場,并且在此市場中,糅合了多向度和多方面的法律關系。平臺算法的計算結果來源于用戶提供的原始數據,而數據提供者并非僅有用戶,還包括交易產生的數據,甚至包含政府提供的公共數據。因此,平臺盡管是“數據控制者”,但平臺通過算法收集、抓取和分析數據,并提供大數據產品(如用戶畫像),同時通過與其他市場主體簽訂服務協議,構建平等主體間的民事法律關系。在這樣一個紛繁復雜的多邊市場中,可落入傳統法律規制對象的既包括平臺用戶協議的解釋規則、平臺對所呈現內容的事前審查,也包括對所提供服務的質量保障義務與相關事后義務,以及基于算法自動化決策所產生的個性化推送等。
           
            由于平臺作為多邊市場存在多重法律關系,因此長期以來在平臺責任的追究問題上一直存在著“平臺責任中行為人與責任人相分離”“平臺本應技術中立所以承擔的是無過錯責任”的理論困境,甚至在刑事責任的追究上也存在“幫助犯正犯化”的爭議。《草案》中平臺作為個人信息的處理者,平臺要為算法加工個人數據產生的數據質量承擔具體的法律義務。因此,算法自動化決策乃至平臺架構均被納入“行為”的范圍,平臺的算法自動化決策無法逃脫過錯責任的承擔,技術中立與無差別技術抗辯已經無法產生責任規避的效果。
           
            平臺責任中個人信息的使用原則和行為邊界,終仍須著落于平臺處理個人信息的工具——算法的設計部署、運行的控制上。根據平臺處理個人信息的正當性與合理性原則,平臺還須對算法自動化決策結果的輸出承擔一定的注意義務,保證“自動化決策結果的公平合理”。至此,平臺責任追究的對象已穿透平臺的技術面紗,直抵平臺技術的底層邏輯——算法。
           
            (二)平臺注意義務的擴張:從算法設計到結果輸出
           
            平臺責任的認定機制中,平臺注意義務從簡單的“明知應知”被擴張至算法設計、算法運行直到結果輸出的全過程。平臺這一注意義務的擴張趨勢有學者在理論上早有提及,并于2018年以來逐步被各國立法實踐所采納。
           
            美國法學家萊斯格早在《代碼2.0》中即指出,代碼(算法)搭建了網絡空間架構,建構和引導了用戶行為。萊斯格首次將架構納入法律社會學分析,提升到與法律、市場、社會規范平行的高度,并系統地說明(甚至預言)架構如何“規制”社會主體的在線行為,影響諸如版權、隱私、言論這樣的法律制度,進而提出賽博空間的根本問題:誰終控制架構的生產和運作。[8]2011年,Cavoukian 提出“設計隱私”的理念,主張平臺在算法設計時就有責任考慮用戶的隱私保護。[9]學界主張基于平臺算法(架構)對平臺運行與用戶權利的影響,平臺算法設計階段即應負起相應注意義務。[10]
           
            平臺算法運行中的注意義務也在各國司法實踐中獲得實質性推進。GDPR 建立了算法數據處理評估制度、算法認證制度,官方于2019年發布了“行為指引與認證標準”。歐盟議會的《算法責任與透明治理框架》提出建立“算法影響評估”(AIA)機制,歐盟部長委員會向成員國提出立法建議,應對算法對內容與用戶行為的“過程操縱”能力。GDPR 的風險預防型立法逐漸獲得各國立法者的青睞,美國、加拿大和德國也逐漸重視算法系統的事前風險防范制度,要求企業承擔更多的信息披露義務,以減少監管機構的負擔。無論是 GDPR 的算法專條還是美國的《算法問責法案》(Algorithmic Accountability Act of 2019),其中的算法透明度、可見性、評估、認證等制度均充分體現了算法風險預防型流程監管的加強趨勢。實踐中,“西班牙谷歌案”[11]“武爾夫夫人訴谷歌案”[12]等一系列司法判例,以及行政機關的一些行政處罰案都表明了對平臺算法有從設計階段問責的傾向。
           
            同時,各國也加強了算法造成危害結果后對平臺的問責。平臺作為算法的使用者與控制者,有義務在不利后果發生后報告并證明算法系統設計和決策應用的合理性,并有義務減輕算法可能帶來的任何負面影響或者潛在危害。
           
            (三)平臺算法治理的目標:平臺的算法問責
           
            平臺算法治理的核心目標是厘清平臺責任的認定與分配,具體而言是解決“誰負責、怎么負責、負什么責”的問題。平臺算法治理必須既符合技術邏輯,也符合法律責任主客觀相一致的法律原理,打造“負責任”的平臺算法責任體系。
           
            技術一旦應用,則需要對來自人類社會的各種倫理訴求作出負責任的回應。算法問責制有確保平臺負責任地開發和使用算法系統,從而改善人類福利并造福社會的功能。在諸多算法治理手段中,算法透明度和算法問責制之間既有區別又有聯系。其中一個重要區別是,問責制主要是個人或組織的一項法律和道德義務,即對其活動進行說明,承擔責任;而算法透明度可作為實現這一目標的工具,要求平臺以透明的方式披露算法運行過程與結果,算法的結果透明度、目標透明度和影響透明度比算法本身的透明度對算法問責更有意義。歸根結底,透明度、數據出處日志、代碼更改和其他記錄保存都是重要的技術治理工具,平臺責任制度設計的根本目標是建立明確的法律責任鏈。
           
            平臺算法治理以平臺算法問責制作為目標,相比其他治理目標具有優勢。個人數據保護進路的算法治理存在重大局限,強調權利保護而不明確算法責任的歸責主體、歸責條件和規則事由,使得個人權利保護進路的算法監管無法落地。歐盟提倡的“設計隱私”理念過于狹隘,無法涵蓋算法治理的公平、安全等重要價值。美國的事后監管模式事實上是“一事一理”,難以被他國學習、復制。FTC 調查程序漫長、反應滯后,事后監管也未形成令人信服的可供對標的佳實踐,盲目借鑒將會造成司法管轄的低效能,并使得行政監管權限與邊界模糊化。現有《草案》中應以行政賦能作為主要手段,以平衡用戶與科技巨頭“算法權力”的不對等現狀,來滿足未來算法問責制的需求。
           
            平臺從提供“連接”服務走向智能化與自動化后,網絡平臺應當基于“算法責任”的主觀過錯,將“客觀損害結果”和之前已經事先存在的“算法責任”相結合,建立權責一致、責罰相當的監管框架與法律責任體系。
           
            三、平臺算法問責制的框架完善與制度細化
           
            我國平臺責任存在監管時點滯后、責任機理模糊、調整對象過淺的情況,因此常被詬病為“事故型問責”或“按需求處罰”,導致問責的必要性、合理性存疑。《草案》確立了算法問責制的基本框架,但遺憾的是,對于平臺算法責任的機理與層次尚不明晰。因此,應以符合法理和技術邏輯的科學問責思路來校正監管部門與生俱來的“越早越好”和“越嚴越好”的擴張邏輯,使平臺責任設置和追究走向科學化、體系化,監管力度與平臺過錯相適應。
           
            (一)平臺算法注意義務的適度擴張
           
            為了避免事后僅根據損害結果客觀歸責,必須通過制度在事前進行算法設計部署的相關信息披露以確定事后的問責點。對平臺責任中平臺是否盡到注意義務的考察應在事前進行,并以某種形式將事后的問責點固定下來。這樣既能夠避免事后平臺隱瞞與錯誤披露的可能,也可以預防風險,避免錯誤的算法計算反復被適用于海量主體,從而導致損害彌散化。
           
            算法評估標準應當適度擴張。遺憾的是,《草案》對于平臺自動化決策的評估基于其立法目的限于“對個人的影響及風險”,而平臺的自動化決策遠不止于此。例如,平臺匹配工作任務與勞動者的算法,影響就業的薪酬與機會,事關就業公平;平臺對商戶的信用評分算法,對商戶獲得流量與業務至關重要;甚至互聯網保險公司采用的算法決定是否允許用戶投保以及保費高低,已具有了一定的公共服務色彩。平臺是數字經濟中組織社會生產的核心組織,其算法設計直接關系到社會經濟運行,對參與生產與資源分配的社會主體具有深遠影響。
           
            2018年以來,立法者逐漸認識到數據保護制度偏重私權與合規,無法顧及公共利益與網絡治理,因此算法規制成為網絡治理的新抓手。目前,歐盟及各成員國呈現算法立法與數據立法分立且并重的態勢。例如,GDPR 的數據處理評估制度(DPIA)即是針對高風險數據處理活動對數據控制者設置的預警自查義務。[13] AI Now 研究院也提出了類似的“算法影響評估”制度,要求在重要的公共部門使用算法前,應采取關鍵步驟來確定何時以及如何產生潛在危害的,包括增加其專業知識和能力以有效評估算法系統,并允許第三方審計公共部門的算法。由于近三年英國脫歐事件與歐洲各國大選,算法對網絡信息內容的決定性作用與社會動員力量引起了立法者的關注。歐盟議會指導意見要求在線平臺確保政治廣告透明性、闡述算法推薦內容機制并允許第三方驗證,以應對算法操縱新聞議程。
           
            《草案》的算法事前評估制度可類比建設項目的環境影響評估制度。算法可能產生的公共利益、公民權利等風險的評估,包括風險的來源、性質、特殊性和嚴重性等。在數據實踐中,個人信息的隱私與數據安全并不可截然分開,如許多個人信息泄露是由于未能有效維護信息安全而導致的。有他國實踐主張,算法的設計部署者應提供更為廣泛的評估,包括算法應用對人權[14]、隱私[15]和數據保護[16]的影響等;有的學者主張,算法設計部署應著重提供“社會影響聲明”“歧視影響評估”[17],甚至“人類影響聲明”[18]等。我國未來應以行政法規或規章對《草案》確立的算法評估制度具化細化,依據算法應用場景、算法處理數據風險、算法使用部門、算法的法律后果等多種風險評估標準,采取不同的算法監管強度。
           
            (二)平臺算法問責制度的細化
           
            第一,應明確平臺啟動算法評估的條件。我國并未明確平臺對算法自動化決策進行評估的啟動標準,應在未來實施細則中具體明確以方便今后平臺的合規工作。我國的《信息安全技術個人信息安全規范》將“處理超過100萬人的個人信息”作為評估啟動的標準,但對于《草案》中的算法評估在何種條件下啟動并未明確。將算法應用涉及的用戶數量作為高風險標準是為了避免算法造成的系統性風險。這種適用范圍的確定以美國《算法問責法案》為代表,針對有權訪問大量信息的大型公司,適用于年收入超過5000萬美元,擁有至少100萬人或設備的信息或主要充當買賣消費者數據的數據經紀人的公司。法國也將當前(或將來)接觸軟件應用程序的用戶數量構成了確定監管措施是否適當的重要基準,認定每月連接數超過500萬的平臺比連接數較少的平臺受到更嚴格的監管。可以預見,我國未來可能建立以用戶數、企業規模或算法分級為前置條件的評估啟動條件。
           
            第二,應明確平臺啟動算法評估的后果。算法評估報告是否應公布,并在何種范圍內公布?對公眾披露的大風險在于算法的設計信息可能會被競爭對手獲取,或被用戶不當使用。例如,網絡用戶在掌握搜索引擎排名權重等信息后,通過搜索引擎優化(SEO)技術對排名和搜索建議進行操縱。[19]這些風險可通過將披露對象限定于監管部門而得以避免。在各國制度中,美國的《算法問責法案》擬要求平臺對監管部門(FTC)披露信息,澳大利亞反壟斷部門的平臺算法監管措施也僅限于對監管部門的披露,而在英國數據保護機關 ICO 的調查報告中建議數據處理評估的結果應該公開。數據處理評估在實踐當中已經逐漸開始發揮作用。曾供職荷蘭數據保護機關的 Sjoera Nas 在 EDPL 撰文披露了微軟公司 Office ProPlus 軟件的影響評估報告。這份報告由荷蘭政府中央采購部門披露。報告披露,微軟在未經用戶同意的情況下,對用戶使用 Word、Excel、PowerPoint 以及 Outlook 等常用軟件進行數據收集。微軟隱私和法規事務副總顧問事后予以回應,稱相關軟件已經升級,并對算法進行數據收集的問題進行了修繕。《草案》應在未來的具體制度設計中明確算法評估報告的公布范圍。
           
            (三)平臺多元治理體系的完善
           
            平臺運行過程中的算法審計是針對算法運行過程進行問責的主要依據。應鼓勵建立多元主體的平臺問責體系,由平臺對算法進行自我審計與評估,以幫助提前識別和減輕算法可能帶來的風險,這既有助于為日后的問責提供充分有效的信息,又符合鼓勵行業自律的自證合規原則。
           
            平臺的自我審計與評估應包括對算法與使用數據在運行階段的頻繁評估,以檢查是否有任何偏見(例如,錯誤的分類、不準確的預測、對個人的負面影響),并制定解決任何偏見因素的方法。算法審計系統應構建為自動決策的準確性和相關性進行的定期審查,并應包括周期性地防止基于敏感數據的錯誤和不準確而發生歧視的程序和措施。政府對平臺的算法監管需要把握侵入平臺內部運行的限度,盡量形成合作規制,通過低成本“輕推”的監管方式調動平臺的技術力量自我規制。如 Facebook 自2018年起就遭到其偏愛左傾新聞來源的批評,盡管美國并未展開相關調查,Facebook 還是對其算法的政治偏見進行了內部審計。
           
            從技術的角度來看,對測試結果的正確解釋可能受到技術能力的限制,尤其是對于機器學習的算法內部如何達成結果可能無法進行有效解釋。這限制了監管部門提供證據確認平臺算法設計和運行中的過錯。因此,還需要事前就設立不同算法的技術標準、測試程序,審核算法設計運行是否達到了相關標準。政府部門應制定測試程序和審計統計技術標準的計劃,并在必要時根據應用領域進行區分。專業技術支持部門應在算法測試中發揮主導作用。
           
            (四)平臺算法責任的體系化設置
           
            《草案》確立了平臺數據活動造成的損害的過錯責任原則(過錯推定原則)。《草案》第65條規定:“因個人信息處理活動侵害個人信息權益的,按照個人因此受到的損失或者個人信息處理者因此獲得的利益承擔賠償責任……個人信息處理者能夠證明自己沒有過錯的,可以減輕或者免除責任。”由此可以推斷,平臺算法自動化決策(數據活動)造成損害的歸責原則也應為過錯責任原則,那么,如何根據不同的過錯程度設計體系化的平臺算法責任,仍有待未來法律與實踐的回答。
           
            首先,平臺算法問責應對不同類型風險設置不同層次的法律責任。對“高風險”的應用場景可采取風險規制思路,強化事前監管,對應用準入設置必要的評估等要求,完善相應責任立法體系。對于高風險的“關鍵算法系統”可適當采取嚴格責任或無過錯責任,對于風險適中的算法則采取過錯責任原則。
           
            其次,平臺對算法的評估與審計不符合標準,或進行虛假評估與審計時,監管部門可以強制要求披露或介入平臺運營。例如,法國2019年《反網絡仇恨法案》提出提高數據處理透明度,接受技術資源高級視聽委員會的監督,并向后者上報所收到問題的處理情況和必要數據;加強與法國司法系統的合作,取消違法用戶的匿名權利并提交用戶信息,接受獨立檢察官的依法審核及必要介入。
           
            最后,我國可以在復雜領域通過司法審判對具體案件進行平臺算法責任的探索,通過個案析理提升立法清晰度。《草案》中的平臺算法問責制多為統籌性、原則性立法,在具體案件適用過程中存在清晰性不足的問題。
           
            四、結語
           
            人工智能時代,法律的重要任務是保障自動化決策公平的核心公共利益。《草案》中的平臺算法治理框架以保障用戶的個人信息與財產權益為目標,應積極發揮促進公平、發展等民眾福祉的作用。隨著風險社會的來臨,以及平臺權力和算法權力的崛起,法律與監管部門應主動防治風險,建立完善的平臺算法問責制度,形成符合法理和技術邏輯的科學問責思路和監管思路,以促進“負責任”的平臺算法設計與運行體系。

          【作者簡介】
          張凌寒,法學博士,北京科技大學副教授。
          【注釋】
          [1] 在本文中算法自動化決策是完整表述,后文為了行文簡潔,涉及法條可能使用“自動化決策”,涉及國際既有制度則可能使用“算法”,但可視為兩詞語是通用的。
          [2]《重塑文化政策報告》是聯合國教科文組織發布的系列報告,用以監測《保護和促進文化表現形式多樣性公約》(2005年)的執行情況,是全球文化政策的重要文件,旨在“保護和促進文化表現形式多樣性”并“為文化的繁榮發展和自由互動創造條件”。2018年的報告中強調了數據優化算法是文化表達和獲取文化的未來變革力量。大型平臺成功的關鍵之一是要理解數據/元數據不僅僅是副產品,而是代表一種具有超常價值的新型商品,可以轉售或重復使用,例如,優化推薦算法并出售廣告。Google、Facebook、Amazon 和其他大型平臺不只是“在線中介”,它們還是數據公司,因此,它們竭盡全力保護和充分利用其主要輸入。See Re Shaping Cultural Policies: Advancing Creativity for Development, UNESCO Institute for Statistics, http://uis.unesco.org/sites/default/files/documents/reshaping-cultural-policies-2018- en.pdf (last visited 23 April 2020).
          [3] 中央網信辦、工信部、公安部、國家標準委等四部門自2017年以來聯合開展隱私條款專項工作。此后,中央網信辦、工信部、公安部、市場監管總局四部門聯合發布《關于開展 App 違法違規收集使用個人信息專項治理的公告》(中央網信辦公告2019年第1號),受四部門委托,全國信息安全標準化技術委員會、中國消費者協會、中國互聯網協會、中國網絡空間安全協會成立 App 違法違規收集使用個人信息專項治理工作組(簡稱“App 專項治理工作組”),具體推動 App 違法違規收集使用個人信息評估工作。
          [4] Rob Taylor, Facebook and Google Algorithms Are Secret—But Australia Plans to Change That, The Wall Street Journal, https://www.wsj. com/articles/facebook-and-google-algorithms-are-secretbut-australia-plans-to-change-that-11564134106(last visited 23 April 2020).
          [5] 參見張家偉:《深陷臉書數據丑聞“劍橋分析”公司倒閉》,載新華網2018年5月3日,http://www.xinhuanet.com/fortune/2018-05/03/c_1122776912.htm。
          [6] Kenneth A. Bamberger & Orly Lobel, Platform Market Power,32 Berkeley Technology Law Journal 1051(2017).
          [7] 胡凌:《論賽博空間的架構及其法律意蘊》,載《東方法學》2018年第3期,第88頁。
          [8] See Lawrence Lessing, Code: And Other Laws of Cyberspace, Version 2.0, Basic Books,2006, p.35-36.
          [9] See Ann Cavoukian, Privacy by Design: the 7 Foundational Principles Implementation and Mapping of Fair Information Practices, Privacy + Security Academy, https://www.privacysecurityacademy.com/wp-content/uploads/2020/08/PbD-Principles-and-Mapping.pdf (last visited 20 December 2020).
          [10] 蘇宇:《算法規制的譜系》,載《中國法學》2020年第3期;張欣:《算法解釋權與算法治理路徑研究》,載《中外法學》2019年第6期;張凌寒:《算法權力的興起、異化及法律規制》,載《法商研究》2019年第4期。
          [11] 原告互聯網用戶在谷歌搜索引擎中輸入他的姓名 Costeja González 字符時,《先鋒報》分別于1998年1月19日和1998年3月9日曾經登載的兩則報導就會在網頁鏈接中自動彈出。該兩則報導內容及其網絡頁面中會顯示一個房地產拍賣公告,而岡薩雷斯本人的名字出現在拍賣公告中,且拍賣廣告的內容涉及岡薩雷斯的社保債務清償問題。2014年5月13日,歐洲法院(European Union Court of Justice)發布谷歌數據隱私一案的判決書,裁定谷歌西班牙公司敗訴,必須移除原告相關網絡搜索鏈接信息。基于本案訴訟中特殊的案件事實和原告主張,歐洲法院在本案判決書中指出,歐洲網絡用戶可以要求谷歌公司從其互聯網搜索結果中刪除涉及個人的敏感信息,以保護自己的“被遺忘權”(the right to be forgotten)。附隨本案判決書的歐洲法院法律顧問官意見書同時對該判決意見進行了詳細地法律論證。裁判生效后,谷歌公司執行了歐洲法院的判決,并增加了歐盟用戶“被遺忘權申請”的在線申請程序。See Post R C., Data Privacy and Dignitary Privacy: “Google Spain, the Right to Be Forgotten, and the Construction of the Public Sphere”, Vol 67 Duke Law Jounal,981(2017).
          [12] 德國的前第一夫人貝蒂娜·武爾夫起訴谷歌要求其承擔誹謗責任,其自動補足算法補足的關鍵詞暗示武爾夫夫人曾從事過色情服務行業。See Frederic Lardinois, Germany’s Former Foreign First Lady Sues Google for Defamation Over Autocomplete Suggestions, TechCrunch (7 September 2012), http://techcrunch.com/2012/09/07/germanys-former-first-lady-sues-google-for-defamation-over-autocomplete- suggestions/.2018-06-01.
          [13] GDPR 下 DPIA 的規定集中在第35條、第36條,和前言條款(89)到(96)項。另外,根據 GDPR 的原則,第29條工作組于2017年10月也更新了 DPIA 指南。
          [14] 在聯合國人權委員會的文件中,提出了對人權影響的評估框架;See Guiding Principles for Business and Human Rights: Implementing the United Nations “Protect, Respect and Remedy” Framework, United Nations Human Rights Office of The High Commissioner, https://www.ohchr.org/Documents/Publications/GuidingPrinciplesBusinessHREN.pdf[https://perma.cc/R3PC-BW5H](last visited 23 April 2020).同樣,紐約大學 AI Now 研究院提出的算法影響評估框架中也包括對人權的影響,See Dillon Reisman, Jason Schultz et al., Algorith-mic Impact Assessments: A Practical Framework for Public Agency Accountability, AI Now Institute, https://ainowinstitute.org/aiareport2018.pdf(last visited 23 April 2020).歐盟專家委員會提出的《關于先進數字技術人權影響框架》也提出了新技術使用前應考慮對人權的評估,Karen Yeung, A Study of the Implications of Advanced Digital Technologies (Including AI Systems) for the Concept of Responsibility Within a Human Rights Framework,05 MSI-AUT 2018.
          [15] See Privacy Impact Assessments, Federal Trade Commission, https://www.ftc.gov/site-information/privacy-policy/privacy-impact-assessments(last visited 23 April 2020).
          [16] Data Protection Impact Assessments, ICO, https://ico.org.uk/for-organisations/guide-to-the-general-data-protection-regulation-gdpr/accountability-and-governance/data-protection-impact-assessments [https://perma.cc/Q2NL-9AYZ](last visited 23 April 2020).
          [17] Solon Barocas & Andrew D. Selbst, Big Data’s Disparate Impact,104 California Law Review 671(2016).
          [18] Marc L. Roark, Human Impact Statements,54 Washburn Law Journal 649(2015).
          [19] See What Is SEO/Search Engine Optimization?, Search Engine Land, http://searchengineland.com/guide/what-is-sco (last visited 23 April 2020).

          本網站文章僅代表作者個人觀點,不代表本網站的觀點與看法。
          轉載請注明出自北大法律信息網
        0
        北大法律信息網
        www.chinalawinfo.com
        法律動態
        網站簡介
        合作意向
        網站地圖
        隱私政策
        版權聲明
        北大法寶
        www.pkulaw.cn
        法寶動態
        法寶優勢
        經典客戶
        免費試用
        產品服務
        專業定制
        購買指南
        郵件訂閱
        法律會刊
        北大英華
        www.pkulaw.com
        英華簡介
        主要業務
        產品列表
        英華網站
        聯系我們
        用戶反饋
        返回頂部
        二維碼
        不要添了,我高潮了视频