• <output id="qgjlo"><strong id="qgjlo"><xmp id="qgjlo"></xmp></strong></output>

      1. <p id="qgjlo"></p>

        <object id="qgjlo"></object>
        <table id="qgjlo"><strike id="qgjlo"><b id="qgjlo"></b></strike></table>
      2. 算法自動化決策與行政正當程序制度的沖突與調和
        2021/7/26 8:35:28  點擊率[238]  評論[0]
        【法寶引證碼】
          【學科類別】科技法學
          【出處】《東方法學》2020年第6期
          【寫作時間】2021年
          【中文摘要】行政治理中存在著兩種信息不對稱:行政機關與治理對象的信息不對稱、行政機關與行政相對人的信息不對稱。算法自動化決策嵌入行政活動,一方面極大地緩解了第一組信息不對稱,產生了行政權力增強效應;另一方面,算法或壓縮行政活動的各個環節,或作為內部行政決策,逃避行政正當程序制度的控制。從信息論角度,行政正當程序中的告知、申辯陳述、理由說明等環節是信息發送與溝通工具。兩種信息不對稱的此消彼長使得公民權利受到算法自動化決策的侵蝕,“權力-權利”格局嚴重失衡。因此應以解決行政相對人信息不對稱為宗旨,堅持和發展適應算法治理時代的正當程序制度,尤其是行政公開原則、公眾參與原則與說明理由制度。堅持和發展行政公開原則,應增強算法透明度、衡平行政公開與商業秘密制度,并規范信息公開方式;堅持和發展公眾參與原則,應事前開展算法影響評估、重視陳述與申辯環節;堅持和發展說明理由制度,應賦予相對人獲得算法解釋的權利,并明確說明理由的內容與標準。
          【中文關鍵字】信息不對稱;行政正當程序;算法解釋;技術正當程序;算法自動化決策;“權力—權利”格局
          【全文】

            自20世紀50年代起,算法自動化決策即開始被應用于政府的公共行政。[1]在人工智能時代,自動化決策借助深度學習、大數據等技術,以輔助行政裁量、預測調配資源的方式,嵌入了政府的行政治理中,這從深層撼動了傳統行政活動的運行規律和基本范式。更重要的是,這種變化不僅體現在政府行政流程、效率的角度,也體現在了以保障公民權利為核心的行政正當程序層面。
           
            圍繞具體行政行為構建的行政程序從“人”的行為出發,而非機器。算法自動化決策對傳統行政正當程序帶來了諸多挑戰。例如,早在2005年,杜寶良案中行政相對人反復在同一地點違章105次卻未收到行政機關通知,[2]引發了對于全自動行政行為正當程序缺失的廣泛關注。更重要的是,算法可以提前預測風險而調配行政資源,這一活動卻完全不受正當程序的控制。以禁飛名單為例,算法根據既往違法人員的特征,預測高風險人群并禁止其登上飛機。換句話說,被禁飛的人并非已經違法而是有違法風險。但是,直到被阻止登上飛機之前,公民并不知曉其被列入名單,也不知曉列入名單的原因與過程。保證行政活動可信和正當的行政正當程序面臨失靈的風險。
           
            在算法自動化決策逐步廣泛深度嵌入行政活動的背景下,如何堅持、修正和發展正當程序原則是亟待研究的重大議題。筆者從保證公民實體權利與程序性權利、通過正當程序限制公權力濫用的基本立場出發,在行政權力與公民權利互動的理論框架下,剖析算法自動化決策對行政正當程序的挑戰,以及立法者應如何應對行政正當程序實現的制度障礙與技術障礙。
           
            一、算法治理嵌入行政活動的雙重效應
           
            算法自動化決策從信息輸入、信息處理與信息輸出三個層面嵌入行政活動,并改變了行政活動的范式,使得行政機關可以通過風險預測提前配置行政資源。這極大地加強了行政機關對治理對象信息處理分析能力,產生了行政權力的增強效應。但與此同時,算法自動化決策壓縮行政活動環節,架空了行政正當程序;并且以內部決策的角色參與行政活動,使正當程序控制失靈。此消彼長下,形成了“權力-權利”失衡的格局。
           
            (一)算法嵌入行政治理的行政權力增強效應
           
            行政活動中一直存在著行政機關與治理對象的信息不對稱,即政府對社會活動和治理對象信息掌握不足的情況。許多行政制度是為了緩解信息不足的矛盾而建立起來的。例如由于行政機關檢查與發現違法的情況有限,無法獲知所有違法行為,所以罰款額度既要有效懲罰被發現的違法人,也要威懾潛在違法者。例如著名經濟學家加里·貝克指出,最佳的懲罰額度應等于損害除以發現的概率。即,如果只有1/4的發現機會,那么最佳罰款應該是損害的四倍。[3]在現實生活中,如果闖紅燈的交通違法行為的罰款金額200元是以被發現概率為1/4而設立的,那么當交通管理部門設置的闖紅燈攝像可以實現違法行為100%被發現時,罰款金額應相對降低。
           
            算法自動化決策的應用使得這種信息不對稱得到了極大緩解,有效增強了政府的權力運行的廣度、深度和密度。信息技術在我國行政活動中應用已久。[4]2019年以來,以算法為代表的信息技術應用進一步擴展,甚至參與裁量活動領域并進行風險預測,改變了行政活動的范式。2019年1月發布的《國務院辦公廳關于全面推行行政執法公示制度執法全過程記錄制度重大執法決定法制審核制度的指導意見》中明確提出:“一是要推動行政執法裁量的決策輔助系統,規范行政自由裁量權,確保執法尺度統一;二是要開發風險預測系統,提前預警、檢測、研判,及時履行政府職能、提高行政精準性。”[5]在算法自動化決策的推動下,政府對信息的處理能力發生質的飛躍。
           
            首先,政府收集信息數量和質量得到了極大提高。如2016年上海市政府搭建的事中事后綜合監管平臺實現了各部門收集信息的共享,已匯集各類信息247萬余條、累計提請聯合懲戒156萬余條。[6]海量信息有效助力于行政檢查、行政命令等多種行政活動。如我國道路交通安全管理法實施條例要求營運客車、貨車安裝使用行駛記錄儀,為行政執法提供行駛速度、連續駕駛時間等信息。其次,政府處理、輸出信息能力增強,因此行政執法力度與強度也遠強于過去。算法自動化決策可直接統籌信息收集、分析處理與輸出環節,直接作出對行政相對人產生效力的命令、裁決等活動。以廣東省食品藥品監督管理局為例,互聯網藥品信息服務資格證書核發、變更、換發等項證照都已實現電子化。[7]
           
            最后,政府通過算法自動化決策對行政活動大數據的分析,預測評估行政相對人的風險指標,在違規發生之前干預。如北京市城市管理綜合行政執法局通過對全部投訴舉報電話進行定量分析,得出每年夏季晚上某固定時段占道經營違法行為上升的結論,結合指揮系統的位置信息,調配執法力量。[8]
           
            作為一個信息函數,行政效能受到信息采集、傳輸和使用質量的影響。算法自動化決策有效緩解了政府與治理對象的信息不對稱,成為行政權力實現和有效運行的能源和催化劑,也在此基礎上強化了其說服權力行使對象的能力。
           
            (二)算法應用導致的行政正當程序失靈效應
           
            算法自動化決策如何造成了行政正當程序失靈?如前所述,算法增強行政活動中收集、處理和輸出信息的各個環節,從兩方面改變了行政活動的傳統范式:其一,反應型算法自動化決策壓縮行政活動各環節,直接實現行政活動的半自動化與自動化。自動化行政在系統內部瞬間完成,無法分離活動的程序、步驟和方式,而是將所有信息與內容糅雜進既定的算法之中得出結果。其二,預測型算法改變傳統認知范式,根據過去的歷史數據推斷出未來的趨勢。算法可以用來預測風險,先發制人地對行政資源進行調配,事先引導和部署行政活動。
           
            首先,反應型算法對行政活動環節的壓縮,使得正當程序制度無用武之地。反應型算法是算法自動化決策應用于行政活動的常見模式,其基本模型為收集數據—匹配條件—作出決策,具有較強的工具性特征。例如,最簡單的反應型算法為登錄郵箱時輸入密碼—密碼錯誤—拒絕登錄。在行政活動中,名為專家系統、業務規則引擎、決策支持工具等的算法均為反應型算法。通常這些系統包含三個主要組件:其一,相關業務規則(即立法、政策或程序性業務規則)的知識庫或規則庫;其二,一個獨立的推理引擎,該引擎使用推理得出結論;其三,用戶界面,向用戶呈現信息,并將用戶相應提供給推理引擎以得出結論。行政機關可實現行政行為的半自動化或者自動化,甚至如果能梳理好行政執法依據、行政裁量基準、行政執法流程、行政文書整合入人工智能系統,則有可能作出自動化的行政執法決定。[9]
           
            較為常見和簡單的例子是交通違章的自動識別。算法自動化決策可對監控設備采集的數據進行智能識別和分析,按照技術標準形成車輛違法數據,繼而經過交警部門的審核,對違法車輛進行處理,以違法處理單的形式將處罰通知送至違法者。除了人為加入的審核環節,其他環節技術上均可在瞬間糅雜完成。由于算法對行政活動程序的壓縮,原有的按照人的活動環節設立的諸多行政正當程序發送信息的步驟均被省略。
           
            其次,預測型算法對治理對象的預測,實質上架空了行政正當程序。算法自動化決策給信息技術帶來的改變,根本在于對信息認知方式的變化。傳統認知方式下,信息技術圍繞特定認知對象或假設進行信息搜集,對已有的信息作出特定反應,仍具有較強的工具化特征。人工智能時代的信息認知方式下,算法自動化決策具有數據挖掘功能,一方面提高了數據計算能力,能夠從不完全信息中提煉出更多有效信息;另一方面,可以進行趨勢風險的研判和預測。算法自動化決策信息認知方式的改變,產生了可以預測風險的預測型算法。
           
            預測型算法與反應型算法有著邏輯上的根本區別。雖然反應型算法的動態特性使得一旦發生違規,算法就可立即進行干預,但是預測性算法可以在風險發生之前調配資源進行規避,實現“好鋼用在刀刃上”。[10]例如江蘇省稅務機關運用大數據技術,預測稅務風險較高的行政相對人,據統計一年稽查次數減少97%合計8000多次。[11]在此類行政活動中,預測型算法已成為事實上的行政活動核心流程。
           
            然而,預測型算法由于其僅僅是內部行政決策,無法受到正當程序的控制。從時間點上來說,決策發生在具體行政行為發生之前,從外形上來說并不具備具體行政行為的要件,顯然也并非抽象行政行為,只能作為行政機關的內部決策。內部行政決策本身即缺乏正當程序的控制,由于行政決策更多地與政治過程相關聯,導致它并未納入法治的軌道。[12]即使近年來,行政決策亦要被納入法制化軌道已經成為國務院和地方各級政府的基本共識,提出要以正當程序控制行政決策。[13]預測型算法依靠運算在算法黑箱內部得出結果,完全規避了公眾參與、專家論證等信息交換和披露的正當程序控制。
           
            算法自動化決策一方面增強了行政權力,另一方面卻侵蝕了正當程序制度。行政正當程序的缺失,不僅可能造成了行政相對人實體權利消減的結果,更直接損害了其程序性權利。在行政活動中,行政程序具有不同的價值位階,可分為“工具性價值”與“構成性價值”。[14]工具性行政程序關注行為活動的整體流程,目的在于提高行政效率,例如關于行為作出期限和方式的規定;構成性行政程序指的是具有特殊價值追求的制度構造,如聽證、理由明示等。[15]日本學者認為:“違反程序法上所規定的四項主要原則(即告知和聽證、文書閱覽、理由附記、審查基準的設定與公布),至少應解釋為構成撤銷事由。”[16]在我國行政法上,進行陳述、申辯或者參加聽證是我國行政訴訟法規定的具有構成性價值的正當程序,此類程序的缺失即使不影響行政相對人的實體權利,也具有效力瑕疵。[17]
           
            毫無疑問,無論行政活動如何借助科技的力量變得便捷與高效,這類構成性行政正當程序都不應該成為被省略的對象。這不僅造成了行政相對人實體權利的損害,也是程序性權利的缺失。行政相對人在行政活動中獲得知情、陳述申辯、得到理由說明的各項權利,無法得到保證。在此消彼長下,“權力-權利”格局嚴重失衡。
           
            二、算法自動化決策與行政正當程序的沖突
           
            從信息論的角度看,行政正當程序本質是行政機關向行政相對人發送信息的工具。無論是行政活動前的行政公開、聽證,行政活動中的通知、聽取申述與申辯,以及事后的說明理由,目的都是在行政機關與行政相對人之間建立信息溝通機制。算法自動化決策的不透明性遮蔽了行政公開原則,算法設計運行的技術壟斷架空了公眾參與原則,算法決策黑箱無法為相對人提供理由說明,算法自動化決策與行政正當程序產生了嚴重沖突。
           
            (一)行政正當程序制度的信息工具功能
           
            正當程序制度一向被認為是規范行政權力運行、保障公民合法權利的重要制度。從信息論角度觀察,正當程序制度實際上是一種信息工具,目的在政府與行政相對人之間建立信息溝通機制,以緩解行政相對人的信息不對稱,從而達到保障權利的制度目的。行政正當程序具有信息發送的功能,可緩解行政相對人的信息不對稱,本身就是獨立于實體權利的程序性權利,蘊含著實現諸如參與性通知、程序理性和人道性等效能。
           
            正當程序的基本含義是當行政機關作出影響行政當事人權益的行政行為時必須遵循法律的正當程序,包括事先告知相對人,向相對人說明行為的根據、理由,聽取相對人的陳述、申辯,事后為相對人提供救濟路徑等。[18]從信息工具的角度觀察,正當程序制度的幾項核心內容均系為了解決行政機關與行政相對人的信息不對稱問題。如果把行政行為的過程分為作出前和作出后兩個階段,正當程序制度在行政行為作出前要求行政機關對相對人發送足夠的信息,在作出后亦要求提供糾正信息的路徑。
           
            第一,正當程序制度包含著行政活動前的“信息發送”工具。例如要求行政機關對相對人有合理的告知。所謂合理的告知,不僅是指相對人應得到被處理事項的合理說明,也包括其在合理的時間內被告知。沒有告知或不恰當的告知,將影響相對人行使程序和實體上的權利。還要求說明理由,即行政機關作出任何行政行為,特別是作出對行政相對人不利的行政行為,除非有法定保密的要求,都必須說明理由。[19]
           
            第二,正當程序制度包括行政活動中的“信息溝通”工具。即,強制要求行政機關必須獲取行政相對人的信息。例如,要求行政機關作出任何行政行為,特別是作出對行政相對人不利的行政行為,必須聽取相對人的陳述和申辯。行政機關作出嚴重影響行政相對人的合法權益的行政行為,還應依相對人的申請或依法主動舉行聽證。
           
            第三,正當程序制度包括行政行為后的“信息糾正”工具。例如,要求行政機關事后為相對人提供相應的救濟途徑,其目的是為了防止行政行為錯誤,給相對人獲得“信息糾正”的機會。以上種種正當程序制度的要求,都是力圖解決行政機關與相對人信息不對稱的情況。而只有符合正當程序的行政行為方為合法有效,也充分說明了信息工具的缺失會直接影響行政行為的法律效力。盡管行政機關與相對人之間的信息不對稱無法最終消除,但通過正當程序“發送信息”是法律對行政行為的基本合法性要求。
           
            從這個角度去理解正當程序制度,會發現政府信息公開制度、行政聽證制度、說明理由制度、公眾參與制度等本質上均為信息工具。通過程序來強制性要求政府對公眾披露行政活動中的信息,達到控制公權力保障公民權利的目的。20世紀中期以后,隨著各國行政程序立法的發展,正當程序原則在世界許多國家如奧地利、意大利、西班牙、德國等得到了確立和廣泛使用。從程序控權取代實體控權,從注重行政行為的合乎實體法規則向注重行政行為的合乎程序性轉變,以正當程序模式的行政法來彌補嚴格規則模式之不足,已經成為當代行政法的主流。[20]其背后的考量,是行政行為所需的信息越來越龐雜,依靠實體法規則已經無法囊括,只能退而要求在程序法規則上滿足“發送信息”的要求,交由具體行政活動中相對人獲得的信息來保障公權力在合法范圍內運行。
           
            行政正當程序的信息發送功能由于算法自動化決策阻礙無法實現。無論是反應型算法壓縮行政程序各個環節造成行政正當程序的缺省,還是預測型算法直接作為內部決策規避行政正當程序,最終均導致行政相對人無法接收到行政機關通過行政正當程序發送的信息。具體而言,尤其以行政公開原則、公眾參與原則與說明理由規則為甚。
           
            (二)算法不透明遮蔽行政公開原則
           
            20世紀中期以后,公開、透明、公眾參與已構成現代正當法律程序的基本的、甚至是不可或缺的內容。[21]美國、歐盟諸多成員國等近50個國家和地區,都在20世紀60年代以后或21世紀初陸續制定了信息公開法和與美國“陽光法”類似的透明政府法。[22]行政公開指的是行政機關的活動要堅持信息公開,除國家秘密、商業秘密與個人隱私的內容,應由行政機關向社會公眾進行公開。[23]
           
            算法導致的行政公開原則缺失可分為兩類原因:不愿公開與公開不能。具體而言,第一類原因是算法的采購、設計與運行,甚至算法的存在本身,政府基于各種考慮可公開而不愿公開。私營公司主張公開算法侵害商業秘密,政府官員可能會擔心公開披露的算法會被篡改或規避,阻礙行政目的實現。[24]2017年年底紐約市政府開展的世界首次算法監管活動堪稱典型。紐約市算法監管工作組召開了三次會議,直到2019年4月仍未就“算法自動化決策”的定義與范圍達成共識,各政府部門也拒絕提供使用的算法清單,僅肯提供示例。[25]此次監管活動也因未取得成效受到了廣泛批評。
           
            第二種是“算法黑箱”造成的公開不能。“算法黑箱”是指在算法決策數據輸入、計算和輸出的三個環節中,分別面臨著三個難題:數據收集由于公共利益豁免知情同意規則而不透明、算法決策過程由于商業秘密保護而不公開、數據分析結果與決策之間轉換不公布。
           
            算法不透明可由于政府嚴重的技術依賴關系形成一個惡性循環。政府不僅需要購買算法系統,還需要私營公司提供長期技術支持以便對算法系統運行進行維護和改造。私營公司為了壟斷相關技術領域,會更加排斥將算法軟件技術開源或公布。這進一步導致了某個專門的算法系統長期壟斷某行政部門的行政活動技術支持,更加缺乏來自社會公眾的監督。2014年美國一項針對政府工作人員的調查顯示:“聯邦政府工作人員沒有足夠的數據分析技能將復雜的數據集轉化為決策者所需要的信息……高達96%的受訪者認為他們所在部門存在數據技能短板。”[26]因此,調和算法自動化決策與行政信息公開的原則需平衡的三組利益:要求企業披露算法的相關信息,同時又不損害商業秘密和競爭優勢,同時又能夠確保公眾監督。
           
            (三)技術壟斷架空公眾參與原則
           
            行政正當程序中的公眾參與原則極為重要,“某種形式的聽證”被認為是程序正當性過程最基本的要求,是行政機關提供正當程序的最低限度。[27]然而,算法自動化決策系統由私營公司“技術壟斷”,公眾的參與權難以得到保障。
           
            公眾參與原則的核心理念是“聽取公眾意見”。具體而言,包括兩個層面:第一,公眾應有權利參與行政活動,這體現了正當程序的公共意志形成功能;第二,在具體行政行為中,應充分聽取當事人的陳述和申辯。在公眾參與的過程中,要設置專門的程序如聽證保證公眾能夠參與,并要保證參與各方信息的對稱性。公民的有效參與,意在通過自己的行為影響某種結果的形成,而不是作為一個消極的客體被動地接受某一結果在算法廣泛嵌入行政活動的背景下,公眾參與原則面臨多重障礙。
           
            第一,公眾參與行政活動面臨私營企業技術壟斷的障礙。算法自動化決策本質是對于行政資源的分配,但這一過程改變了政府資源分配和監督行政相對人的一貫做法,轉而由私營企業承擔核心角色。在此次疫情防控期間,各地政府依靠私營公司的技術力量進行健康碼的設計和運行工作,并大有將健康碼運用于社區、企業、群體等社會公共活動中的趨勢,然而,這一過程由私營公司壟斷,公眾并無參與機會。[28]“智慧城市”也極好地體現了“公共權力私有化”這一趨勢。政府部門的數據、權力和私營公司的技術力量結合,發展出了主宰城市運行的智能系統。[29]技術公司壟斷了硬件與算法系統的開發、設計和使用,卻拒絕對公眾公布算法收集處理數據的權限和過程。[30]如邁阿密市政府與照明技術公司簽訂為期30年的合同,使該公司可以免費安裝裝有攝像頭和牌照讀取器的燈桿,為邁阿密警察局收集和處理信息,而該公司可以使用這些數據。[31]政府大多數情況下需要以技術服務合同的方式向私營企業購買算法系統的設計和運營服務,因此算法自動化決策(例如專家系統、自動行政)的采購和設計處于完全不透明的狀態,缺乏公眾參與的聽證環節。公眾沒有機會在行政活動中融入自身的價值判斷和權利主張,更無法實現對行政權力濫用的程序性控制。
           
            第二,自動化(半自動)行政行為根據算法設定的規則運行,這一過程由行政機關與技術公司壟斷,沒有為行政相對人提供陳述與申辯的機會。由于缺乏有意義的通知,并且政府傾向于預設算法結論是正確的,這共同造成了相對人陳述與申辯環節的缺失。當反應型算法應用于行政處罰等可能產生不利于行政相對人法律后果的行政行為時,缺乏陳述與申辯環節是嚴重的程序瑕疵。
           
            由此可見,算法自動化決策既回避了行政決策的公眾參與和聽證,也消解了具體行政行為層面的當事人陳述和申辯的程序,造成了公眾參與原則的缺失。如果一項技術是服務于社會中的大多數群體,政府的作用就不可替代,無論作為社會系統的設計者還是行業領域技術創新的監管者,政府都要承擔起責任,打破技術中心主義的局限。[32]
           
            (四)算法黑箱無法提供理由說明
           
            正當程序中的說明理由制度是指公權力機關在作出決定或者裁決時,應向其他利害關系人說明法律依據和事實狀態,及通過相關法律和事實狀態進行推理或裁量而作出結論的過程,從而表明理由與最終該決定的內在聯系。[33]尤其是行政機關作出不利于行政相對人的行政行為時,除非有法定保密的要求,都必須說明理由。我國行政處罰法、行政許可法等法律法規均明確規定了行政行為說明理由的要求。[34]這說明理由制度是正當程序中的重要構成要素,違反說明理由義務可能直接影響到決定或者裁決的效力。[35]
           
            預測型算法作出行政決策的時點是在行政對象作出行為之前,依據是大數據的相關關系而非因果關系,因此無法提供理由說明。由于大部分深度學習推薦算法將數據變換到一個隱含空間,可以計算如何無限接近算法設定的目標,但是很難提供直接的決策理由。[36]尤其是預測型算法在行政治理中的應用,將行政對象的目標與既有數據對比,應用數據分析來發現特征和結果之間的相關性,并利用這個分析來生成可能不容易解釋或理解的預測。[37]一個正當的行政行為要求理由的公開,并公布作出行政行為的證據。而由于預測型算法的時間點在事件發生之前,所以尚無證據存在。這種先驗性使得合法正當行為所需要的具有證明力的證據不可能存在。
           
            算法預測指導的行政活動對行政對象挑選并進行甄別,卻無法提供實質性證據。這實際上構成了對行政對象區別性的不利對待,可能違反法律面前人人平等的原則。[38]典型的預測型算法應用為“預測警務”,如北京市公安局懷柔分局的“犯罪數據分析和趨勢預測系統”收錄了懷柔9年來一萬余件犯罪案件數據。2014年5月,該系統預測提示:近期泉河派出所轄區北斜街發生盜竊案的可能性較高,派出所加大對該區域的巡邏,并于5月7日抓獲一名盜竊汽車內財物的嫌疑人。[39]預測型算法使得在高治安風險地區相應投入更多警力,使得該地區的治安違法行為更容易被查到,導致風險級別進一步提高,可能形成一個失真的回饋環路。
           
            算法預測準確率無法保證,一旦出錯可能造成無法挽回的損失。2017年12月,美國伊利諾伊州兒童和家庭服務部宣布,終止評估兒童安全和風險的預測系統,因為算法預測不準確造成了父母與子女錯誤分離的后果。同年早些時候,美國洛杉磯郡也由于預測型算法的黑箱問題與高誤報率終止了預測型算法用于兒童受虐風險的評估項目。[40]
           
            算法深度學習與相關可能存在的預測失真問題由于算法自動化決策無法提供理由說明,算法決策缺乏有效的法律程序控制,易于不斷自我肯定與強化,造成行政行為持續性錯誤與相對人權利受損。
           
            三、基于行政信息公開原則增強算法自動化決策透明度
           
            (一)算法嵌入行政活動背景下行政信息公開原則的回歸
           
            現有算法自動化參與的行政活動中,我國法律作出了一定調整,但仍在某些領域需要行政信息公開規則的回歸。例如,在算法自動化決策參與行政許可行為中,我國行政許可法第33條規定了以數據電子方式提出行政許可,應在行政機關的網站公布許可事項。[41]作為行政信息公開在算法治理時代的因應性調整。然而,在算法自動化決策參與的行政活動中,尚有行政信息公開原則的一些基本規則尚未得到滿足。
           
            首先,應增強算法自動化決策的可見性,作為行政信息公開的基本要求。我國政府部門中,算法自動化決策系統多以“秒批”“智能交通”“智慧司法”為名。我國不僅對于人工智能算法應用于政府部門并無清晰的規劃與分類,現有的電子政務的公示與通知也并不完善。2018年第十七屆中國政府網站績效評估顯示,超過15%的政府網站的辦事指南存在權力清單與行政事項不對應,35%的政府網站辦事內容不準確,80%存在辦理材料詳單不清晰。[42]政府不應僅將算法系統看作是辦公輔助系統,而是應公布政府部門自動化決策清單,讓公眾知曉哪些行政活動有自動化決策的參與,了解算法自動化決策可能帶來的權利影響。
           
            其次,算法作出決策的基本規則和因素權重,應該對公眾與社會公開。形式的改變并不能豁免政府信息公開的義務。算法參與的行政行為并不會因為缺乏意思表示要素而不受行政法的拘束。原因在于,各類智能機器、評估模型等自動化設備的設置及啟用以及運作方式,都是由行政機關發蹤指示,行政機關仍是行政程序的主宰,所作出的表示或決定,都是行政機關的行為,具有法效意思及規制效力,性質上仍為具體行政行為。[43]如果政府機構采用一條規則,僅僅以為算法運行不能直觀地作出解釋,就拒絕向公眾公開,則違反了行政行為應公開透明的基本原則。早在1992年的案件中,美國聯邦公路管理局拒絕披露用于計算運營商安全評級的算法,但法庭認為這違反了信息自由法中政府披露政府記錄和數據的要求,判決聯邦公路管理局必須披露計算中所用因素的權重。[44]
           
            以上是行政信息公開原則對算法自動化決策應用于行政活動的基本要求。除此之外,行政信息公開原則面臨著“算法黑箱”的挑戰,需作出相應的調整。
           
            (二)行政信息公開原則在算法數據收集環節的貫徹
           
            算法治理時代,人類將被降格為信息存在,以便接受機器的計算,方便企業獲得利潤和政府監督管理。[45]行政機關可大量收集公民數據,不僅基于公共利益豁免“知情同意”規則的限制,[46]還可要求私營公司報送數據。[47]這就導致,行政相對人并無機會知曉,嵌入在行政活動中的算法自動化決策通過哪些個人數據作出了決定。為了遵循行政信息公開原則:
           
            首先,行政機關收集數據同樣受到“合法、正當、必要”原則限制,應在行政活動中逐漸將此類規則細化。[48]從行為性質上梳理,行政機關對個人信息的收集行為屬于內部行政程序,僅僅作為后續行政行為的必要前置活動,并不受到具體行政行為的相關法律限制。但是,作為數據收集行為,仍需嚴格遵循正當目的原則與必要原則。以新冠肺炎疫情防控為例,無論是健康碼對個人敏感數據的大規模收集與使用,還是大數據對公民的追蹤定位,包括社區出入居民的信息登記,均應有公共衛生緊急狀態作為正當性基礎。在緊急狀態恢復成日常狀態之后,即使疫情狀態防控常態化,也應避免對公民個人數據的收集與追蹤常態化。
           
            其次,盡管基于公共利益考慮無法要求政府再次獲得數據個體的知情同意,但起碼應在平臺向個體收集數據時,作出“不利行為”通知。即如果政府可能根據第三方的信息作出行政的自動化決策,對行政相對人有負面不利影響,則應要求平臺在收集數據之時就告知數據個體。例如,應提示行政相對人,自動化決策結果參考了個人的公開信息、犯罪記錄、信息記錄,甚至可能是社交媒體使用情況。美國學者歐內斯特·格爾霍恩所指出的,政府機構實施的不利公布行為之基本功能就是通知,目的在于告知公布對象相關政策或情況,以便他們再行為選擇時可以利用這些信息。[49]
           
            此外,法律應及時劃定政府獲取第三方平臺數據的邊界,防止政府以公共利益為名無限度獲取平臺通過知情同意收集的用戶數據,并規定政府做好相關的數據安全保障工作。
           
            (三)行政信息公開原則與保護算法商業秘密的衡平
           
            應平衡算法自動化決策的模型公開與保護私營企業商業秘密之間的沖突,適度增加算法自動化決策的透明度。一直以來,公開算法模型都被開發設計算法的私營公司以“保護商業秘密”為由反對。例如,美國法學教授要求紐約州和紐約市公布教師評分的算法,遭到了紐約州教育部的拒絕。因其算法技術供應合同規定,承包商提供的方法或措施是“專有信息”,教育部門不能公開。[50]這引發疑問,私營企業的商業秘密可否凌駕于行政正當程序對信息公開的要求之上?
           
            堅持行政公開原則,必須衡平商業秘密保護與公民正當權利之間的價值位階。行政信息公開是一種集體語境下的程序正義,算法自動化決策普遍適用于行政相對人,本質是一般規則。算法的開發設計過程類似于起草和通過一項即將適用于一大批案件的一般證據規則。一套算法系統可對多個行政相對人產生法律效力,一旦發生錯誤可能產生彌散化的損害后果。而具備正當性的規則應具有可預測性,即人們可以根據規定,事先估計到當事人雙方將如何行為及行為的后果,從而對自己的行為作出合理的安排。[51]這種對規則的知情權既是一種人權,也是可依據我國憲法推導出的公民權利。[52]相對于私營公司的商業秘密保護,顯然價值位階更高。
           
            退一步論證,要求公布算法決策要素及權重,并不是要求公布技術源代碼,而是要求公布被代碼化的法律規則。當前,有學者認為算法的透明既非必要也不可能,甚至存在一定的害處。[53]這將算法透明視作單一的、絕對的源代碼披露,忽視了算法的透明具有多層次性、多種方式、多種對象。
           
            算法自動化決策系統信息公開的不足會導致對政府公權力信任的不足,民眾信任的缺失可能導致更多的上訴,抵消掉算法系統帶來的行政效率提高效應。鑒于算法的技術性,美國學者嘗試發展“技術性正當程序”的制度來解決這一問題,即通過強調編碼公開、開發公眾參與程序、系統軟件測試等來實現程序所要求的透明化、公開和可問責等要求。[54]因此,未來在政府內部增加專業力量,由既懂行政規則又懂技術的人員來監督算法設計運行,方為解決之道。
           
            (四)行政信息公開與算法決策輸出的說明
           
            行政信息公開應包括對于行政決策結果中,在何種程度參考了算法自動化決策結果的信息。某個具體的行政行為,算法自動化決策可能起到不同程度的作用。有可能算法自動化決策直接成為生效的行政行為,如深圳市政府的“秒批”事項在2020年已達212個;[55]有可能需要進行進一步人工審核,如再犯風險評估軟件的法官審核。在此意義上,算法自動化決策對具體行政行為的干預程度和行政決策的可逆性應向行政相對人公開。即使算法自動化決策已經開始深度嵌入行政活動,但考慮到行政權力有著諸多不可讓渡的空間,并且涉及國家等基本概念的存系,應盡量減少算法直接作出行政決定的情況。[56]
           
            與此同時,應尤其注意算法自動化決策結果對技術弱勢群體的說明方式。我國政府信息公開條例第43條規定:“申請公開政府信息的公民存在閱讀困難或者視聽障礙的,行政機關應當為其提供必要的幫助。”[57]依此立法精神,應在信息公開環節同樣照顧老人、受教育程度較低人群等技術弱勢群體,以簡明、圖畫方式對公眾說明算法自動化決策。
           
            綜上所述,行政部門應用算法自動化決策既應符合行政信息公開的基本要求,也應在輸入數據、決策過程和最終決策層面遵循行政信息公開原則的要求。德國第36屆信息官員自由會議通過一項文件“算法在公共管理中的透明度”。根據此文件,德國政府部門使用的算法必須要公布:(1)有關程序輸入和輸出數據的數據類別的信息;(2)算法所涉的邏輯,尤其是使用的計算公式,包括輸入數據的權重,基本的專業知識以及用戶部署的個人配置;(3)最終決策的范圍以及程序可能產生的后果。政府使用算法決策如不遵循行政信息公開原則,算法自動化決策的公平、可問責則無從談起。
           
            四、基于公眾參與原則進行算法影響評估
           
            行政正當程序中的公眾參與原則具有重要的實體權利保障功能,應從加強公眾參與與恢復相對人陳述和申辯權利兩個方面,發展算法治理時代的行政正當程序。
           
            (一)以算法影響評估保證公眾參與算法系統訂購與使用
           
            行政一般規則的制定需要公眾參與的審議,然而技術力量壟斷主導的采購與設計流程架空了這一過程。公眾參與原則要求算法自動化決策系統在被用于決策和影響行政相對人之前,公眾有權了解、評估和參與其對于自身和社會的影響。
           
            算法影響評估是既有行政制度資源的發展,可參考環境影響評估等類似的相關制度。這一制度的目的在于讓政府使用算法自動化決策前,能夠創造機會使得行政相對人、研究人員和決策者共同參與影響評估。這為公眾提供了算法系統部署前發現問題、表達訴求主張,甚至反對使用算法的機會,本身就是向社會提供算法系統信息的機制,能夠讓公眾更加了解情況、增加算法透明度,并讓政府部門、算法研發人員和公眾進行富有成效的對話。其體現出行政程序不應是行政主體單方用來約束公民、組織的工具,更是要體現出民主、責任、參與、法治的訴求。
           
            目前,我國各級警務部門的算法系統上線過程基本采用“個別試點后全面上線運行”的模式。這種模式可以視為試運行階段的算法影響測評,但上線前此類算法系統并無明確的評估程序,公眾無法借助參與過程提出自身的訴求。為了保證算法自動化決策系統被安全地部署于政府部門,歐洲議會提出了“算法影響評估(AIA)”的制度框架,即對于可能對公民權利造成影響的算法自動化決策系統,應允許社區和利益相關者進行評估,以確定是否可以以及在什么領域使用算法。[58]一些國家則已經將算法影響評估制度從倡議落實為制度。加拿大在2020年生效的自動決策指令中,提出了對算法影響的評估制度。[59]美國華盛頓州通過了眾議院和參議院的針對公共部門算法系統的HB165法案,[60]要求政府部門的算法系統在使用之前必須由政府在公共網站上公布,“并邀請公眾就算法問責報告發表評論,時間不得少于30天”。[61]實際上,在歐盟通用數據保護條例(以下簡稱GDPR)中規定的“數據處理活動影響評估”制度實際上也是類似的算法自動化決策系統影響評估制度,而且既適用于私營公司也適用于公共部門。[62]
           
            算法自動化決策的評估程序,不僅是公眾參與的有效路徑,也是算法設計者和使用者(平臺或政府)進行自我監管的重要方式。例如,我國中央網信辦將某些算法應用定義為“具有輿論屬性或社會動員能力的互聯網信息服務”,并要求其進行自我安全評估。[63]舉輕以明重,由政府部門購買使用的算法自動化決策,也不應被置于秘密黑箱之中,而應在投入使用切實影響公民權利之前,經過公眾參與的算法評估程序。在我國2020年7月發布的數據安全法(草案)征求意見稿中,提出了重要數據處理者的風險評估制度,以及政務數據委托處理的批準程序,但此類規定出于保護數據安全,基于保護公民權利的程序制度尚付諸闕如。
           
            (二)將通知與申辯環節作為算法決策生效必經程序
           
            第一,應避免全自動行政行為直接對當事人發生法律效力,保證行政相對人可以收到算法自動化決策的有效通知,作為行政行為生效的必經程序。為保障行政效率,很多的算法作出具體行政行為時完全無需任何人工干預。但是,當算法作出了不利于當事人的決定時,按照正當程序更應該提供有效通知。例如我國榮成市將個人信用評分的計算和評級分為指標得分和直接判級兩種,前者是按照信用信息評價標準予以加(減)分,后者則是針對嚴重失信行為,將自然人的信用級別直接降級,被降級的自然人可能面臨如限制出境、限制高消費、公布姓名等懲戒行為。這類算法自動化決策應以對相對人的及時通知作為后續行政活動展開的基礎,公民可以主張相關內容的更改、撤銷或者無效,方可為公民提供后續的救濟路徑。基于這種考慮,德國行政程序法上對完全自動化行政的適用規定了兩個條件:其一,法律保留,即僅當法律法規允許時方可適用;其二,行政機關不存在裁量和判斷余地時方可適用。
           
            第二,應保證當事人有陳述和申辯的權利,確保公民獲得人工干預算法自動化決策的權利。心理學的認知實驗表明,人類將算法自動化系統看作防錯系統,當算法與人的決策出現分歧時,自動化系統的操作員傾向于相信計算機的回答。[64]因為解碼算法自動化決策的成本過高,而驗證該算法作出的某個具體決策是否準確相比之下收益變得極小。這導致算法自動化決策作出具體行政行為的情況下,具體個案的聽證成本極高,并不符合成本—收益分析法。第22條為類似境遇的相對人提供了出路:不受完全的自動化決策支配的權利,以及獲得人為干預的權利。在官方的解釋性文本中指出,該條款的目的旨在保護數據主體的利益,保障數據主體可以參與對其重要的決策。強有力的行政部門對個人使用數據進行自動化決策的行為,使數據主體活在“數據陰影”之下,剝奪了個人影響決策過程的能力。
           
            五、基于說明理由規則創設算法解釋權
           
            由于數據來源的不透明、算法黑箱等因素,算法自動化決策的結果是如何得出的卻難以為個體所知曉。算法治理時代應在適用算法自動化決策時堅持并修正行政行為說明理由的制度。
           
            (一)發展算法解釋權說明具體行政行為的理由
           
            各國的立法者與學界達成共識,即自動化決策的算法應當具備可解釋性,使得用戶有權知曉決策的原因。[65]如法國數字事務部長表示:“如果政府不能解釋其決定,政府就不應該使用算法。”[66]如果對于相對人不利的行政活動缺乏理由的說明,不僅會造成嚴重的程序性權利損害,更會使得行政相對人并不知曉理由而無法獲得行政法上的救濟。
           
            如果將算法自動化決策看作是專家論證,行政決策的科學性也必然要求建立行政決策專家咨詢的說明理由制度。算法自動化決策經常以“專家決策輔助系統”的形式參與行政決策,行政部門應以其理性解釋回應公眾疑問,這既是對行政決策理性內涵的解釋,也是對公眾的一種負責任的回應。[67]無法提供理由說明的專家意見直接影響行政決策的效力。司法實踐中,以專家咨詢結論說理不充分為由否定行政決策的個案并不鮮見。
           
            算法解釋權已經從理論逐步發展為各國的具體制度,但其面目一直模糊難辨。以最早提出算法解釋概念的GDPR為例,其第13條、第15條提出的應使數據主體了解“有意義的信息”“參與決策的邏輯”等規則,可以被法官寬泛或限制性解釋,也可能由于算法決策并非“完全基于自動化處理的決策”而被規避。
           
            法國2017年頒布實施的數字共和國法案則規定了較為具體的針對公共部門的算法解釋權。第一,針對的算法自動化決策范圍擴大,不再要求是“完全基于自動化處理的決策”,而涵蓋了行政機關的決策支持算法系統。第二,法國的算法解釋權僅適用于行政決定,因公共部門披露算法決策更具有理論正當性,并且沒有商業算法決策的商業秘密障礙。第三,披露的內容具體、范圍明確。要求提供的具體解釋內容包括算法在行政決策中所起的作用與模式,算法處理的數據及來源,以及算法作出決策的權重,以及其如何適用于個體。無獨有偶,加拿大公共部門算法的自動化決策指令在2020年4月生效,要求使用算法決策的公共部門,應就其決策向受影響的個人提供有意義的解釋,甚至包括決策中使用的變量。可見,針對向行政相對人個體提供具體的算法解釋具有不可替代的制度價值并逐漸成為各國實踐。算法影響評估制度并不能代替算法解釋權制度,因為其旨在事前風險的規避,而非事后的個體救濟。
           
            (二)行政行為算法解釋的內容和標準
           
            理由說明的目的不僅限于知情,更在于提供救濟路徑。換句話說,理由說明不僅要使相對人知曉決定是如何作出的,同時還應提供相對人可修正自動化決策的方法。具體的自動化決策算法解釋的理由說明包括:具體決策的理由、原因、產生決策結果的個人數據。例如每種指標的功能權重,機器定義的特定案例決策規則,起參考輔助作用的信息等。[68]在決策涉及相對人實體權利、程序權利及救濟權利,涉及“最低限度的公正”時應就自動化決策系統的運營過程、運營結果、作出行為的推理,給出理由說明。政府部門提供的算法解釋應遵循以下標準:第一,解釋的客體完整。自動化決策的算法解釋應由監管部門統一提供格式解釋文本,保證算法設計者和使用者提供的解釋客體完整且無遺漏,否則應視為無效的解釋。第二,政府具體行政行為的理由說明,如不能提供理由則應視為沒有理由,[69]可能直接導致政府算法自動化決策的行為失效。第三,解釋語言清晰平實,以書面形式作出。自動化決策算法解釋本質是由信息占有優勢一方作出的“信號發送”行為。由于政府與行政相對人權力與技術力量的差距,應要求自動化決策算法解釋必須以清晰平實的語言作出,否則會導致解釋徒具形式而無法被理解。[70]行政機關的算法解釋應遵循具體行政行為說明理由的要求,或以書面形式作出,或在作出行政行為時必須說明,方便為日后行政訴訟與算法問責留存證據。
           
            不透明的自動化決策應具備可解釋性而受到公眾監督,使相對人有權知曉決策的原因,已經成為算法自動化決策治理機制的共識。如果要求政府使用的算法自動化決策必須提供解釋和理由說明,還可以限制政府使用過于復雜的機器學習的算法系統。
           
            六、結語
           
            在已有的世界各國的立法中,政府使用的算法自動化決策都是被優先作為監管的對象。公民有權利期待國家使用現有的最佳技術來履行其行政管理職責,這既來源于政府機構有直接義務維護行政相對人的各項權利,更來源于行政機關應為整個國家樹立榜樣。試想,如果被民眾信賴的、擁有最多社會資源的政府尚不能在算法自動化決策中保障公民權利,又如何指望私營的互聯網企業同樣公開、透明呢?算法治理時代,亟需遵循行政正當程序的制度精神以改變對算法“技術中立”的錯誤認識,避免“算法監獄”與“算法暴政”的產生。[71]算法治理時代,堅持、修正與發展正當程序的具體制度,是政府負責任地應用算法自動化決策的基本要求。

          【作者簡介】
          張凌寒,北京科技大學文法學院副教授,法學博士后。
          【注釋】
          [1]自動化決策系統被用于公共行政的歷史長達幾十年,早在1958年德國就有電子自決立法,直至今天,荷蘭稅收管理部門仍然在使用一些20世紀70年代的稅務自主處理系統。
          [2]2005年5月23日,杜某某偶然查詢得知其于2004年7月20日至2005年5月23日在駕駛小貨車運菜時,在每天必經的北京市西城區真武廟頭條西口被“電子眼”拍下闖禁行105次,被罰款10500元。此前,從未有交管部門告知他有違法行為。
          [3]參見[美]羅伯特·考特、托馬斯·尤倫:《法和經濟學》(第6版),史晉川、董雪兵等譯,史晉川審校,格致出版社、上海三聯出版社上海人民出版社2012年版,第456頁。
          [4]信息技術嵌入我國行政治理活動的前兩個階段:第一階段,以提高效率為目標,致力于政府信息工具基礎設施建設并培訓技術,實現辦公無紙化與自動化,以“三金工程”為代表;第二階段,以推進政府行政流程改革為目標,大力推行“互聯網+政務”,以各地政府上網、開通政務公眾號、開發政務App的廣泛使用為代表。
          [5]《國務院辦公廳關于全面推行行政執法公示制度執法全過程記錄制度重大執法決定法制審核制度的指導意見》第17條。
          [6]上海市政府:《2016年上海市法治政府建設情況的報告》,載http://www.shanghai.gov.cn/nw2/nw2314/nw2319/nw12344/u26aw52470.html,2020年3月12日訪問。
          [7]參見宋華琳、孟李冕:《人工智能在行政治理中的作用及其法律控制》,載《湖南科技大學學報(社會科學版)》2018年第6期。
          [8]參見袁雪石:《建構“互聯網+”行政執法的新生態》,載《行政管理改革》2016年第3期。
          [9]參見同前注[8],袁雪石文。
          [10]同前注[7],宋華琳、孟李冕文。
          [11]參見同前注[7],宋華琳、孟李冕文。
          [12]參見肖北庚、王偉:《行政決策法治化研究》,法律出版社2015年版,第1頁。
          [13]截至2013年3月,共有20部地方政府規章和258個地方政府規范性文件對行政決策程序作出規定。例如《四川省人民政府重大決策專家咨詢論證實施辦法(試行)》(2004)、《成都市重大決策事項專家咨詢論證實施辦法(試行)》(2004)、《武漢市人民政府重大決策事項專家咨詢論證實施辦法(試行)》(2006)、《長沙市人民政府重大決策事項專家咨詢論證評估制度》(2007)、《銀川市人民政府重大決策事項專家咨詢論證評估制度》(2008)、《廣東省重大行政決策專家咨詢論證辦法(試行)》(2012)等。轉引自湛中樂、高俊杰:《作為“過程”的行政決策及其正當性邏輯》,載《蘇州大學學報(哲學社會科學版)》2013年第3期。
          [14]美國學者薩摩斯提出,工具性價值的行政程序對實現好的結果具有意義,而構成性價值的行政程序在實體結果之外,將行政程序區分為“過程性”與“裝置性”。參見姜明安:《正當法律程序:扼制腐敗的屏障》,載《中國法學》2008第3期。
          [15]參見[日]鹽野宏、閆爾寶:《法治主義與行政法——在日本的展開》,載《中山大學法律評論》2011年第1期。
          [16][日]鹽野宏:《行政法》,楊建順譯,法律出版社1999年版,第230頁。
          [17]2018年2月發布的《最高人民法院關于適用〈中華人民共和國行政訴訟法〉的解釋》第96條明確指出:原告的聽證、陳述、申辯等屬于重要程序性權利,不得造成實質損害;而處理期限輕微違法或者通知、送達等屬于程序輕微違法。
          [18]參見姜明安:《行政法與行政訴訟法》(第2版),北京大學出版社2005年版,第72頁。
          [19]同前注[18],姜明安書,第73頁。
          [20]參見周佑勇:《行政法的正當程序原則》,載《中國社會科學》2004年第4期。
          [21]姜明安:《公眾參與與行政法治》,載《中國法學》2004第2期。
          [22]美國于1967年制定《信息自由法》,1976年制定《陽光下的政府法》,此兩法之后均歸入1946年制定的《行政程序法》作為正當法律程序的組成部分。歐盟和歐盟的許多成員國(如德國、意大利、英國、法國、荷蘭、丹麥、芬蘭)以及日本、韓國、印度、澳大利亞。參見姜明安:《正當法律程序:扼制腐敗的屏障》,載《中國法學》2008第3期。
          [23]胡建淼、馬良驥:《政府管理與信息公開之法理基礎》,載《法學論壇》2005年第4期。
          [24]Laskov P, Lippmann R. Machine learning in adversarial environments. Machine Learning,81,115·119(2010).
          [25]張凌寒、李榮:《紐約算法監管遇挫啟示錄》,載《法治周末》2020年1月16日,第11版。
          [26]Giest S. Big data for policymaking: Fad or fasttrack?. Policy Sciences,50:367, p.372(2017).
          [27]王錫鋅:《正當法律程序與“最低限度的公正”——基于行政程序角度之考察》,載《法學評論》2002年第2期。
          [28]2020年5月22日,杭州市衛健委提出健康碼“一碼知健”的思路,亦即“通過集成電子病歷、健康體檢、生活方式管理的相關數據,在關聯健康指標和健康碼顏色的基礎上,探索建立個人健康指數排行榜。同時,也可以通過大數據對樓道、社區、企業等健康群體進行評價”。參見《杭州健康碼未來可能出“漸變色”可對個人與企業實現百分量化》,載https://www.cnbeta.com/articles/tech/982717.htm,2020年5月28日訪問。
          [29]Vanolo, A. Smartmentality: The Smart City as Disciplinary Strategy. Urban Studies, Vol 51(5):883—898(2014).
          [30]Karen Bartko. Over 160 Properties Join Red Deer Surveillance Camera Registry in First 4 Months. Global News,2019-11-13.https://globalnews.ca/news/6163354/red-deer-surveillance-camera-registry/.(last visited on 2020-06-19).
          [31]Daniel Rivero. Miami Could Let Company Put Surveillance Poles on Public Property for Free, WLRN,2019-10-9.https://www.wlrn.org/post/miami-could-let-company-put-surveillance-poles-public-property-free#stream/0.(Last visited on June 192020).
          [32]陳姿含:《公共領域算法決策的幾個問題探討》,載《理論探索》2020年第3期。
          [33]王立勇:《論正當程序中的說明理由制度》,載《行政法學研究》2008年第2期。
          [34]參見行政處罰法第31條,行政許可法第38條。
          [35]同前注[33],王立勇文。
          [36]Adnan Masood: On Explainability of Deep Neural Networks, http://www.csdn.net/article/2015-08-17/2825471(Last visited July,20,2017).
          [37]See Antoinette Rouvroy, Thomas Berns: Algorithmic Governmentality and Emancipation Perspectives, Réseaux, Vol 177:163, pp.163—196.(2013).
          [38]Citron, D. K. Technological due process. Washington. University Law Review, Vol 85:1249, p.1249(2007).
          [39]李濤:《北京懷柔建“犯罪預測系統”收錄9年案件數據》,載中國新聞網http://www.chinanews.com/fz/2014/06-17/6287303.Shtml,2020年6月2日訪問。
          [40]Brown A, Chouldechova A, Putnam-Hornstein E, et al. Toward algorithmic accountability in public services: A qualitative study of affected community perspectives on algorithmic decision-making in child welfare services, Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems, p1—12.(2019).
          [41]行政許可法第30條規定,“行政機關應當將法律、法規、規章規定的有關行政許可的事項、依據、條件、數量、程序、期限以及需要提交的全部材料的目錄和申請書示范文本在辦公場所公示”。在現代信息社會下,或可對“辦公場所”予以功能意義的理解,“辦公場所”已不限于行政機關的辦公地點、辦公室、辦公窗口、辦事大廳,行政機關的網站在功能上也扮演了“辦公場所”的作用,應通過行政機關的網站,對行政許可事項、依據、程序、期限等加以公開。
          [42]北京大學課題組:《平臺驅動的數字政府:能力、轉型與現代化》,載《電子政務》2020年第7期。
          [43]陳敏:《行政法總論》,臺灣新學林出版股份有限公司2016年版,第699頁。
          [44]Don Ray Drive-A-Way Co.v. Skinner,785 F. Supp.198(D. D. C.1992).
          [45]Floridi L. The fourth revolution: How the infosphere is reshaping human reality. OUP Oxford,2014, p.32.
          [46]網絡安全法第41條第1款:“網絡運營者收集、使用個人信息,應當遵循合法、正當、必要的原則,公開收集、使用規則,明示收集、使用信息的目的、方式和范圍,并經被收集者同意”;《上海市社會信用條例》第14條規定,采集市場信用信息的,涉及個人信息的,應當經信息主體本人同意,但依照法律、行政法規規定公開的信息除外。
          [47]例如電子商務法第28條規定電商平臺應向稅務部門報送平臺內經營者的“身份信息”和“與納稅有關的信息”。網絡交易監督管理辦法(征求意見稿)第26條規定,網絡交易經營者應按要求報送“特定時段、特定品類、特定區域的商品或者服務的銷量、銷售額等統計資料”,第40條要求“在每一個公歷年度內至少每半年”報送一次平臺內經營者的身份信息。
          [48]數據安全法(草案)第35條:“國家機關為履行法定職責的需要手機、使用數據,應當在其履行法定職責的范圍內依照法律、行政法規規定的條件和程序進行。”
          [49]Ernest Gelhorn, Adverse Publicity by Administrative Agencies, Harvard Law Review, Vol.86,, pp.1380—1441.(1973).
          [50]紐約州用“增值模式”(VAM)算法來評估和評分教師的表現。法學教授羅伯特·布勞尼斯和埃倫·古德曼向城市和州提交了公共記錄請求,以獲取有關算法決策模型的信息,但遭到了拒絕。 Brauneis R, Goodman E P. Algorithmic Transparency for the Smart City. Yale Journal of Law & Technology, Vol 20:103, p.103(2018).
          [51]又稱為可預測性、安定性。參見雷磊:《法律方法、法的安定性與法治》,載《法學家》2015年第4期。
          [52]同前注[23],胡建淼、馬良驥文。
          [53]沈偉偉:《算法透明原則的迷思——算法規制理論的批判》,載《環球法律評論》2019年第6期。
          [54]Citron, D. K. Technological due process. Washington. University Law Review, Vol 85:1249, p.1249(2007).
          [55]佚名:《深圳網上政務服務能力蟬聯全國第一》,載《計算機與網絡》2020年第11期。
          [56]胡敏潔:《自動化行政的法律控制》,載《行政法學研究》2019年第2期。
          [57]中華人民共和國政府信息公開條例(2007年4月5日中華人民共和國國務院令第492號公布,2019年4月3日中華人民共和國國務院令第711號修訂)。
          [58]Ansgar Koene, Chris Clifton, Yohko Hatada, et al.. A governance framework for algorithmic accountability and transparency, https://www.europarl.europa.eu/RegData/etudes/STUD/2019/624262/EPRS_STU(2019)624262_EN.pdf,(Last visited June,19,2020).
          [59]Government of Canada, Directive on Automated Decision-Making, https://www.tbs-sct.gc.ca/pol/doc-eng.aspx?id=32592.(Last visited May 12,2020).
          [60]Washington House Bill 1655, https://legiscan.com/WA/bill/HB1655/2019.2020-04-13,(Last visited May 28,2020).
          [61]Washington House Bill 1655, Article 5.https://legiscan.com/WA/drafts/HB1655/2019.(Last visited May30,2020).
          [62]See TAP Staff. How the GDPR Approaches Algorithmic Accountability, Technology Academics Policy, https://www.techpolicy.com/Blog/November-2019/How-the-GDPR-Approaches-Algorithmic-Accountability.aspx.(Last visited June12,2020).
          [63]國家互聯網信息辦公室和公安部《具有輿論屬性或社會動員能力的互聯網信息服務安全評估規定》,2018年11月15日發布。
          [64]Carr N. The glass cage: Where automation is taking us. Random House,2015,p.71.
          [65]See Association for Computing Machinery US Public Policy Council (USACM): Statement on Algorithmic Transparency and Account- ability, https://www.acm.org/articles/bulletins/2017/january/usacm-statement-algorithmic-accountability,(Last visited June 27,2020).
          [66]See Joshua New and Daniel Castro: How Policymakers Can Foster Algorithmic Accountability, http://www2.datainnovation.org/2018-algorithmic-accountability.pdf 2019-05-12.(Last visited June 27,2020).
          [67]成協中:《科學理性導向下的行政正當程序》,載《華東政法大學學報》2013年第5期。
          [68]See Mahendran A, Vedaldi A. Understanding Deep Image Representations by Inverting Them,2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE,(2015).
          [69]姜明安:《行政的現代化與行政程序制度》,載《中外法學》1998年第1期。
          [70]歐盟《通用數據保護條例》第12條提出數據主體獲得的這些信息需要以“透明的,可理解的和容易獲得的方式,以清晰和平實的語言作出”。
          [71]徐鳳:《人工智能算法黑箱的法律規制——以智能投顧為例展開》,載《東方法學》2019年第6期;段澤孝:《人工智能時代互聯網誘導行為的算法規則》,載《江西社會科學》2019年第2期。

          本網站文章僅代表作者個人觀點,不代表本網站的觀點與看法。
          轉載請注明出自北大法律信息網
        0
        北大法律信息網
        www.chinalawinfo.com
        法律動態
        網站簡介
        合作意向
        網站地圖
        隱私政策
        版權聲明
        北大法寶
        www.pkulaw.cn
        法寶動態
        法寶優勢
        經典客戶
        免費試用
        產品服務
        專業定制
        購買指南
        郵件訂閱
        法律會刊
        北大英華
        www.pkulaw.com
        英華簡介
        主要業務
        產品列表
        英華網站
        聯系我們
        用戶反饋
        返回頂部
        二維碼
        不要添了,我高潮了视频