• <output id="qgjlo"><strong id="qgjlo"><xmp id="qgjlo"></xmp></strong></output>

      1. <p id="qgjlo"></p>

        <object id="qgjlo"></object>
        <table id="qgjlo"><strike id="qgjlo"><b id="qgjlo"></b></strike></table>
      2. 商業自動化決策算法解釋權的功能定位與實現路徑
        2021/7/30 10:09:51  點擊率[205]  評論[0]
        【法寶引證碼】
          【學科類別】科技法學
          【出處】《蘇州大學學報(哲學社會科學版)》2020年第2期
          【寫作時間】2020年
          【中文摘要】商業自動化決策廣泛應用,算法的評分影響用戶貸款、就業、信譽等諸多權益。算法的自動化決策應具備可解釋性,已經成為學術共識并在多國實踐中展開。然而,算法解釋面臨著從技術方案轉為法律制度的挑戰,以及算法解釋對象不清、標準不明、可能造成商業秘密泄露等質疑。自動化決策的算法解釋權生產社會信任,救濟用戶權利,在算法治理體系中扮演著保障私權利的安全網的角色。具體的制度設計而言,自動化決策的算法解釋應以用戶行為干預為導向,解釋的內容包括算法、數據與其他決策理由等多項內容,而非技術源代碼。個體啟動的算法解釋應嵌入平臺結構設計中,以具有重大影響、未達到人類參與決策程度的評價類算法為范圍,并與個人數據保護制度耦合。本著兼顧效率與公平的原則,應適當限定算法解釋權的適用范圍,明確算法解釋的內容,并以合乎程序標準與實質標準的方式提供。在程序上應由平臺先行處理。
          【中文關鍵字】算法可解釋性;雙層結構;算法解釋標準;私權救濟
          【全文】

            一、問題的提出:算法解釋如何從技術方案轉為法律制度?
           
            算法的自動化決策廣泛應用于公共領域與商業平臺,深刻地影響著個體的多項權利。以商業領域的自動化決策為例,算法不僅決定了導航的路線、新聞的議程,更是深度嵌入信用評級、保險醫療、教育就業等領域。不僅如此,商業平臺通過法律授權、后門、買賣與外包等方式,使得算法與數據在公私領域間流動。例如,芝麻信用這類的商業算法自動化決策結果延伸至申領護照、身份認證等公共服務場景。因此,商業自動化決策結果借由決策結果的共享對用戶個人產生橫跨公私領域的深遠影響。
           
            然而,由于數據來源的不透明、算法黑箱等因素,用戶個體難以得知商業自動化決策的結果是如何得出的。近年來,各國的立法者與學界達成共識,即算法的自動化決策應當具備可解釋性,用戶有權知曉決策的原因。[1]自動化決策算法的可解釋性被認為對建立算法問責制{1}、促進在人工智能中嵌入倫理{2}、保護隱私{3}和確定人工智能法律責任{4}方面具有重大的制度價值。
           
            盡管如此,現有的算法解釋的制度多針對公共部門算法,商業自動化決策的算法解釋卻存在諸多爭議。如法國的秘書國家數字事務部部長表示:“如果政府不能解釋其決定,政府就不應該使用算法。”[2]紐約市的算法監管法案,針對的也是政府使用算法做出行政行為的解釋。[3]相比公共部門算法解釋的理論支撐與司法實踐,商業自動化決策算法的可解釋性則面臨著重重障礙:有的觀點擔憂算法解釋權會損害商業秘密,有的觀點認為賦予用戶算法解釋權會給平臺增加巨大的負擔。總的來說,現有的商業自動化決策的算法解釋更多被認為是一種技術解決方案:通過披露平臺的算法(甚至是源代碼)來達到自動化決策可解釋性的要求。即使如此,這種技術方案性質的算法解釋路徑的功能也依然存疑。[4]
           
            如何將商業自動化決策的算法解釋從一種技術方案轉化為可行的法律制度呢?回答這一問題,本文首先需澄清技術意義上的算法解釋與法律意義上的算法解釋的功能區別,進而探討私權
           
            利性質的算法解釋權在算法治理體系中的功能定位。實現這樣的制度功能,則依靠對算法解釋權的權利構造和權利內容進行大膽而細致的制度設計。與此同時,需兼顧效率與公平,探討算法解釋權的適用范圍、解釋標準與行使程序。
           
            雖然公私領域均廣泛應用自動化決策,但公權力運行規則與私權領域截然不同。本文將討論局限于商業自動化決策,為了行文簡潔下文均簡稱為自動化決策。
           
            二、自動化決策算法解釋作為技術方案的誤區與澄清
           
            自動化決策算法解釋權面臨的許多質疑都來源于將算法解釋作為技術方案的誤區。這樣的質疑包括:一、認為而且由于機器學習技術的發展,算法的決策過程對于其開發者都是不透明的,因此也無法提供實質的自動化決策算法解釋。{5}二、用戶不能理解算法解釋權提供的算法源代碼,因此算法解釋權制度沒有價值。有學者指出,絕大多數用戶都是“技術文盲”,即缺乏理解數據建立算法和機器學習模型的基礎技術知識。因此,即使為用戶提供了自動化決策的算法解釋,也沒有實質性幫助。這種將算法解釋作為技術方案的觀點,混淆了自動化決策算法作為技術方案的內部解釋和作為法律路徑的外部解釋。持此觀點者認為只有披露源代碼才能獲得解釋,是將提高透明度和產生社會信任的“外部解釋”誤認為技術開發需要的“內部解釋”。
           
            自動化決策算法的內部解釋和外部解釋具有不同的制度功能。內部解釋,是程序員或科學家做出的技術解釋,具體指通過觀察模型的輸入和輸出之間的關系,檢查某部分的作用,而排除系統故障、增強系統可靠性并驗證系統功能。{8}這與外部解釋并不相同。外部解釋指以精確的方式(忠實于自動化決策系統)和人類可理解的方式做出的自動化決策理由解釋,用以建立公眾對自動化
           
            決策的信正任如,評驗價證餐其廳遵的衛守生了標法準規并與不政需策要的知道要求。{8}1-10其菜單的配方,評價汽車的碰撞標準也不需要了解汽車的技術細節一樣,通過外部解釋獲取自動化決策的算法解釋,無須獲知算法源代碼的技術細節。
           
            由于內外部解釋的制度功能的不同,其解釋對象、標準、內容也存在巨大差異。內部解釋以內部技術人員為對象,標準是“可判斷性”( interpretable){9}9,內容包括自動化決策系統如何運行,以實現技術故障診斷與修復的制度功能。而外部解釋是以用戶和監管部門為對象,標準是“可理解的”( comprehensible),內容是使外部可知曉自動化決策是如何做出的,如此方可使沒有技術背景的人得以追溯自動化決策。{10}117
           
            基于內外部解釋的區分,可得出結論:自動化決策算法解釋權并不要求用戶理解源代碼即可實現制度功能。自動化決策算法的外部解釋要么需要算法設計層面的價值取向、決策各要素權重,要么需要算法運行層面的運行機制解釋,而這些功能性信息需要平臺提供,但形式并非算法源代碼。現實中的算法解釋也未深入算法源代碼的層面。例如,魏則西事件后,聯合調查組要求百度采用以信譽度為主要權重的排名算法[5],其對算法的調查獲得解釋)和整改限于設計價值理念層面。又如2015年的任某訴百度名譽權案件中,法院調查獲得的算法解釋則限于運行機制層面。法院認定百度自動補足算法的搜索建議“即任某姓名系百度經過相關算法的處理后顯示的客觀存在網絡空間的字符組合”,而這種外部解釋已經足夠判決得出“百度無主觀過錯”的結論。{11}因此,外部解釋或限于算法設計層面的價值考量,或限于算法運行層面的結果追溯,這些功能性信息的解釋不需要調取源代碼,因此也無須擔憂算法的解釋會損害平臺的商業秘密。
           
            繼而可能產生的疑問是,如果不進行源代碼的檢驗,誰來驗證平臺提供的算法解釋是否真實?首先,自動化決策的算法解釋必須具有可驗證性,即能夠解釋算法決策結果。這種外部的驗證一般可通過輸入相似的條件,觀察是否得出相似的自動化決策結果來驗證。例如平臺對某用戶的信用評分較低,當用戶提出自動化決策的算法解釋請求后,完全可以通過調取與該用戶相似條件的用戶評分數據對算法解釋進行驗證,而無須進入源代碼的層次。其次,用戶個人發起的自動化決策的算法解釋權制度目的是救濟用戶個人。如果用戶認為自動化決策的算法解釋不具有可驗證性,應有其他相應制度進一步救濟。
           
            自動化決策的算法解釋權作為法律路徑的功能是生產社會信任。自動化決策的算法解釋權能夠為用戶個人提供決策相關的信息,其生產信任的功能既指向過去,更指向未來:一方面能夠解釋過去的決策回報用戶基于用戶協議投入的信任;另一方面提供解釋增強未來用戶個體對于自動化決策的信任。從自動化決策算法解釋可回報用戶過去投入的信任而言,用戶意思自治下的“同意”必然包含著,用戶有理由期望在發生危害和錯誤時,平臺將以公正和負責任的態度做出回應,否則將無從基于信賴利益接受用戶協議。這種合理要求并不因服務協議中沒有提及或排除而消失。從算法解釋可以作為未來的信任生產機制而言,自動化決策算法的不透明性使得民眾對于自動化決策本身就缺乏信任,相繼發生的算法歧視、算法共謀、大數據殺熟等事件更使得自動化決策的公正性廣受社會的質疑。平臺能夠提供解釋、解釋具有可驗證性等均可解除社會公眾對于算法黑箱的質疑,提高自動化決策的透明度,促進決策公正。
           
            綜上所述,獲得對自動化決策算法的解釋,目的是追溯自動化決策結果的來源,考察自動化決策的價值考量,而非獲得自動化決策的內部技術細節。既無須擔憂用戶無法理解算法自動化決策的解釋,更無須因此否定自動化決策算法解釋權的制度價值。因此,對算法解釋的認識應及時從技術方案的誤區中走出,將算法解釋作為生產社會信任的法律制度,探討其在算法治理體系中的功能與地位。
           
            三、自動化決策算法解釋權的制度功能定位:算法治理體系的私權安全網
           
            自動化決策算法解釋權是救濟用戶的私權利,它由用戶個人向自動化決策的使用者(本文語境下的商業平臺)請求發起。作為私權利性質的請求權,自動化決策算法解釋權具有無法替代的救濟作用,在算法治理體系中承擔著保障用戶個人權利的安全網的作用。
           
            算法解釋權制度作為一項法律制度,功能仍然受到一些質疑。有觀點認為作為私權利的算法解釋權行使成本過高,用戶個人難以獲得救濟。商業自動化決策的設計者和使用者一般為大型互聯網平臺,與用戶在技術、資源等方面力量相差極為懸殊。因此,以用戶一己之力去請求平臺提供自動化決策解釋,需要付出極大的時間精力和金錢成本而收益較低。例如,淘寶的算法對用戶的支付寶賬戶采取取消收款、資金止付等強制措施,用戶推翻算法決策需要舉證[6],導致用戶很可能因成本原因放棄維權。誠然,私權利性質的算法解釋權面臨著權利行使成本較高的問題,但是其在算法治理的法律體系中起到無可替代的作用。
           
            第一,算法治理體系中的各項制度中僅有私權利路徑可由用戶個人啟動,代表了用戶的立場。在現有的算法治理體系中,算法問責制、算法透明度規則、平臺自律等相關機制均在實踐中推進。然而,這些制度要么代表政府的立場,要么代表自動化決策使用者(平臺)的立場。如算法問責制代表政府立場,政府要求自動化決策的使用者(平臺)符合法律要求,承擔違規的責任。又如,平臺的平臺自治規則代表平臺立場,平臺通過平臺架構使得用戶必須遵循平臺規定的行為流程。自治規則以淘寶網的糾紛解決機制、騰訊微信公眾號的抄襲舉報規則為代表。在政府、平臺和用戶三方力量的對比中,用戶處于極為弱勢的地位:既沒有政府公權力一樣強大的力量抗衡平臺,也沒有技術力量做自動化決策算法的審查,甚至沒有力量用腳投票離開平臺。因此,私權利保護路徑具有不可替代的作用。
           
            第二,算法治理體系中,僅有算法解釋權針對具體自動化決策的修正。在現有的用戶個體可以行使的私權利清單中,僅有自動化決策的算法解釋權針對具體的自動化決策,可以起到修正具體自動化決策的作用。例如,現有法律制度中,歐盟《通用數據保護條例》( GDPR)中的一系列提供給用戶(數據主體)對抗平臺(數據控制者)的私權利包括:質疑自動化決策結果[7],獲得解釋[8]不受純粹的自動化決策并獲得人為決策的權利。[9]在這些私權利的選擇中,用戶選擇是全有或全無的“留下還是離開”:要么拒絕自動化決策的結果,要么選擇重新獲得一個決策。唯有自動化決策的算法解釋權,給了用戶修正一個具體決策的機會。在自動化決策無所不在的人工智能時代,這極為重要:全盤接受還是拒絕都意味著巨大的成本,只有修正還意味著在原有算法決策體系內保有位置并獲得正確決策結果。因此,自動化決策的算法解釋權的制度價值,即使在用戶的私權利保護路徑中,也是無可替代的。第三,即使算法解釋權因行使成本高而極少被主張,也能宣告用戶權利,彰顯法律態度,起到算法治理體系中的安全網的作用。“安全網”一詞常被用于描繪社會保障體系的作用,指當公民遭遇變故與不幸時,社會保障體系能夠滿足公民基本需求,緩解社會焦慮與不安。{12}如果算法治理體系中的一系列事前的風險防范制度、事中的正當程序以及事后問責制度都未能起到作用時,私權利性質的算法解釋權,就成了保護用戶個人權利、恢復社會信任的最后一道防線。因此,“安全網”一詞形象地描述了自動化決策算法解釋權在算法治理體系中的定位。算法解釋權權利行使的成本可通過具體制度的設計而逐步降低,但不能以此作為其沒有制度價值的理由。例如,為了實現產品質量安全,法律設計了多層次的制度體系:包括事前的行業準入制度、產品質量體系標準,事中的行政部門質量抽查檢測,事后的刑事、行政責任以及產品侵權責任。顯然,不能寄希望于以私權性質的產品侵權責任發揮最為重要的作用,但產品侵權責任作為私權救濟路徑有其必要的存在價值。
           
            至此可以得出結論,作為私權利的自動化決策算法解釋權在一個完整的算法治理法律體系中的地位是不可取代的。作為一項法律制度,算法解釋權可以追溯決策來源、生產社會信任,更重要的是可以作為救濟用戶個人的最后一道防線。那么,如何對算法解釋權的權利構造和內容進行設計能夠實現這樣的制度功能呢?
           
            四、自動化決策算法解釋權的雙層結構與具體內容
           
            制度功能的實現需要精心的制度設計。自動化決策算法解釋權是典型的“信息糾正”手段,目的在于矯正自動化決策中雙方嚴重信息不對稱的地位,使信息從信息優勢方向信息劣勢方流動,而達到雙方衡平。{13}那么,算法解釋權應如何構造以提供充分的信息,能夠實現救濟用戶的制度功能?第一,需要研究算法解釋權的權利構造,即信息應以何種層次提供;第二,需闡明算法解釋的具體內容,即信息以何種類型提供。
           
            (一)包含知情與干預的雙層結構
           
            自動化決策的算法解釋權必須以行為干預為導向,提供用戶知情與行為干預兩個層次的信息,是一個完整的、正當的權利構造。早在歐盟《通用數據保護條例》( GDPR)2016年頒布時,就有學者質疑算法解釋權僅提供知情功能不提供救濟功能。具體而言,認為 GDPR 支持數據主體獲得有關自動化決策的邏輯的信息,僅僅是一種知情權,意義有限。{14}也就是說,如果用戶獲得的解釋內容是系統通用的一般功能,那么所有人獲得的解釋內容都是一樣的。而一個“有用”的解釋必須是具有針對性的有意義的解釋。{14}僅僅提供信息使用戶知情,并無法發揮自動化決策算法解釋權的救濟功能。
           
            何為自動化決策算法解釋權應以對用戶個人行為的干預作為導向?制度功能以干預為導向,意指自動化決策算法解釋權的目的不僅在使用戶知曉自動化決策結果是如何得到的,也要使用戶知曉如何干預以改變未來的自動化決策結果。換句話說,自動化決策算法解釋權提供給個人的信息不僅要包括為什么( why ),也要包括怎么辦( how)。舉例而言,如果用戶沒有通過銀行的信用評估,一個以結果為目的的自動化決策解釋的內容是“您沒有資格是因為您沒有及時支付最后三次租金支票”,一是以干預為導向的解釋內容是“您沒有資格是因為沒有及時支付最后三次租金支票,您如果連續四次支付,分數將超過75%的用戶”。{15} GDPR 提出的“解釋權”( Right to Explanation)廣為詬病是因為這僅僅是以“知情”作為結果目的的一種知情權,在 Recital 71條中強調的“公平透明的處理”意味著用戶有權知曉數據如何收集、審核、處理數據,并采取措施防止歧視[10],但對用戶具體行為的指導付諸闕如。
           
            為何自動化決策算法解釋權要以干預為導向?自動化決策算法在其適用的場景中具有一般規則的屬性,如信用評分、簡歷篩選等自動化決策算法事實上決定了用戶的財產、就業等權益。而具備正當性的規則應具有可預測性,即人們可以根據規定,事先估計到當事人雙方將如何行為及行為的后果,從而對自己的行為做出合理的安排。[11]然而,自動化決策仍處在黑箱之中,用戶事先不知自動化決策算法的權重因素,無從預測自己行為的后果,只能事后得知算法對自己的決策結果。為了彌補算法黑箱造成的正當性的缺陷,事后的自動化決策解釋應該提供對用戶行為的指引。換句話說,事后通過解釋結果補足行為指引的信息,是算法作為一般行為規則的題中之義。如此自動化決策的算法才具有了作為一般行為規則的正當性。舉例而言,《行政許可法》規定,行政機關首先應當公示行政許可的全部材料,行政相對人提交的材料中如果不全,行政機關應一次性告知其所需的其他材料。[12]這既包括事前的告知,也包括行政決策的結果,以及對相對人行為的指引。自動化決策在缺乏事前透明的情況下,如果其事后提供的解釋不以行為干預為導向,相當于行政機關反復告知行政相對人準備的申請材料不全,而行政相對人又無從知曉如何補足申請材料。因此,自動化決策的解釋應以行為干預為導向,是自動化決策算法應用正當性的必然要求。
           
            以結果和干預為導向的自動化決策解釋權有何不同?以結果為導向的解釋權與以干預為目的的解釋權有兩項重大區別:第一,解釋的內容和深度不同。以干預為導向的解釋權意味著要深入了解自動化決策的內部運作機制,即要了解數據“輸入”和結果“輸出”的對應關系。如芝麻信用不僅要告知用戶為何具體的芝麻信用評分較低,也要告知用戶如何能夠提高自己的芝麻信用評分,且這種告知要針對具體用戶而非僅告知評分規則。第二,兩種導向的解釋提供給用戶的后續選擇不同。獲得結果為導向的解釋,用戶的后續選擇只能是接受或者退出自動化決策。而獲得干預為導向的解釋,賦予了用戶一定更改自動化決策的能動性,用戶仍可選擇留在自動化決策中獲得更好的結果。這也避免拒絕接受自動化決策結果的用戶向平臺申請調解或訴諸司法救濟,有效節約了社會資源。
           
            以干預為導向的自動化決策解釋權應為何種權利構造?具體包括:其一,具體自動化決策結果的理由說明( why),即解釋具體決策考慮的主要因素以及各因素不同的權重。可能包括但不限于:具體決策的理由、原因、產生決策結果的個人數據,例如每種指標的功能權重,機器定義的特定案例決策規則,起參考輔助作用的信息等。{16}5188-5196其二,用戶個人更正自動化決策結果的行為指引( how),即應提供某個因素改變時,自動化決策可能發生的改變,指出決定性因素。例如,由于您最近兩個月的銀行貸款沒有償還,所以這次的信用卡申請被拒絕,如果您及時償還貸款則可以獲得貸款。行為指引的目的在于提供救濟路徑,告知用戶可修正自動化決策的方法。最后,在某些情形下,還需要提供解釋為何相似的情況可能有不同的決定,或不同的情況可能有相似的決定。{17}說明理由的欠缺,相當于沒有理由,可能導致相應自動化決策的無效或被撤銷。
           
            (二)自動化決策算法解釋的具體內容
           
            那么自動化決策的算法解釋權以干預為導向的救濟功能如何實現呢?這需要對自動化決策算法解釋的具體內容進行制度設計。現有自動化決策的算法解釋對象究竟是自動化決策算法的權重設計,還是算法的運行方式,抑或算法決策采用的數據并不清晰。{18}633-705換句話說,當一個算法做出了錯誤決策,究竟需要得知的是設計問題、運行偏差,還是數據錯誤并無定論。因此,自動化決策算法解釋制度應包含哪些具體內容呢?
           
            一個自動化決策由算法和數據共同生成,因此解釋應該囊括算法與數據的內容,具體包含兩個層次。其中雙層是指自動化決策的算法解釋需包括理由說明與行為指引兩個層次,具體又有不同的解釋內容:
           
            1.自動化決策算法解釋的第一層次為理由說明層次,包含以下三項內容。
           
            其一,解釋自動化決策的算法。即需解釋與具體決策相關的系統功能,例如自動化決策系統的邏輯、意義、算法設定的目的和一般功能,包括但不限于系統的需求規范、決策樹、預定義模型、標準和分類結構等。
           
            其二,解釋決策使用的個人數據。此解釋步驟可稱為數據更新和救濟步驟,可以排除錯誤的自動化決策是由數據偏差而產生的,決定是否有繼續解釋的必要。自動化決策的使用者應保證個人數據的準確性、完整性、不確定性以及時效性。例如,2017年美國二手房銷售網站 Zillow 被一位房主起訴,認為其自動估價算法 Zestimates 嚴重低估自己的房產價值,給銷售造成了嚴重障礙。{19}一個錯誤的自動化決策可能造成“污染效應”,錯誤的結果可以反復被其他平臺用來進行其他自動化決策,對用戶造成持續性損害。僅具有查明功能的算法解釋僅能披露信息,而不能進行錯誤決策的修正實現救濟。
           
            其三,其他的決策理由。可能包括但不限于每種指標的功能權重,機器定義的特定案例決策規則,起參考輔助作用的信息等。在決策涉及相對人實體權利、程序權利及救濟權利,涉及“最低限度的公正”時應就自動化決策系統的運行過程和做出行為的推理,給出理由說明。{20}
           
            2.自動化決策算法解釋的第二層次為行為指引層次,包括兩項內容:其一,在自動化決策可以更改的指標中,用戶可更改的行為種類和內容。其二,用戶做出行為調整之后的結果。
           
            值得強調的是,自動化決策的解釋中必然包含了對于個人數據使用情況的解釋。盡管如此,自動化決策的算法解釋權與個人數據保護制度之間的關系既有重合又有顯著的功能不同。二者重合之處在于,自動化決策的結果是由算法運算數據得出的,也就是說,數據的正確是自動化決策正確的必要條件。保護個人數據的準確性、完整性以及時效性(例如年齡信息會隨著時間推移而變化),是數據保護制度的功能之一。
           
            二者功能的巨大差別在于自動化決策算法解釋提供救濟的針對性。這種針對性體現為:第一算法解釋權針對某些特定用戶個體數據。自動化決策的算法解釋可以提供決策的理由,如果不利決策是錯誤的數據造成的,用戶則可以更新錯誤數據(提供正確或刪除錯誤數據)要求重新自動決策。第二算法解釋權針對用戶的特定自動化決策場景。個人數據的價值在于應用,對用戶個人數據權利的救濟應重點放在救濟數據應用中受到的權利損害。{21}因為數據必須借由算法的邏輯與運算,才能形成潛在的價值或者風險。個人權利遭受損害的來源,不僅來自數據或算法,而是來自兩者的匯合。[13]2014年美國總統科學與科技顧問委員會也提出應將政策“更多聚焦于數據的實際使用”上。{22}自動化決策的算法解釋就是對個人數據應用造成不利結果進行救濟的制度。
           
            自動化決策的算法解釋權偏重于用戶個人數據在應用中受到損害后的救濟,并具有個人數據保護制度無法取代的制度功能。自動化決策的算法解釋權應以行為干預為導向,包含用戶知情與行為指引雙層結構的信息,并包括算法、數據與其他決策理由等具體內容,才能夠實現算法解釋權的救濟功能。
           
            五、自動化決策算法解釋權的適用范圍與行使程序
           
            由平臺來承擔自動化決策算法解釋的責任,本質是將自動化決策的風險通過法律制度再分配給平臺。{13}也就是說,現有的情況是由用戶個人承擔自動化決策錯誤的全部風險,而算法解釋權則是對風險進行了再分配。在此情況下,算法解釋也成了平臺的一項成本與負擔。因此,需要本著效率與公平兼顧的原則,對自動化決策算法解釋權的適用范圍、解釋標準與行使程序做出相應的制度設計,可有效平衡平臺與用戶的利益。
           
            通過具體制度適用范圍和行使程序的設計,可以回應以下爭議:其一,如果對任何算法都可以提起算法解釋權,是否會造成平臺負擔過重?其二,平臺提供的算法解釋應達到程序要求即可,還是需要達到實質理性?用戶需要向法院提起訴訟才能得到自動化決策解釋,還是向平臺提出要求即可得到解釋?其三,用戶是否可以隨時向平臺提出算法解釋權的請求?這樣是否會造成平臺無法正常運營?對于這些質疑,可通過解釋適用范圍的限定,明確的解釋標準,合理的解釋程序予以回應。
           
            (一)自動化決策算法解釋權適用范圍之限定
           
            可通過限制自動化決策算法解釋權的適用范圍,達到平臺商業效率與個人權利救濟的衡平,避免用戶濫用解釋權而給平臺造成過重負擔。個體啟動的自動化決策算法解釋的范圍,應對用戶具有重大影響,是評價類算法并且未達到人類參與的必要程度。
           
            第一,本著效率原則,適用算法解釋權的自動化決策必須對用戶具有法律效力或重大影響。{23}對當事人具有法律上的直接影響根據法律規定即可判定。但是很多商業自動化決策,如在線信用卡申請和自動化招聘,其對用戶的影響是拒絕用戶簽訂合同,很難謂之有法律效力。此類自動化決策可以歸類為具有“重大影響”。“重大影響”的判定應結合當事人的具體情況,如拒絕批準貸款對經濟條件較差的人可謂重大影響,對相對經濟條件較好的人則可能不構成重大影響。此外,還應結合自動化決策是否具有可替代性。如果做出自動化決策的算法使用者市場占有率及與用戶依存關系越高,則越易被判斷為重大影響,而如果具有較強可替代性則不構成。自動化決策具有“重大影響”的標準應結合實踐逐步依靠判例發展規則體系。
           
            第二,從種類上說,從算法的分類看,用戶啟動的算法解釋應適用于所有評價類算法。根據學者對算法的分類以及現有算法功能的基本歸納{24}398-415,可將算法大致分為以下幾類:
           
            算法功能應用類型實例
           
            優先排序搜索引擎,問答類服務百度,知乎,Google
           
            分類評價
           
            聲譽、信用評分,社交
           
            評分大眾點評,支付寶,芝麻
           
            信用
           
            相關性
           
            預測發展和趨勢
           
            頭條新聞,視頻推薦,犯
           
            罪預測
           
            過濾郵件過濾,推薦系統垃圾郵件過濾系統
           
            其中評價類算法通過歷史數據對財產、聲譽、人的資格直接進行評價或排序。如文中所提到的案例包括價格估算、福利發放、貸款評估、教師資格評價等絕大多數都屬于評價類算法,其決策結果對于用戶有經濟上或者法律上的直接影響,故而評價類算法均應適用于算法解釋權。其他的算法自動化決策并非對用戶沒有直接影響,如社交媒體 Facebook 可能推薦熱點新聞,淘寶等網站可能分析用戶信息以推送定制廣告。但此類自動化決策對用戶權利影響甚微,且可以通過用戶的自主行為調整和改變(如用戶自行搜索其他結果就可能改變推送內容),故而出于節約社會資源的考慮暫不予配置由私主體啟動的自動化決策算法解釋。
           
            第三,從程度上來說,適用算法解釋權的自動化決策未達到人類參與決策的必要程度。適用算法解釋權的自動化決策不應以形式為標準,而應該取決于人的參與是否達到必要程度。歐洲《通用數據保護條例》提出,算法解釋權僅限于“完全基于自動化決定的處理”,即只要人參與決策過程都意味著其不再是“自動化決策”,即不應適用第22條有關算法解釋權的規定。[14]此項規定未免過于絕對且流于形式主義,可以想見將人類決策者設置在“臨門一腳”的位置即可規避算法解釋權。那么何為人對決策的參與達到了“必要程度”呢?在此首先應判斷算法的作用。如果算法負責準備決策的依據或證據,則不屬于自動化決策。但如果人最終完全采納了算法自動化決策給出的建議,并未對決策做出任何人為的干預,如驗證、修改或者更改決定的行為,則顯然有理由將其作為自動化決策。舉例而言,CT、核磁共振等醫療器械在掃描人體后,機載電腦會根據圖像給出診斷建議,但仍需醫生閱讀報告并給出診斷后,才能依照此診斷進行治療。在此種情形下,則是算法為人為決策提供證據。但如果醫療器械掃描后直接開出處方,則為算法的自動化決策。在判斷是否自動化決策而應適用算法解釋權的問題上,應本著寧嚴勿縱的原則,因為人對計算機的本能依賴與決策惰性已經在心理學研究中得到了廣泛證實。人類極容易受到“自動化偏見”的影響,指的是即使人能夠認識到情況需要另外一種選擇,也更傾向于計算機判斷。{25}據研究,算法的自動化決策系統使用“超級推理”,能夠以微妙而有效的方式塑造用戶的感受和行為,破壞個人的獨立判斷力。{26}判斷過于關注人是否參與的形式則可能造成損害實質正義的結果。(二)自動化決策算法解釋的內容與形式標準
           
            自動化決策算法解釋的標準并非技術概念,而是對具有法律意義的信息的程序性要求和實質理性化的要求。算法解釋的信息必須以合乎程序標準與實質標準的方式提供。自動化決策算法解釋的形式標準應包括:
           
            第一,解釋的客體完整。自動化決策的算法解釋應由監管部門統一提供格式解釋文本,保證算法設計者和使用者提供的解釋客體完整且無遺漏,否則應視為無效的解釋。
           
            第二,解釋以書面形式做出。以書面形式做出可保證自動化決策的使用者為用戶提供解釋均留存證據。
           
            第三,解釋語言清晰平實。自動化決策算法解釋本質是由信息占有優勢一方做出的“信號發送”行為。{27}24由于設計者、使用者與監管者、用戶之間技術力量的差距,應要求自動化決策算法解釋必須以清晰平實的語言做出,否則會導致解釋徒具形式而無法被理解。[15]
           
            (三)自動化決策算法解釋的先行處理規則
           
            算法解釋權的行使應遵循自動化決策使用者平臺)先行處理的規則。從行為動機上說,自動化決策的用戶一般數量甚巨,自動化決策使用者出于避免出現大規模集體訴訟與自動化決策效率優化的需要,有動機進行自動化決策算法的糾錯與調試。從能力上說,自動化決策使用者與算法開發者對算法的規則、設計更為了解,也較司法機關能夠更快地為用戶提供解釋與數據更新。設立算法使用者先行處理的原則,一方面可以要求當事人現行協商解決之后再進入司法程序,減少司法負累;另一方面方便當事人,可以不經過煩瑣的司法程序獲得算法決策的解釋,以及及時更新數據的權利。
           
            自動化決策算法解釋權啟動的不應要求用戶舉證自動化決策結果錯誤。否則用戶或需提供自我的正確數據,或需收集大量自動化決策進行統計。這樣成本過高而造成行使的制度障礙。應在滿足上文限制條件的情況下,由用戶舉證對自身有法律效力或重大影響,即可提起算法解釋。
           
            用戶提起算法解釋請求后,自動化決策者有沒有停止原行為的義務呢?基于自動化決策而生的狀態,或暫停服務,或取消資格等行為,應推定其為合理,即不要求因算法解釋的提起而停止,直到生效判決推翻自動化決策。此外,自動化決策者提供的算法解釋與決策原因應規定法定期限。一定的法定期限一方面督促決策者盡早履行解釋義務;另一方面可使用戶在前置程序無法得到解釋的情況下可以尋求訴訟路徑的救濟。
           
            目前的虛擬財產糾紛,電商平臺消費合同糾紛等一般均由平臺設置了內部的自治機制,但同時存在用戶力量弱小、權益被漠視等問題。依靠內部規約來解決算法解釋易陷入類似的境地。但評價類算法實際上具有平臺內類“法律”規則的地位,比用戶糾紛解決更為重要。因此,還需在算法監管、算法透明度等方面加強對評價類算法的預先監管,以及完善算法解釋請求權與訴訟的銜接制度。
           
            六、結論
           
            自動化決策算法解釋權的存在是為了消弭法律實然權利與應然權利的鴻溝。在人工智能時代的法律制度供給嚴重不足的情況下,為處于弱勢的用戶提供最后一道權利保障的安全網。為了避免草率地以“現象描述”方式創制權利,自動化決策算法解釋權的功能定位與制度構造應予以厘清和明確。
           
            在制度定位上,自動化決策算法解釋權作為私權救濟路徑是算法治理體系中必不可少的一環。既不應因其行使成本較高對自動化決策算法解釋權棄如敝履,也不應過于拔高其作為用戶救濟最后保障的制度定位。在制度功能上,權利構造的合理設計能夠發揮自動化決策算法解釋權私權救濟的最大功用。為與事前規制的算法透明度規則予以區分,自動化決策的算法解釋必須同時兼具知情與指引功能,以用戶行為干預為導向,通過設定的解釋內容實現。在制度效用上,應充分本著效率與公平兼顧的原則,既不為平臺增加過于沉重的負擔,又要充分考慮用戶的權利得到切實保障。因此,需通過權利行使的范圍、標準與程序來充分發揮制度的功用。
           
            通過明確自動化決策算法解釋權制度功能、雙層構造、解釋內容、適用范圍、解釋標準與行使程序,厘清權利的功能定位與制度構造,方可糾正用戶權利畸輕的現狀,以實現平等、自由、正義的目標。

          【作者簡介】
          張凌寒(1982— ),女,河北張家口人,法學博士,北京科技大學文法學院副教授,主要從事網絡法研究。
          【注釋】
          [1] See Association for Computing Machinery Us Public Policy Council ( Usacm ): Statement on Algorithmic Transparency and Accountability, https://www.acm.org/binaries/content/assets/publicpolicy/2017_usacm_statement_algorithms.pdf,最后訪問日期:2019年6月20日。
          [2] See Joshua New and Daniel Castro: How Policymakers CanFoster Algorithmic Accountability, http://www2.datainnovation.org/2018-algorithmic-accountability.pdf,最后訪問日期:2019年5月12日。
          [3] 非盈利組織 Propublica 研究發現,Northpoint 公司開發的犯罪風險評估算法 Compas 系統性地歧視了黑人,白人更多被錯誤的評估為具有低犯罪風險,而黑人被錯誤地評估為具有高犯罪風險的概率兩倍于白人。 See Kirchner, Julia Angwin Surya Mattu, Jeff Larson, Lauren. Machine Bias: There’ s Software Used Across The Country To Predict Future Criminals. And it’s Biased Against Blacks. ProPublica.https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing,最后訪問日期:2017年11月1日。
          [4] 如有觀點認為:“自動化決策解釋這種透明度規范功能有限——因為我們并不知道需要看到什么內容才能對算法自動決策的過程放心。” Joshua A. Kroll, Solon Barocas, Edward W. Felten, Joel R. Reiden-Berg, David G. Robinson, And Harlan Yu. Accountable Algorithms.165u. pa. l. rev.(2016), p.633.
          [5] 參見佚名:《國家網信辦聯合調查組公布進駐百度調查結果》,中國政府網,http://www.gov.cn/xinwen/2016-05/09/content_5071628.htm,最后訪問日期:2017年8月20日。
          [6] 參見《淘寶平臺服務協議全文(2016年10月版)》中淘寶自動化決策對用戶違約的認定:“6.1淘寶可在淘寶平臺規則中約定違約認定的程序和標準。如:淘寶可依據您的用戶數據與海量用戶數據的關系來認定您是否構成違約;您有義務對您的數據異常現象進行充分舉證和合理解釋,否則將被認定為違約。”http://b2b.toocle.com/detail--6361764.html,最后訪問日期:2017年11月23日。
          [7] GDPR Article 22(3) in the Cases Referred to in Points ( A) and (C) of Paragraph 2, The data controller shall implement suitable measures to safeguard the data subject’s rights and freedoms and legitimate interests, at least the right to obtain human intervention on the part of the controller, to express his or her point of view and to contest the decision.
          [8] 雖然這一權利是否具有法律效力尚有學者提出質疑,但《歐洲通用數據保護條例》仍是第一部提出數據主體獲得自動化決策算法解釋權利的法律。
          [9] GDPR Article 22(1)of the General Data Protection Regulation ( GDPR)“The data subject has the right not to be subject to a decision based solely on automated processing, including profiling, when it produces legal effects concerning him or her or at least it similarly significantly affects him or her”.
          [10] 歐盟《通用數據保護條例》( GDPR)中在71條明確提出了解釋權,表述為被自動決策的人應該具有適當的保護,具體應包括數據主體的特別信息和獲得人類干預,表達自己的觀點,并且有權獲得在評估決定的解釋,并對決定提出質疑。“ Recital 71, a person who has been subject to automated decision-making: should be subject to suitable safeguards, which should include specific information to the data subject and the right to obtain human intervention, to express his or her point of view,to obtain an explanation of the decision reached after such assessment and to challenge the decision.”
          [11] 又稱為可預測性、安定性。參見雷磊:《法律方法、法的安定性與法治》,載《法學家》2015年第4期。
          [12] 《行政許可法》第32條。
          [13] Sugimoto, C. R., Ekbia, H. R., & Mattioli, M.: Big Data, Consent, and the Future of Data Protection. https://Ieeexplore.Ieee.org/abstract/document/7862532,最后訪問日期:2019年6月10日。
          [14] 人的參與是否排除算法解釋權的適用的問題在歐盟的立法中也經歷多次反復。在最早歐盟〈通用數據保護條例》( GDPR)中歐洲議會(EP)草案提案的第20(5)條提出只要“主要”由算法自動化決策即可使用算法解釋權(“有關資料主體的權利或自由不得單獨或主要基于自動處理,而應包括人類評估……)。但是到了正式公布的 GPPR 版本中,歐盟委員會( EC)則變成了“完全基于自動化處理的決定”。歐洲議會( EP)比歐盟委員會( EC)更希望嚴格限制自動化決策,可是最后文本中“主要”的主張并未被采納,只有嚴格的“單獨”的自動化決策有未來適用的可能。 See Sandra Wachter, Brent Mittelstadt, Luciano Floridi, Why a Right to Explanation of Automated Decision-Making Does not Exist in the General Data Protection Regulation, Vol.7, No.2, International Data Privacy Law (2017). pp.76-99.
          [15] 歐盟《通用數據保護條例》( GDPR)第12條提出數據主體獲得的這些信息需要以“透明的、可理解的和容易獲得的方式,以清晰和平實的語言做出”。
          【參考文獻】
          {1}FINALE DOSHI-VELEZ,MASON KORTZ,RYAN BUDISH,et al. Accountability of AI under the law: the role of explanation[J]. Social Science Electronic Publishing, arXiv preprint arXiv:1711.01134,2017.
          {2}DEIRDRE K MULLIGAN AND KENNETH A BAMBERGER. Saving governance-by-design[ J]. Calif. L. Rev.,2018,106(3).
          {3}DEIRDRE K MULLIGAN,COLIN KOOPMAN, AND NICK DOTY. Privacy is an essentially con- tested concept: a multi -dimensional analytic for mapping privacy[J]. Phil. Trans. R. Soc. A,2016,374(2083).
          {4}VLADECK D C. Machines without principals: liability rules and artificial intelligence[J]. Wash. L. Rev.,2014,89(1).
          {5}WACHTER S,MITTELSTADT B,FLORIDI L. Why a right to explanation of automated decision-making does not exist in the General Data Protection REGULATION[J]. International Data Privacy Law,2017,7(2).
          {6}LEILANI H GILPIN,DAVID BAU,BEN Z YUAN,et al. Explaining explanations: an approach to evaluating interpretability of machine learning[J]. arXiv preprint arXiv:1806.00069,2018.
          {7}DAVID GUNNING. Explainable artificial intelligence(xai),Defense Advanced Research Projects Agency(DARPA)[C]. nd Web,2017.
          {8}VLADECK D C. Machines without principals: liability rules and artificial intelligence[J]. Wash. L. Rev.,2014,89.
          {9}陳昶屹.任甲玉訴北京市百度網訊科技公司侵犯名譽權、姓名權、一般人格權糾紛案——網絡侵權中“被遺忘權”的適用范圍與條件[G]∕∕最高人民法院中國應用法學研究所.人民法院案例選.北京:中國法制出版社,2017.
          {10}唐鈞.最后的安全網——中國城市居民最低生活保障制度的框架[J].中國社會科學,1998,(1).
          {11}張凌寒.商業自動化決策算法解釋權研究[J].法律科學(西北政法大學學報),2018,(3).
          {12}SANDRA WACHTER, BRENT MITTELSTADT, LUCIANO FLORIDI. Why a right to explanation of automated decision -making does not exist in the General Data Protection Regulation[J]. International Data Privacy Law,2017,7(2).
          {13}KATHRYN HUME. When is it important for an algorithm to explain itself?[J]. Harvard business review,2018.
          {14}MAHENDRAN A,VEDALDI A. Understanding deep image representations by inverting them[ C]. Proceedings of the IEEE conference on computer vision and pattern recognition,2015.
          {15}宋華琳,孟李冕.人工智能在行政治理中的作用及其法律控制[J].湖南科技大學學報(社會科學版),2018,(6).
          {16} JOSHUA A. KROLL, SOLON BAROCAS, EDWARD W. Felten et al. Accountable algorithms [ J ]. Social ScienceElectronic Publishing,2016,165(3).
          {17}Cook County homeowner sues Zillow for low “Zestimate”,(2017-05-10)[2017-12-02]http://www.chicagotribune.com/classified/realestate/ct-re-0514-kenneth-harney-20170510-column.html.
          {18}宋華琳.英國行政決定說明理由研究[J].行政法學研究,2010,(2).
          {19}CATE, F. H.,& MAYER-SCHONBERGEr, V. Notice and consent in a world of Big Data[J]. International Data Privacy Law,2013,3(2).
          {20}JAIN,P.,GYANCHANDANI,M.,& KHARE,N. Big data privacy: a technological perspective and review[J]. Journal of Big Data,2016,3(1).
          {21}Mario Martini. DS-GVO Art.22 Automatisierte Entscheidungen im Einzelfall einschlieBlich Profiling’ in Boris P. Paal and Daniel Pauly (n 32).∕∕Sandra Wachter, Brent Mittelstadt, Luciano Floridi. Why a right to explanation of automated decision-making does not exist in the General Data Protection Regulation[ J]. International Data Privacy Law,2017,7(2).
          {22} DIAKOPOULOS N. Algorithmic accountability: journalistic investigation of computational power structures [ J]. Digital Journalism,2015,3(3).
          {23}CARR N. The glass cage: Where automation is taking us[M]. New York: Random House,2015.
          {24}YEUNG K.“Hypernudge”:Big data as a mode of regulation by design[J]. Information, Communication & Society,2017,20(1).
          {25}董妍.政府信息公開中個人信息的保護[J].上海政法學院學報,2018,(3).

          本網站文章僅代表作者個人觀點,不代表本網站的觀點與看法。
          轉載請注明出自北大法律信息網
        0
        北大法律信息網
        www.chinalawinfo.com
        法律動態
        網站簡介
        合作意向
        網站地圖
        隱私政策
        版權聲明
        北大法寶
        www.pkulaw.cn
        法寶動態
        法寶優勢
        經典客戶
        免費試用
        產品服務
        專業定制
        購買指南
        郵件訂閱
        法律會刊
        北大英華
        www.pkulaw.com
        英華簡介
        主要業務
        產品列表
        英華網站
        聯系我們
        用戶反饋
        返回頂部
        二維碼
        不要添了,我高潮了视频