<output id="5zixi"></output>
<output id="5zixi"><legend id="5zixi"></legend></output>
<p id="5zixi"><del id="5zixi"><div id="5zixi"></div></del></p>

<tr id="5zixi"><label id="5zixi"></label></tr>
<p id="5zixi"></p>
  • <tr id="5zixi"><label id="5zixi"></label></tr><td id="5zixi"><ruby id="5zixi"></ruby></td><acronym id="5zixi"><meter id="5zixi"></meter></acronym><object id="5zixi"><strong id="5zixi"><address id="5zixi"></address></strong></object>
    基于信任的自動化決策:算法解釋權的原理反思與制度重構
    2022/1/12 8:45:23  點擊率[671]  評論[0]
    【法寶引證碼】
      【學科類別】民商法學
      【出處】《中國法學》2022年第1期
      【寫作時間】2022年
      【中文摘要】基于個人信息的算法自動化決策越來越普遍,我國《個人信息保護法》和相關國內外法律都引入算法解釋權加以應對。但由于算法具有黑箱性、不確定性與復雜性,算法解釋權是否應理解為一般性權利還是限定性權利,要求系統性解釋還是個案性解釋、事前解釋還是事后解釋、人工解釋還是機器解釋,都存在解釋爭議與適用困境。在原理層面,這一爭議與困境源于個人算法控制論。應以溝通信任原則重構算法解釋權,將算法解釋權的性質視為一種程序性權利,而非實體性權利。算法解釋權制度也應進行重構,建議根據自動化決策所處的行業領域、市場化程度、個案影響、企業能力而對其內容、程度、時間和方式作不同要求。
      【中文關鍵字】算法;自動化決策;算法黑箱;算法解釋權;個人信息
      【全文】

        一、引言
       
        大數據與人工智能時代,基于個人信息的算法自動化決策越來越普遍。如,在網約車的場景下,算法可以為乘客派送不同的司機,設置不同的線路;在資訊分發的場景下,算法可以為不同用戶推薦不同的視頻、新聞與廣告;在搜索場景下,算法可以為每個用戶呈現不同的搜索結果;在電商場景下,算法可以結合用戶的搜索、瀏覽、購買等記錄,為用戶推薦符合其偏好的商品。算法自動化決策在給個人帶來便捷服務的同時,其黑箱屬性和可解釋性也引起了社會的普遍關注。當乘客利用網約車打車時,乘客可能希望知曉,算法為何給其派送了較遠的車輛,而給其他乘客派送了較近的車輛。當外賣騎手被困算法系統,不斷被壓縮送餐時間的外賣騎手可能希望了解,算法如何對其進行考核。當貨車司機因為防止疲勞駕駛的自動記錄儀掉線而被罰款,貨車司機可能希望了解,此類自動化決策儀器的算法如何設置。當特斯拉等自動駕駛車輛遭遇剎車失靈,此時車主可能希望了解,車輛所遭遇的問題是車輛的問題還是自身的問題。
       
        為了應對與個人信息相關的算法黑箱問題,各國都在個人信息或個人數據保護法中規定了相關的算法解釋權條款。如,我國《個人信息保護法》在第24條等條款對拒絕自動化決策的權利與解釋說明的權利進行了規定,國家互聯網信息辦公室制定的《互聯網信息服務算法推薦管理規定(征求意見稿)》第12條規定,算法推薦服務提供者應保證和優化算法決策規則的透明度和可解釋性;歐盟《一般數據保護條例》也在若干條款中對算法解釋權進行了規定。
       
        但是,有關算法解釋權的內容、程度、時間、方式等制度問題仍然存在很大爭議。就內容而言,算法解釋權應視為一般性的算法解釋主張,還是應視為拒絕自動化決策等限定權利主張?就程度而言,個體可否要求自動化決策者對算法進行系統性解釋,還是可以要求更為具體的個案解釋?就時間而言,個體是否可以要求自動化決策者在算法決策前進行算法解釋,還是只能要求算法決策的事后解釋?就方式而言,當個人提起算法解釋,自動化決策者是否必須對個體提供人工解釋,還是也可以提供機器解釋?
       
        目前,學術界已經對部分上述問題進行了研究。有的研究探討《個人信息保護法》是否引入了一般性的算法解釋權,有的研究分析歐盟《一般數據保護條例》中算法解釋權的性質, 有的研究從算法治理的角度進行了分析,還有的研究特定行業的算法解釋權 等。這些研究指出,算法解釋權面臨爭議和挑戰,并且從不同角度提出了解釋方法與應用對策。本文試圖對算法解釋權的解釋爭議與應用困境作更系統性闡述,在原理層面借鑒信任與溝通機制理論對算法解釋權進行新的反思,并在此基礎上進行制度重構。
       
        具體而言,本文認為算法解釋權不應建立在算法個體控制的基礎之上。因為算法的復雜性、不確定性以及場景多元性,強化個體算法控制面臨種種挑戰。作為替代,應以信任機制重構自動化決策中的算法解釋權,將算法解釋權視為一種信任溝通機制。當相關算法解釋權主張有利于促進二者之間的信任關系時,此時應支持算法解釋權的主張;相反,當算法解釋權無助于二者信任關系建構時,或者當算法解釋權主張挑撥二者關系,則應審慎對待算法解釋權的主張。從信任溝通機制出發,算法解釋權的性質應被視為一種相對性與程序性權利,而非絕對性和實體性權利。在制度層面,可以根據算法自動化決策所位于的行業領域、市場化程度、個案影響、企業能力而對算法解釋權的內容、程度、時間和方式作不同要求。
       
        二、算法解釋權的解釋爭議
       
        目前各國都在其個人信息或個人數據保護法中引入了算法決策的相關條款,但由于與算法相關的權利相對新穎,而且各國的法律規定都比較概括抽象,這些條款往往可以作不同解讀。研究者也對算法解釋權的權利內容、程度、時間與方式給出了不同的法律解釋。不同的算法解釋權意味著個人可以主張行使的權利不同,個人信息處理者應當承擔的義務不同。本部分結合各國算法解釋權的立法與研究狀況,分析算法解釋權在法律解釋層面的爭議。
       
        (一)一般主張與限定主張
       
        在權利內容方面,算法解釋權一方面可以被解釋為一般性權利主張,即此種權利賦予了個體在所有情形下針對所有自動化決策者的算法解釋權利。以我國《個人信息保護法》為例。《個人信息保護法》第24條是對自動化決策進行規定的專門條款,在第1款中規定,“個人信息處理者利用個人信息進行自動化決策,應當保證決策的透明度和結果公平、公正”。此外,第7條規定:“處理個人信息應當遵循公開、透明原則,公開個人信息處理規則,明示處理的目的、方式和范圍。”第44條規定,“個人對其個人信息的處理享有知情權、決定權,有權限制或者拒絕他人對其個人信息進行處理”。綜合這些條款,可以從中推導出一種基于透明性主張的算法解釋權,個人可以對所有算法決策者提出算法解釋與說明的主張,并且可以在信息處理者拒絕的情形下提起訴訟請求。另一方面,《個人信息保護法》的相關規定又可以被理解為限定性的權利性主張,包括特定條件下的說明解釋權與拒絕自動化處理的權利,但不包括一般情形下的算法解釋權。在這種觀點看來,《個人信息保護法》第24條第1款僅一般性地規定了自動化決策的透明性要求,第7條和第44條則更是關于個人信息處理的一般性規定。而第24條第2款、第3款則明確對算法解釋權進行了限定,這兩款分別規定,“通過自動化決策方式向個人進行信息推送、商業營銷,應當同時提供不針對其個人特征的選項,或者向個人提供便捷的拒絕方式”“通過自動化決策方式作出對個人權益有重大影響的決定,個人有權要求個人信息處理者予以說明,并有權拒絕個人信息處理者僅通過自動化決策的方式作出決定”。這兩款將算法解釋權限定為信息推送與商業營銷場景下拒絕算法決策的權利,以及個人權益受到重大影響前提下得到說明與拒絕算法決策的權利。
       
        歐盟《一般數據保護條例》具有一定的相似性。一方面,《一般數據保護條例》在第3章第2部分“信息與對個人數據的訪問”的多個條文中對算法透明進行了規定:當數據控制者“收集數據主體個人數據時”(第13條),“當個人數據還沒有從數據主體那里收集”(第14條)以及當數據主體的“數據正在被處理時”(第15條),數據主體有權知曉“存在自動化的決策”,包括“用戶畫像和在此類情形下,對于相關邏輯包括此類處理對于數據主體的預期后果的有效信息”。此外,《一般數據保護條例》還規定,對于所有個人數據權利,“控制者應當以一種簡潔、透明、易懂和容易獲取的形式,以清晰和平白的語言來提供”(第12條)。有關研究認為,從這些條款中可以推導出一種一般性的算法解釋權,因為離開了算法解釋權,用戶的知情權就不能保證,也不可能獲取“對于數據主體的預期后果的有效信息”。另一方面,歐盟《一般數據保護條例》中的算法解釋權也可以被視為一種限定性權利。按照這種觀點,《一般數據保護條例》第12—15條的相關規定只是對透明性的要求,而第21條與第22條對算法的專門性規定只賦予了個體有限的權利。其中第21條規定了數據主體在用戶畫像與營銷中使用算法的反對權,即“因為直接營銷目的而處理個人數據,數據主體有權隨時反對為了此類營銷而處理相關個人數據,包括反對和此類直接營銷相關的用戶畫像。數據主體反對為了直接營銷目的而處理,將不能為了此類目的而處理個人數據”。第22條規定了限定情形下對基于自動化的個人決策和用戶畫像的反對權,數據主體有權反對“完全依靠自動化處理——包括用戶畫像——對數據主體作出具有法律影響或類似嚴重影響的決策”。
       
        算法解釋權的一般性主張與限定性主張之間的區別并不僅僅是概念性的,前者比后者為個人賦予了更寬泛的權利主張,其適用對象更廣,而且對算法決策者施加了更多責任。如,在一般娛樂資訊的個性化推薦機制下,按前者理解,個體可以要求企業對其自動化決策算法進行解釋,但按后者理解,則個體僅具有拒絕自動化決策或關閉個性化推薦的權利,對于沒有給個人造成嚴重影響的算法決策,個人無權主張一般性的算法解釋權。
       
        (二)系統解釋與個案解釋
       
        算法解釋權的程度要求也可以作兩種理解。一種理解是,個人可以要求自動化決策者對算法的系統功能進行解釋,即要求自動化決策者解釋自動決策系統的邏輯、意義、預期后果和一般功能,如系統的需求規范、決策樹、預定義模型、標準和分類結構。另一種理解是,個人可以要求對個案決策進行解釋,即要求自動化決策者解釋“算法決策的基本原理、原因,以及限定自動決策的個別情況,如特征權重、機器定義的案例限定決策規則、有關引用或配置文件組的信息”。兩種解釋為個人賦予不同的信息權利,為自動化決策者施加不同的責任。以網約車場景為例,按照前一種理解,乘客有權知曉網約車公司利用算法進行派車的一般機制,網約車公司需要為個體提供其算法決策規則的一般性解釋。而按照后一種理解,乘客則可以要求網約車就某次車輛派送進行個案性解釋,網約車公司不但需要解釋其算法決策的一般性規則,而且需要向某位乘客解釋,為何給其派送某種類型的車輛,為何其等待的時間較長,為何給其設置了某條行車路線。
       
        從法條解釋來看,以上兩種程度要求都可以在我國的《個人信息保護法》中找到依據。一方面,《個人信息保護法》中的算法解釋權可以被視為一種系統性解釋要求。《個人信息保護法》第48條規定,個人有權要求“對其個人信息處理規則進行解釋說明”。這意味著,自動化決策者僅僅需要對其算法規則進行解釋,而不需要對具體的決策機制進行說明。另一方面,我國《個人信息保護法》中的算法解釋權可以被視為一種個案性解釋。《個人信息保護法》第24條規定,“應當保證決策的透明度和結果公平、公正”“通過自動化決策方式作出對個人權益有重大影響的決定,個人有權要求個人信息處理者予以說明”,這一規定似乎不僅僅針對一般性的規則,而且還包括對個案的算法決策進行說明。
       
        歐盟的《一般數據保護條例》也可以作兩種解釋。一方面,《一般數據保護條例》可以被視為賦予了個體以系統解釋權:第13、14、15條賦予了個人對于“存在自動化決策”的一般知情權。另一方面,第22條第3款規定“數據控制者應當采取適當措施保障數據主體的權利、自由、正當利益,以及數據主體對控制者進行人工干涉,以便表達其觀點和對決策進行異議的基本權利”,這一規定又明確賦予了個體以介入具體算法決策的權利。因此,《一般數據保護條例》也可以被視為賦予了個體以個案性解釋的權利。
       
        (三)事前解釋與事后解釋
       
        就解釋的時間要求而言,算法解釋權既可以視為要求自動化決策者進行算法決策前的解釋,也可以視為要求自動化決策者進行算法決策后的解釋。根據事前解釋的要求,無論是網約車乘客還是各類資訊、廣告、新聞的用戶,都可以要求自動化決策者在算法決策前就公布其算法規則。而根據事后解釋,則個體只能在算法決策作出之后提出請求。
       
        對于算法解釋權的時間要求,我國《個人信息保護法》并未進行明確規定。《個人信息保護法》第24條、第48條和第50條中對透明性的一般性要求,既可以被解讀為要求自動化決策者進行事前解釋,也可以被解讀為要求自動化決策者進行事后解釋,或者同時包含兩者。另一方面,《個人信息保護法》有的條款更偏向于事前解釋或事后解釋。如第24條的規定更偏重決策本身的公平公正與個人在事后決策中的知情權。而第55條規定,利用個人信息進行自動化決策,“個人信息處理者應當事前進行個人信息保護影響評估,并對處理情況進行記錄”,這一條款明確了風險評估應當屬于事前責任。
       
        歐盟《一般數據保護條例》也可以作兩種解釋。一方面,《一般數據保護條例》中的很多條款規定了收集與處理個人信息前的告知性權利,這些條款明確賦予了個體以事前解釋的權利。另一方面,《一般數據保護條例》第22條規定的拒絕自動化處理的權利,在一定程度上賦予了個體以事后解釋的權利。對《一般數據保護條例》第22條進行解釋的“重述”(recital)中明確提到,個體擁有“獲得對評估后作出的決定的解釋和對決定提出質疑的權利”。“重述”雖然沒有法律效力,但在一定程度上代表了歐盟對于《一般數據保護條例》進行解讀的官方立場。
       
        (四)人工解釋與機器解釋
       
        就解釋方法而言,算法解釋權可以被認為要求進行人工解釋,即當個人提出算法解釋權的主張時,自動化決策者應當通過人工服務的方式解釋算法的運行機制。另一方面,也可以認為純粹機器解釋同樣符合算法解釋權的要求。在當前很多互聯網公司提供的客戶咨詢中,都采取了機器解釋的方式,即通過自動化或非人工的方式為顧客解答疑慮。
       
        目前各國的個人信息保護法并未對解釋方法作出明確規定。一方面,相關法條似乎蘊含了人工解釋的要求。如,我國《個人信息保護法》第24條規定的個人有權拒絕“僅通過自動化決策的方式作出決定”和“有權要求個人信息處理者予以說明”以及第48條規定的個人有權“對其個人信息處理規則進行解釋說明”,都隱含了要求進行人工解釋的要求。此外第50條規定的“申請受理和處理機制”,也隱含了人工介入和人工解釋的要求。另一方面,相關條款也可以被理解為需要人工介入,但未必需要最終以人工方式向個人進行解釋。如,銀行或征信企業可以建立人工審核機制,對提出異議或拒絕算法自動化決策的用戶進行人工復核,但此類復核結果卻可能被錄入到計算機系統,并以自動化回復的方式與用戶溝通。
       
        歐盟《一般數據保護條例》和相關規定也可以解讀出人工解釋與機器解釋兩種不同要求。一方面,《一般數據保護條例》在第21、22條中規定的反對用戶畫像與完全自動化處理的權利,在一定程度上提出了人工介入的強制性要求。如果相關溝通與解釋機制是完全機器化的,則算法解釋機制就可能走向其反面,變成了另一種自動化決策。但另一方面,歐盟《一般數據保護條例》并未明確說明,除了需要在設計、運行階段對自動化決策進行人工介入之外,是否需要在與用戶的溝通中也必須采取人工的方式,以及是否至少可以采用機器解釋的方式。在歐盟第29條數據保護工作組發布的《個人自動化決策和用戶畫像指南》中,特別提到了使用“視頻”等方式來闡述過去的自動化決策如何做出。這說明,歐盟立法者與政策制定者心目中的算法解釋至少包含了機器解釋。
       
        三、算法解釋權的適用困境
       
        算法解釋權的困境不僅存在于法律解釋層面,也存在于法律適用與效果層面。無論將算法解釋權界定為一般性權利主張還是限定性權利主張、系統性解釋還是個案性解釋、事前解釋還是事后解釋、人工解釋還是機器解釋,都存在法律適用的有效性難題。一旦對算法解釋權的內容要求、程度要求、時間要求、方式要求作剛性的規則要求,就會帶來各類問題。
       
        (一)算法解釋權的權利內容
       
        就權利內容而言,將算法解釋權界定為一般性權利主張,首先可能面臨知情同意原則帶來的問題。以“知情—同意”模式保護個人信息相關權益,本身就面臨著很多困境,可能同時引發個人信息權益保護不足或者保護過度的問題。目前,已有不少文獻對此進行了論述。如,有學者指出,對于信息處理者的告知,個人一般沒有興趣、時間、專業能力進行閱讀。即使個體了解相關告知,也往往因為認知偏差而過高估計有的風險,過低判斷有的風險。還有學者指出,在個人信息收集與處理中,個人信息往往涉及多個不同主體,其風險往往具有累積性效應(aggregating effect)。因此,個人未必能通過“知情—同意”的方式來維護自身權益,個人既可能很容易就同意信息的收集與處理,從而不能有效保護自身權益,也可能高估或者誤判某些信息收集與處理行為,拒絕本來可能為個人提供更好服務或利益的相關活動。
       
        在涉及算法的自動化決策中,上述問題更為明顯。相比個人信息的收集與非自動化決策的信息處理,涉及算法的規則往往更為復雜。算法往往由很多程序員共同完成,每個程序員可能僅僅負責其中一部分,很少有人能夠完整地解釋算法的所有細節。尤其是在涉及大數據的算法中,由于基于大數據的算法奠基于相關關系,而非因果關系之上,對算法的解釋往往難以滿足人類因果關系思維的解釋。在機器學習的年代,算法又增加了不確定性的特征。機器學習的特征是,運用海量數據對機器學習算法進行訓練,讓機器學習算法進行自我調整,以獲得更好的性能。機器學習算法可以隨時間的推移而改變處理數據的方式,就像人類可以通過學習改變處理數據的方式一樣。因此,如果將絕對透明視為算法解釋權的要求,未必現實。就效果而言,也未必能很好地維護個人的相關性權益,促使企業為個人提供更優服務。
       
        此外,將算法解釋權視為一種限定性權利的主張,以拒絕算法自動化處理權作為核心,也面臨不少困境與挑戰。首先,在有的場景下,個人反對權的行使并不合理。如,在自動駕駛的場景下,行人主張脫離算法自動化處理,要求自動駕駛汽車避免使用算法,就不現實。因為自動駕駛在遇到行人時,必然需要即時性的算法處理。其次,在原理層面,將反對或脫離算法決策上升為一種權利也需要進一步論證。很多人可能更愿意采用自動化決策算法,而非人工算法。他們可能更加擔心人工審核會帶來歧視、腐敗與效率低下,或者出于認知上的惰性,更愿意選擇基于算法的自動化決策,而非人類決策。如果拒絕自動化決策可以作為一種權利,那么反對人類決策和采取自動化決策權是否也應該成為一種權利?
       
        (二)算法解釋權的解釋程度
       
        就算法解釋權的解釋程度而言,算法的系統性解釋除了上文提到的算法復雜性之外,還存在如下幾方面的難題。
       
        首先,算法的系統性解釋面臨時時更新的難題。以機器學習為代表的人工智能算法可以從數據中學習,并隨著時間的推移而提高其準確性。因此,在機器學習算法中,算法隨著時間的演進而變化,而非一成不變。要對這樣的算法進行系統性解釋,就意味著必須對算法進行實時跟蹤,不斷進行解釋。
       
        其次,算法的系統性解釋常常難以引起個人注意,為個人提供有效信息。在自動化決策者進行自動化決策之前對個人的告知中,個人對算法自動化決策系統的邏輯、意義、預期后果和一般功能往往就沒有多大興趣,更不用說去了解和閱讀相關告知。而在個人遭遇自動化決策,對算法產生相應疑慮之后,關于算法的一般系統解釋也未必能打消個人疑慮。特別是當系統解釋與個人的算法決策結果相關性不高時,系統解釋對于個人就沒有太多意義。
       
        最后,算法的系統性解釋還面臨知識產權與“算計”算法的難題。算法的系統性解釋,往往意味著算法決策機制一定程度的公開,會對企業的知識產權保護帶來一定的挑戰。而算法如果向包括社會公眾在內的人員完全公開,則可能導致社會主體鉆算法的空子,采取各種方式來“算計”算法的問題。如,Google最初采取一種叫做PageRank的算法,用于在搜索引擎結果中對網頁進行排名。Google公司曾經向社會公開這種算法,但結果是有的網站利用這一算法而將自己的網站排在Google搜索結果前列。為了應對這一問題,Google只能采取其他算法與PageRank算法混合,不再唯一使用某種算法。
       
        相比算法的系統性解釋,算法的個案性解釋需要解釋某個具體算法決策的邏輯,因而更貼近個人訴求。但個案性解釋首先面臨系統性解釋同樣的問題,因為個案性解釋以系統性解釋為前提,其需要首先解釋算法決策系統的一般規則。其次,個案性解釋的解釋難度更大、成本更高。因為個案性解釋除了要掌握算法的系統性運作,還需要掌握針對某個個體決策的具體情況。最后,算法的個案性解釋需要多具體?從邏輯上說,個案性解釋可以無限具體,個人可以無限追問。以個性化推薦算法為例,個人可能希望知道,為何自己收到植發廣告?企業可能告訴某個個人,企業并沒有設置“掉發”“禿頭”之類的標簽,植發廣告是算法的自動化分發。但個人可能會進一步追問,企業是否設置了“頭發”“中年”等標簽,或者要求企業解釋,為何其電腦上收到了植發廣告,而手機上沒有收到?為何對他推送了植發廣告,而沒有對其他人推送?如果個案解釋以個人的徹底滿意為標準,個案解釋可能會無窮無盡。
       
        (三)算法解釋權的時間要求
       
        就算法解釋的時間要求而言,事前解釋的意義有限。事前解釋只能是一般解釋。個體往往對于告知不太在意或難以理解,而機器學習等算法又可能時時發生變化,在這樣的背景下,對算法進行事前解釋,無助于個體理解算法和作出理性決策。對于個體而言,事前解釋最多等同于告知個體“存在自動化算法決策”。這種解釋既無法向個體告知演進后的算法規則,也無法針對具體個體的情況,向個體解釋針對其個人的具體算法決策如何作出。
       
        同時,事后解釋也面臨難題。一方面,事后解釋是在算法決策已經作出之后進行。自動化決策者無需提前告知個體其運行機制,那么個人對自動化決策與個人信息處理的選擇權將形同虛設。缺乏知情與了解,個人的選擇權與決定權可能成為一種任意行使的情緒性主張,缺乏理性基礎。此外,在一些具有風險性的算法決策中,事后解釋可能面臨更大的問題。因為此類算法決策可能給個體帶來重大風險,需要個體采取措施進行積極預防,事后解釋顯然無法幫助個體理解和防范此類風險。
       
        另一方面,事后解釋應當以體系性解釋作為要求,還是應當以個案性解釋作為要求,也是一個兩難問題。在機器學習等算法中,算法可能在經過大數據訓練后發生變化,因此,算法的事后解釋既可以要求自動化決策者對算法進行一般解釋,也可以針對決策時的算法系統進行個案解釋。如果將事后解釋的要求界定為體系性解釋,那么企業等算法主體需要對算法的演化進行追蹤了解,將決策時的算法告知用戶即可。其好處是企業等算法主體的負擔相對合理,但問題在于,個體對算法決策的困惑可能很難消除。而如果將事后解釋的要求界定為個案解釋,則企業不但需要追蹤算法的演化,還需要針對成千上萬用戶進行個性化的解釋。此類解釋雖然有利于用戶消除疑慮,但也會給企業等算法主體施加不現實的負擔。
       
        (四)算法解釋權的方式要求
       
        在解釋方式要求上,機器解釋與人工解釋也難以作統一要求。如果將人工解釋作為強制性與統一性要求,并不現實。這意味著在個人信息的收集、處理、申訴等各個階段,使用算法的企業都需要單獨通知個人,并在個人行使訪問權、更正權、刪除權、拒絕自動化決策權等權利時都設置人工服務。在用戶量有限的醫療算法、信貸算法等場景下,醫院或大型銀行或許可以滿足這一要求,因為此類場景更類似于一對一或一對多服務。但在其他場景下,人工解釋會給某些算法主體帶來難以承擔的壓力。有的互聯網與科技企業的用戶超過數億,每天存在無數的自動化處理。如果人工解釋或服務是強制性要求,那么只要有千分之一的用戶提起算法解釋請求,企業就將不堪重負。
       
        事實上,即使對算法解釋權最為推崇的歐盟,也將很多自動化決策視為符合法定要求的個人信息處理,毋需人工介入或人工解釋。如,歐盟第29條數據保護工作組發布的《個人自動化決策和用戶畫像指南》認為,如果企業海量的自動化處理是企業所必須,那么此類處理可以被視為《一般數據保護條例》第6(1) (b)所規定的“為履行合同而必需”這一處理的合法性基礎。對于《一般數據保護條例》規定的知情權、訪問權、更正權以及拒絕自動化決策權,此類處理將不再適用。歐盟第29條數據保護工作組以招聘中的自動化算法為例,指出如果某企業工作很受歡迎,收到了數以萬計的申請,那么企業可以合法使用純粹的自動化決策篩除不相關的申請,以確定合適的候選人。
       
        但是如果完全不作要求,允許企業以純機器解釋的方法來進行算法解釋,那么算法解釋制度設計的初衷就可能大打折扣。在一定程度上,算法解釋制度就是為了引入人類的解釋說明機制,消除個人對算法的疑慮。如果允許以機器解釋機器決策,則算法解釋機制毋寧說是另一種自動化決策,未必能夠消除個人疑慮。特別是當算法對個人的“權益造成重大影響”,而個人又對機器的算法解釋感到困惑與質疑,希望有人工解釋介入時,此時企業如果仍然未能提供人工解釋的選項,則所謂的算法解釋制度將形同虛設。
       
        四、算法解釋權的原理分析
       
        解決算法解釋權面臨的法律解釋爭議與法律適用困境,需要回到算法解釋權的基本原理上來。從基本原理看,現行算法解釋權建立在算法個體控制論的基礎之上,但這一理論面臨種種困境。應當超越算法個體控制論,以溝通信任的基本原理重構算法解釋權。從性質來看,這也意味著算法解釋權應當被視為一種程序性權利,而非一種剛性的實體性權利。
       
        (一)算法個體控制論的困境
       
        在原理層面,算法解釋權的提出與制定,與個人信息控制權理論密切相關。20世紀60年代,美國學者阿蘭·威斯丁(Alan Westin)首先提出了個人對于自身信息控制的權利,以回應傳統隱私權在信息技術時代保護個人權益的不足。此后,這一個人信息控制權或個人信息自決權廣泛傳播,并在制度層面形成了以“公平信息實踐”(fair information practice)為基礎的個人信息保護制度。各國的個人信息保護制度雖然各有不同,但大多賦予個人以信息訪問權、糾正權、刪除權等控制性權利,同時要求信息處理者承擔一系列責任。算法解釋權作為一種新型權利,正是訪問權、糾正權、刪除權等傳統個人信息控制權的進一步拓展。算法解釋權期望通過個體對算法的知情、拒絕與控制,最大限度地保護公民在大數據與自動化決策中的權益。
       
        但將算法解釋權視為絕對化的控制性權利,存在如下幾方面的問題。首先,個人信息控制權本身存在可行性困境。雖然法律在個人信息收集、儲存、流轉的各個環節都賦予了個體以知情選擇權,但個人很難通過“告知—同意”的方式來作出理性判斷,以至于這種權利在很大程度上仍然是停留在“紙面上的權利”。同時,解決這種困境,也無法簡單通過強化個人選擇權來完成。為了應對“告知—同意”的失效,有的方案要求信息處理者簡化隱私政策,要求信息控制者制定簡短易懂的隱私政策,有的方案要求信息控制者都以“選擇加入(opt-in)”等方式獲取消費者同意。但這些改良版的方案卻不僅無法解決個人控制的問題,反而可能帶來更多問題。
       
        在算法問題上,個人控制權面臨更多問題。算法自動化決策比個人信息的收集、儲存與流轉更加復雜,更加具有黑箱屬性與不可預測性。以近年來興起的可解釋人工智能(XAI)項目為例,這一項目的最初目標被定義為實現人工智能的可解釋性(explainability)。但面對算法的黑箱屬性與機器的自我學習特征,很多學者認為,算法全面解釋不可行或難度太大,應以可理解性(interpretability)作為目標,即“有能力用可理解的術語向人類表達”,而非對算法進行全盤解釋。理解算法對于專家已是非常困難,對于普通個人來說就更是如此。
       
        其次,個人控制權存在正當性困境。在很多自動化決策的場景中,自動化決策者與個人之間的關系具有互惠合作性,而不只具有對抗性,這就使得個人的算法解釋權與控制權難以具備絕對化權利的正當性基礎。一般而言,當法律關系中的兩方是對抗防范關系,同時一方具有強勢地位或行使公權力,此時作為弱勢防范的一方,有權要求對方對相關行為進行說明,并在沒有法律授權的情形下獲得個人同意。但在算法自動化決策中,很多企業的算法決策是為了向個體提供更有效的信息、更優惠的價格和更好的服務。對于企業而言,只有為消費者提供性價比更高的產品,才更有利于企業長期發展。如果法律關系中的雙方形成的是互惠關系,那么賦予一方以更多的解釋權,不僅沒有必要,而且會給雙方的合作關系帶來不必要的煩擾。
       
        當然,自動化決策者與個人之間也經常具有對抗性。如,在網約車與電商商品推薦的場景中,企業可能利用算法進行“大數據殺熟”;在搜索引擎的場景中,企業可能利用搜索算法而誘使用戶進行某些不必要的消費。現實中已經出現了大量的企業支配消費者和榨取消費者剩余的情形。在此類不對等的對抗防范關系中,賦予個體以拒絕算法自動化處理權與解釋權,的確具有正當性與必要性。但這種反對權與解釋權的行使應以企業存在不合理支配為前提,以消除企業對個人的欺詐與不公平對待為目的。對于不具有對抗性或具有互惠合作性的關系,賦予剛性的權利則并無必要,也不利于雙方合作關系的形成。
       
        最后,市場本身也具有調整能力,在企業算法決策中,并非所有不合理的算法問題都需要國家力量的介入。當某一領域的競爭較為充分,特別是已經形成市場良性競爭的前提下,當某企業利用算法對個人設置過高的價格或提供低水平服務,這家企業就很可能會被消費者拋棄,被市場淘汰。因此,算法解釋權應當更多針對那些對消費者產生重大影響的自動化決策,或者針對具有市場支配地位的企業。前者可以使政府力量集中,避免規制中經常出現的規制失靈、選擇性規制、規制俘獲等問題。后者則可以避免某些壟斷企業利用算法和消費者的個人信息而濫用市場支配地位,支配消費者。
       
        (二)拋棄算法解釋權?
       
        算法解釋權既然面臨種種困境,那是否應當拋棄算法解釋權的進路,以算法規制的進路作為替代?如,政府可以對算法進行直接監管,要求企業在某些敏感領域對算法進行審查與風險評估;政府也可以通過消費者保護法等框架來監管算法,要求企業的算法決策不得欺詐消費者;政府還可以用企業自我監管的方式對待企業算法。這些模式與算法解釋權的區別在于,這些模式主要從外部對算法進行監管,都沒有賦予個體以主張算法解釋的權利。
       
        算法外部監管具有很多優勢,例如監管機構的專業能力較強,對于算法的理解能力高于普通個人;監管機構的人力物力遠非個人能比,因此其調查與執法能力強于個人;監管機構通過對算法的監管與風險評估,可以保護所有使用該算法的個人,而不僅僅是某個個人。但徹底放棄算法解釋權的進路,代之以算法的外部監管,并不是合理的法律與制度選擇。
       
        首先,算法的外部監管面臨多重挑戰。監管機構雖然專業能力、執法能力較強,但監管機構的數量和人員都有限度,發現問題能力較弱。尤其是在算法這類科技專業性較強的領域,一般監管機構的通用專業能力往往難以應付。面對快速變化的科技問題,監管機構往往難以進行知識更新,趕上科技的發展。此外,監管往往依賴全有全無的規則或命令,對于場景多元、權益多變的算法自動化決策來說,這類規則或命令也未必完全適合監管算法。可見,政府對算法的外部監管具有監管能力和監管手段方面的局限性,完全依賴政府外部監管效果不佳。正如有的學者所言,“如果指望國家單獨解決算法問責問題,那就找錯地方了”。
       
        其次,在算法外部監管面臨困境的方面,算法解釋權的合理行使恰巧可以彌補其不足。面對算法決策,個體雖然認知能力較弱,也一般傾向于息事寧人,不愿意介入法律訴訟,但用戶是算法決策的最直接影響對象,算法的變化或更改,用戶的感受往往最為直接深刻。即使其中有很小比例的用戶發現問題,提起申訴或訴訟,也可以較快發現問題。因此,個人對于算法的控制權雖然難以行使,但賦予個人對于算法的有限解釋權,通過個人發現算法存在的問題,有利于對算法進行監督和合作治理。
       
        最后,算法解釋權不僅可以扮演一種工具性權利,也可以成為一種價值本身。在日常交往與法律活動中,受到影響特別是受到傷害的一方尋求解釋,這對于維護個體自治與尊嚴價值具有重要意義。法律心理學的成果表明,法律程序的一個重要價值就在于使相關主體得到傾聽,相關疑慮得到解釋。通過獲得解釋與參與相關溝通,個人可以在法律程序中獲得一種被尊重的感受。在算法自動化決策中,個體主張某種程度的算法解釋權,也可以被視為一種直覺性的個體尊嚴需求。算法解釋權的合理行使,有利于個人自主性的實現。
       
        (三)邁向溝通信任的算法解釋權
       
        為了避免以個人控制權為基礎的算法解釋權帶來的困境,同時彌補算法外部監管的不足,算法解釋權的基本原則應當進行重構。既然自動化決策者與個人既存在合作互惠關系,又存在對抗防范關系,那么算法解釋權就應當以促進雙方的合作互惠為目標,以消除個人的疑慮和防范自動化決策者的不合理支配為目標。也就是說,算法解釋權應當建立在溝通信任的原則之上。
       
        在個人信息保護的基礎理論研究中,以信任原則建構信息隱私保護,已經涌現了一大批研究成果。這些理論的共識是,以個人控制論為基礎的個人信息保護已經難以承擔網絡時代的信息隱私保護,信息處理者應當超越一次性的告知同意,構建可信賴的信息處理機制,贏得信息主體的信任。如,阿里·瓦爾德曼(Ari Waldman)認為,信息隱私的本質應當是信任,而非關于個人控制,以信任關系界定信息隱私,更有利于在互聯網與大數據時代保護個人權益。
       
        此外,杰克·巴爾金(Jack Balkin)等學者提出的信息信義義務理論,也與信任理論密切相連。針對互聯網時代個人與信息處理者之間的信息能力不平等,個人對于信息處理者的依賴,平臺的專業信息處理能力,以及二者之間可能形成的信任關系,巴爾金認為應當對平臺施加信義義務,要求平臺承擔對個人的保密義務(duty of confidentiality)、謹慎義務(duty of care)和忠誠義務(duty of loyalty),以建構一種基于值得信任的平臺個人信息保護。雖然有學者對巴爾金的理論提出質疑,認為這種信義義務理論不足以保護個人的信息隱私,但作為一種對個人控制模式的批判與替代,信息信義義務仍然具有強大的生命力,也得到了很多權威學者的支持。
       
        在算法自動化決策問題上,以信任原則重構算法解釋權,比個人信息保護中的其他議題更為必要。在算法自動化決策中,個人所面臨專業化壁壘更高、信息更不對稱、不確定性更高。對于這種關系,法律更難通過告知同意的方式進行規制。如果說個人信息保護中有的議題更類似于消費者法保護,存在一定的能力與信息不對稱;那么算法自動化決策則類似于醫患關系,雙方的能力與信息不對稱程度更高。在這樣一種關系中,法律經常要求醫生對病患承擔信義義務,建構一種基于信任而非簡單同意機制的醫患關系。對于算法自動化決策,也應當更多以信任原則和信義法的框架重構算法解釋權。
       
        (四)算法解釋權的程序性特征
       
        從溝通信任的原則出發,可以對算法解釋權的性質進行重新界定。既不應將算法解釋權視為一種透明性要求,也不應將其視為一種靜態、孤立、絕對化的實體性權利。相反,算法解釋權應當被視為一種動態、溝通、相對性的程序性權利,因為信任本身就是持續性、關系性、程度性的。
       
        首先,信任本身是一個過程,無法通過一次性授權而永久性建構,這使得算法解釋權更類似一種動態性權利。正如有的學者指出,信任本身就是一種貝葉斯態度,一方對另一方的信任常常取決于先前事件的變化而變化,而非取決于最初雙方的合意。現代合同法研究也表明,所有合同都只能是不完備合同(incomplete contract),即使在最經典的一般合同關系中,雙方也不可能對所有事項進行約定,而需要雙方信任關系的持續性構建。在算法信任關系的建構中,持續性問題更為突出,更需要消除雙方或一方的疑慮。如此一來,算法解釋權就不能夠限定在某一個時間點對于個人的一次性解釋。這種解釋即使在當時贏得了個體的信任,也可能因為時間的演化而受到個體懷疑,需要后續的更多解釋。
       
        其次,信任需要在關系中進行建構,而不能通過孤立的權利行使來獲取,這使得算法解釋權更類似溝通性權利。目前,我國和歐盟的法律賦予了個體在算法自動化決策中的反對權與申訴權,如果行使恰當,這些權利可以充當溝通與信任的橋梁,既消除個體的疑慮,同時也可以成為企業等信息主體傾聽消費者、改進服務的渠道。但如果行使不當,此類權利也可能成為進一步破壞信任的壁壘。個人可能僅僅得到一種機械性的回應,不僅沒有消除疑慮,反而產生更多的懷疑;而企業則可能將回應機制視為一種負擔和應付,對算法解釋消極應對。因此,孤立和形式主義的權利行使無助于信任的建構,應以關系溝通的立場看待算法解釋權。
       
        最后,信任是程度性而非絕對性的,這使得算法解釋權更接近于一種相對性權利。就信任而言,即使是最親密的關系,也不可能實現百分之一百的信任。在商業算法決策等場景下,信任關系更不可能達到私人之間親密關系中的信任程度,也毋需達到這種程度。因此,算法解釋權的行使不應追求絕對信任。目前,我國和域外國家的法律已經作出了某些規定,例如將對個體權益造成重大影響作為限定條件,此類規定有利于以信任原則重構算法解釋權。此外,算法解釋權中的信任問題還應考慮市場競爭、算法決策的應用領域。例如對于市場競爭較為激烈,用戶選擇權較為充分的領域,就不應對雙方信任程度作過高要求。相反,對于公共事業領域的算法,或者那些具有一定市場壟斷、具有公共基礎設施性質的企業,則應要求或引導企業獲取個體更高程度的信任。在算法解釋權的規則設定上,國家“有必要更多地采取軟法方式,而不是簡單地提高硬法的懲戒力度”。
       
        總之,算法解釋權的權利主張不應以絕對透明為目標。絕對透明的要求可以永無止境,信息的無限度披露也只會引起信息過載與選擇疲勞。算法解釋權也不應是絕對性的。個人有向自動化決策者提出算法解釋或者反對算法決策的正當程序權利,自動化決策者也應建立回應這類個人訴求的機制。但此類權利主張應更類似于一種程序性權利,而自動化決策者的回應機制也更應被視為一種溝通機制或客服機制。通過正當程序權利的行使與回應,算法解釋權可以成為建立算法信任與科技向善的橋梁。
       
        五、算法解釋權的制度重構
       
        從算法解釋權的原理出發,可以重新建構算法解釋權制度。算法解釋權可以根據其權利內容、解釋程度、解釋時間、解釋方式不同而分為一般性主張與限定性主張、系統性解釋與個案性解釋、事前解釋與事后解釋、機器解釋與人工解釋,而且每種分類均存在法律解釋層面與法律有效性層面的難題。要回應這些難題,可以結合算法解釋權的溝通信任原則與程序性性質,對算法解釋權的內容、程度、時間與方式作不同類別的要求。
       
        首先,就權利內容而言,算法解釋權不應被視為一種內容邊界完全清晰的權利。無論是一般性主張還是限定性主張,其權利主張都是程序性的,其實體性邊界應該根據具體場景下個人與算法決策者之間的溝通信任關系而確定。總體而言,當算法決策所處的場景具有嚴重的信任危機,且難以通過市場競爭改善算法時,應當賦予個體一般性的算法解釋權主張,而不僅僅是拒絕算法自動化決策的權利。同時,個體主張算法說明解釋的權利也不應設置前提。例如,當人們對外賣算法系統存在普遍不信任時,或者對網約車的算法派單感到困惑時,應賦予個體以算法解釋權,這類一般性主張將有利于督促自動化決策者對算法進行改善,重新贏取社會與用戶的信任。相反,當算法決策所處的場景本身具有相對較高的信任度,或者該行業具有良性互動的競爭機制,則此時應將算法解釋權限定為某些特定的權利主張。一部分群體可能對自動化決策本身存在懷疑,當自動化決策對他們產生重大影響,賦予他們以拒絕自動化處理的權利或算法說明解釋權,有利于進一步促進二者之間的信任。
       
        其次,就解釋程度而言,一方面應要求企業充分了解和掌握算法的系統性解釋。現代互聯網企業和銀行的算法往往“由眾多工程師設計組成的復雜公式決定”,企業或規制機構掌握其算法的整體運行機制,這是算法解釋權有效實施的前提。為了實現這一目標,企業或運用算法決策的規制機構就應打通其內部壁壘,在企業內部樹立算法倫理與合規實踐,真正將企業向消費者告知的隱私政策和對用戶的回應落實到企業的每一個環節。換句話說,企業需要不斷進行內部的自我監管,既需要在事前解釋環節就對算法設計進行內部溝通,也需要在事后解釋中倒查企業內部的算法運作機制,保持對算法的內部動態監管。另一方面,可以根據算法所處的領域特征、影響性不同而要求不同程度和類別的算法個案解釋。對于那些用戶具有較多選擇權、個案影響一般的算法決策,應允許自動化決策者自身設定個案解釋的規則。對于企業應用算法進行不涉及意識形態與公共倫理的娛樂資訊的分發,應允許企業在個案解釋中進行自我規制,避免國家過多的強制性監管。但對于具有公共性影響的算法以及對個體造成重大影響特別是實際傷害的算法決策,國家則應強制自動化決策者進行個案解釋,以保護公共利益與個人的核心權益。如,在醫療場景下利用機器人進行手術,此時應當充分保障患者對于算法的個案知情權,患者不僅有權知曉手術機器人算法決策的一般規則,而且應當有權了解該機器人對其個人進行手術的決策機制、過程與效果。又如,在涉及外賣騎手人身安全、卡車司機罰款或者自動駕駛汽車安全的算法決策中,個人應當有權在這些情形中提出算法解釋的請求。
       
        再次,就解釋時間要求而言,在告知環節可以要求或倡導企業在事前進行模糊性解釋。由于算法的自我演化與不確定性,算法向公眾的告知可以描述算法的整體運行,讓用戶或消費者感知算法的具體運行情況,幫助個體作出更佳決策,而非對算法的所有參數和所有細節進行描述。例如,網約車的算法可以向用戶告知,其算法是否會將性別、收入、年齡、高峰期的車輛運行等情況納入算法規則的解釋說明中,但沒有必要對某一個參數如何影響算法進行具體告知。此類描述不僅可以在一定程度上克服算法的不確定性問題,而且有利于克服系統性解釋的針對性不強、侵犯商業秘密、被人利用等難題。因為此類解釋可以在一定程度上消除用戶較為普遍的疑慮,同時,由于此類描述較為原則,此類解釋也不會對企業的商業秘密造成嚴重侵害,一些鉆空子的個人與企業也無法“算計”算法。
       
        最后,就解釋方式而言,自動化決策者可以根據自身能力、行業特征、用戶數量與算法影響程度而選擇人工解釋或機器解釋。在理念層面,人工解釋具有一定的優先性,專業高效的人工解釋更有利于信任的建立。同時,對于一些對個人或社會造成重大影響的算法,人工解釋應成為兜底性要求,以便消費者或監管機構對企業或算法運用的主體進行算法監督。但對于其他并未產生重大影響、用戶數量龐大的算法,要求企業或算法主體對所有個體都采取人工解釋,并不現實。如果強行施加此類要求,其結果可能反而是企業關閉所有的解釋與溝通渠道。因此,應當允許企業在一般情況下運用機器解釋或自動化客服。機器解釋如果運用得當,例如在事先充分設想場景,為用戶提供各類“反事實解釋”或針對性解釋,則機器解釋也能有效起到提供“有效性信息”、溝通解惑的功能。此外,還可以鼓勵企業或算法主體建立機器與人工的混合解釋機制。機器解釋與人工解釋的混合使用,將有助于減小自動化決策者的現實壓力,更有效推動算法解釋權的落地。
       
        六、結語
       
        算法解釋權是個人信息被保護權中的一種權利。對于是否應當將個人信息受保護權上升為法定權利,學界本身就已經產生很多爭論。支持者認為,以個人信息受保護權制約信息處理者,有利于維護公民權益。反對者則認為,對于個人與信息處理者之間的關系,更應以私法自治的框架加以調整,個人信息受保護權只是個人合同性權利或者消費者權利中的一種。隨著我國《個人信息保護法》的制定與生效,這一權利已經被我國實證法認可。但就法律解釋與學術研究而言,這一權利仍有待進一步討論。
       
        作為個人信息被保護權的一種,算法解釋權不僅具有個人信息保護中的一般爭議性問題,而且更具有特殊性。算法具有黑箱性、不確定性、復雜性,因此相比個人信息的訪問權、更正權、刪除權等傳統權利,算法解釋權更具有爭議。算法解釋權是否可以成為一種一般性權利,還是僅僅指拒絕算法決策的特定性權利?算法解釋權可以主張對算法進行系統解釋還是個案解釋,事前解釋還是事后解釋?機器解釋還是人工解釋?此類問題已經引起法律解釋爭議與法律適用困境。
       
        本文對算法解釋權進行原理反思,指出應當以信任關系重構算法解釋權的基本原理。算法解釋權的目的不是為了實現“沒有意義的透明”,或者建立個體對于算法的絕對性控制。相反,算法解釋權是為了在信息處理關系中搭建橋梁,在個人與自動化決策者之間構建信任、消除誤解、減少疑慮。從信任溝通原則出發,本文主張將算法解釋權視為一種程序性權利,而非實體性權利。在制度建構層面,應當根據算法自動化決策所位于的行業領域、市場化程度、個案影響、企業能力而對算法解釋權的內容、程度、時間和方式作不同要求。總之,算法解釋權應當成為個體與自動化決策者之間的信任溝通機制,促進“負責任算法”的實現。

      【作者簡介】
      丁曉東,中國人民大學法學院、未來法治研究院副教授,法學博士。

      本網站文章僅代表作者個人觀點,不代表本網站的觀點與看法。
      轉載請注明出自北大法律信息網
    0
    北大法律信息網
    www.chinalawinfo.com
    法律動態
    網站簡介
    合作意向
    網站地圖
    隱私政策
    版權聲明
    北大法寶
    www.pkulaw.cn
    法寶動態
    法寶優勢
    經典客戶
    免費試用
    產品服務
    專業定制
    購買指南
    郵件訂閱
    法律會刊
    北大英華
    www.pkulaw.com
    英華簡介
    主要業務
    產品列表
    英華網站
    聯系我們
    用戶反饋
    返回頂部
    二維碼
    不要添了,我高潮了视频