• <output id="qgjlo"><strong id="qgjlo"><xmp id="qgjlo"></xmp></strong></output>

      1. <p id="qgjlo"></p>

        <object id="qgjlo"></object>
        <table id="qgjlo"><strike id="qgjlo"><b id="qgjlo"></b></strike></table>
      2. 網絡平臺監管的算法問責制構建
        2021/7/23 8:45:05  點擊率[280]  評論[0]
        【法寶引證碼】
          【學科類別】科技法學
          【出處】《東方法學》2021年第3期
          【寫作時間】2021年
          【中文摘要】算法的廣泛應用使得平臺運行日益自動化,加劇了網絡平臺事前的主觀過錯認定機制困境,導致現有平臺監管追責機理模糊化、治理節點滯后、責任設置不符合比例原則。人工智能時代的平臺監管,既應符合平臺底層的技術邏輯,也應符合主客觀相一致、責罰相適應的法律原則。因此,應穿透網絡平臺運行的技術面紗,將平臺監管的觸角和追責視角直接指向背后的算法責任。技術原理是中立的,但是技術的應用是包含主觀意圖的,應將平臺算法設計部署的主觀過錯作為問責依據。平臺的主觀過錯認定需明晰可回溯的問責點,可通過算法評估制度設置,并以算法備案制度事前固定問責點。事后可要求平臺根據備案內容作出算法解釋,說明設計的目的和預期后果,結合客觀損害結果予以歸責。平臺算法法律責任的設置上,對于本身的設計過錯作為實質責任予以歸責,如果平臺提供虛假備案與解釋則承擔不真實解釋責任。
          【中文關鍵字】算法;平臺監管;主觀過錯;算法備案;算法解釋;算法問責
          【全文】

            一、問題的提出:平臺算法自動化加劇的歸責難題
           
            長期以來,網絡平臺責任的視野一直被動地停留在事后的嚴格責任或者間接責任式的歸責模式,平臺責任追究的社會效果與法律效果均不盡如人意。網絡平臺時常自辯自己處于技術中立的地位,無法承受“海量數據處理”之重。公眾雖然是受保護方,但也時常認為平臺可能在作為“責任兜底之筐”而承擔過重的責任。更重要的是,網絡平臺監管部門的法律責任設置和事后歸責機理模糊化,調整對象不明確,責任設置似乎也不符合比例原則,因此常被詬病是“事故型問責”或“按需求監管”[1]。原因在于,針對平臺的監管和法律責任設置,更多在事后根據危害結果要求平臺承擔責任,事前主觀過錯認定機制模糊不清,導致必要性、合理性存疑,難免產生平臺委屈、公眾同情、監管部門底氣不足的情況。[2]
           
            然而,平臺主觀過錯認定機制的模糊不清的問題在人工智能時代進一步加劇。 ABC技術(即算法Algorithm、大數據Big Data、云存儲Cloud)[3]進一步削弱了認定主觀過錯的基礎:第一,平臺對生產資源、用戶的控制只提供“輕鏈接”,地位似乎更加中立。例如,網約車平臺、外賣平臺只是提供了供需雙方的匹配服務,與生產資料并沒有太強的黏性。第二,算法使得平臺運行更加自動化,人為干預日益減少。例如內容平臺傳統的“通知-刪除”機制、電商平臺的定價依賴算法,[4]算法出現的錯誤常被平臺解釋為“技術事故”[5]。按照傳統平臺責任理論,基于“平臺是技術中立的介質屬性”[6],平臺責任的“行為人與責任人相分離”[7],平臺的自動化似乎必然導向更輕的平臺主觀過錯,進而導向更輕的平臺責任。
           
            與此種推論相悖,各國近年來卻不約而同地加強了平臺責任,平臺責任嚴格化似乎有愈演愈烈的趨勢。我國不僅不斷加強平臺信息管理的主體責任,[8]也加強了平臺壟斷、不正當競爭行為的法律規制。[9]2019年歐盟通過《歐盟版權指令》,其中第13條要求臉書、YouTube等平臺積極監測其用戶的內容,加強版權審核。[10]就連一向主張寬松產業政策的美國,也出現了革新平臺中立地位、加強平臺責任的趨勢。2019年美國參議院的《停止支持互聯網審查法案》主張取消大型科技公司在《通信內容端正法》第230條之下所自動享有的責任豁免。[11]與此同時,科技企業也按照政策導向展開自我規制,如“劍橋丑聞”后臉書放棄了自稱“內容中立平臺”的立場開始人工審核內容。[12]
           
            理論與現象的撕裂引發思考。顯然,傳統的平臺追責思路無法應對技術與社會的發展。只要監管指向平臺的行為,面臨的都是自動化的“技術面紗”。如何形成符合主客觀相一致的法理和平臺技術邏輯的問責思路,尤其是明確平臺在主觀過錯方面的認定機制與以此為基礎的歸責機制、責任體系,是人工智能時代平臺責任基礎理論面臨的重大議題。
           
            二、主觀過錯認定機制缺失下的平臺監管困境
           
            由于平臺主觀過錯認定機制的缺失和模糊,現有的平臺監管存在兩大缺憾:其一,現有平臺追責思路不符合技術邏輯,仍遵循“主體—行為—責任”的傳統思路,但平臺運行自動化的技術邏輯使其缺乏事前過錯的認定機制,導致只能依據事后結果被動追責,治理節點滯后。其二,現有平臺責任的設置缺乏對不同層次主觀過錯的考量,不符合主客觀相一致、責罰相當的法理,使得平臺責任設置缺乏體系性、合理性。不符合比例原則,既損害法律的權威性,也使得法律法規受到基于功能主義設置、缺乏規范和理論基礎的質疑。
           
            (一)平臺主觀過錯認定缺失下的事后被動監管
           
            由于平臺主觀過錯的認定機制面臨著“技術中立面紗”與“行為人與責任人相分離”的困境,監管部門只能在危害結果發生后啟動監管和追責,具體追責時卻往往找不到、理不清追責的基礎和理由,陷于實際上的嚴格責任或者無過錯責任。
           
            從規范論的角度看,主觀過錯是平臺承擔民事責任或行政處罰的要件。早在2000年的《互聯網信息服務管理辦法》就強調平臺在“發現”的前提下,對用戶發布的不法內容有避免傳播的義務。[13]我國原侵權責任法第36條規定,在平臺“知道”或者“應當知道”發生侵權行為時,對損害結果承擔直接或連帶侵權責任。[14]我國網絡安全法為平臺設定的“網絡安全保護義務”,也要求平臺對違法信息的處置以“發現違法信息”為前提,對于“未被發現”或“未能被發現”的違法信息不承擔法律責任。[15]換句話說,平臺的法律責任是一種過錯責任,過錯形態包括注意與過失。2020年我國修訂的行政處罰法也體現了考量行政相對人主觀過錯、追求公平正義的精神。[16]
           
            損害結果發生之后,法律責任的追究必然要回溯平臺的主觀過錯,過錯的認定卻遭遇兩重障礙。其一,過錯認定面臨“技術中立”的抗辯。例如快播案中,其創始人王欣在法庭的抗辯理由即為“技術是中立的”[17]。今日頭條創始人張一鳴在多個場合提到“算法是沒有價值觀的”[18]。其二,面臨著“行為人與責任人相分離”的難題。用戶違法后平臺是否要承擔法律責任?平臺方一貫主張自己是嚴格的“傳輸介質屬性”,要區分內容服務提供者和網絡服務提供者。[19]由此可見,由于“技術中立面紗”與“行為人與責任人分離”兩個障礙,對平臺追責的基礎和理由并不明晰。
           
            這兩種過錯的認定障礙造成監管部門只能根據危害結果對平臺的主觀過錯作出倒推,導致實踐層面和規范層面的嚴重后果。從實踐層面來看,監管部門只能根據違法結果倒推主觀過錯。例如,2015年國家工商總局發布阿里巴巴“涉嫌在明知、應知、故意或過失等情況下為無照經營、商標侵權、虛假宣傳、傳銷、消費侵權等行為提供便利、實施條件”[20]。根據結果倒推主觀過錯,陷入了實質上的“嚴格責任”或“無過錯責任”式的追責模式。
           
            從規范層面來看,倒推導致法律只能不斷擴大平臺的事前注意義務范圍。二十年來,網絡平臺的注意義務范圍不斷擴張。我國不斷強化網絡平臺的主體責任與社會責任,將對信息的主動監控義務加諸網絡平臺,客觀上無限擴張了“過失”的注意義務范圍。[21]此舉使平臺追責的主觀過錯得以合理化,但也必然導致了平臺責任的構成要件與法律后果的不明。與其說主體責任適用于平臺監管是一種理論革新,不如說是為了使平臺承擔責任達到主客觀相一致作出的理論妥協。
           
            由于主觀過錯認定機制的缺失,導致平臺責任的追究缺乏正當性,形成了客觀上“出事找平臺”的事后監管被動局面。監管部門被批評隱藏于平臺的幕后,避免自身直接面對網絡海量信息監管可能帶來的行政復議與行政訴訟;平臺責任的設置則被批評呈現“管道化”趨勢[22],承擔了過于沉重的私人審查義務。[23]
           
            (二)平臺過錯層次不明下的責任體系混亂
           
            平臺責任缺乏明晰的主觀過錯認定機制,導致實踐中對平臺的追責具有隨意性,平臺責任難以符合主客觀相一致的基本原則,缺乏可預見性。因此,現實的平臺執法往往被詬病為“按需求處罰”或“運動式執法”,也導致了平臺監管容易走向過度預防而脫離法治框架。
           
            缺乏清晰的主觀過錯認定機制,導致實踐中平臺法律責任體系的混亂和隨意。第一,實踐中的平臺責任嚴重缺乏層次性。網絡安全法及其相關法規中平臺責任形式包括責令整改、警告、罰款等。[24]在網絡平臺的監管實踐中,責令整改已經成為最主要的行政措施。2020年江蘇省網安部門依據網絡安全法辦理的580起行政案件中,責令限期整改430家次,占執法總量的74%。[25]第二,實踐中的平臺監管存在嚴重的隨意性。以網絡安全法第47條平臺未盡到“網絡信息管理義務”為例,存在個案罰與不罰、責任程度不一的情況。有的平臺被頂格罰款從重處罰,有的則不予處罰僅予責令整改。[26]平臺監管中缺乏對平臺是否盡到注意義務的主觀過錯的論證和考量,導致了從重處罰與免于處罰缺少有力的說理論證,平臺責任呈現邏輯的混亂與監管的隨意。平臺責任呈現實質上的“客觀歸責”,即僅以結果作為追究責任的原因,難免被詬病“按需求處罰”[27]。
           
            這種責任體系的混亂造成了平臺與監管部門雙輸的局面。從平臺的角度看,是否承擔法律責任并不取決于是否履行了注意義務,而取決于監管部門是否開展了相關的專項治理及其治理力度。互聯網行業常常擔憂不可預測的運動式執法帶來的行業寒冬,長此以往極易因恐懼處罰而失去創新動力。從監管部門的角度看,主觀過錯層次考量的缺失使平臺責任陷入扁平化、缺乏體系性的特點,客觀上呈現“要么約談,要么關停”的兩極化趨勢。這使得法律責任的設置和監管執法行動并不符合比例原則,具有“事故型問責”特征而喪失執法的權威性。更嚴重的后果是監管部門缺乏體系性和層次性的治理策略,而又有避免風險的強烈動機,因此只能不斷加強對平臺的行為控制。這種預防型的行為管制具有與生俱來的“越嚴越好”和“越早越好”的內在擴張邏輯,極易脫離法治的框架走向過度預防。
           
            由此可見,平臺監管和追責中缺乏對主觀過錯層次的考量,使得平臺法律責任的設置不符合權責一致、責罰相當的法律原則,具有了不確定和難以捉摸的特性。這既損害了監管部門的權威性,又使得平臺法律責任的設置缺乏合比例性和體系性,平臺監管日趨走向嚴格監管。
           
            三、平臺問責原理:主客觀相一致的算法責任
           
            平臺算法自動化運行造成了“主體—行為—責任”傳統理論下的“責任鴻溝”,其實質是以缺失控制權作為理由主張“無過錯則無責任”。為此,人工智能時代的平臺責任設置必須既符合平臺的技術邏輯,也符合法律責任主客觀相一致的法律原理。技術原理是中立的、沒有主觀過錯的,但技術的應用如算法的設計與部署是包含價值觀和主觀意圖的,這是法律追責之根本指向,也是平臺承擔法律責任的根本依據。平臺監管的需求不是嚴格監管而是精準監管,在平臺責任的設置中加入主觀過錯的考量,可以使平臺責任設置具有體系性與合比例性。
           
            (一)平臺算法問責的適用場景:彌合“責任鴻溝”
           
            平臺算法問責主要適用于如下場景:當損害(危害)是由算法造成時,平臺主張算法自動運行“技術中立”而不應承擔法律責任時,應對平臺算法問責并考察平臺在算法設計或運行方面的主觀過錯,用以彌合平臺算法自動化運行造成的“責任鴻溝”。
           
            “責任鴻溝”是2004年由安德利亞斯·馬提亞提出的概念,所指的是算法自主學習使得算法的設計者和運營者未能預測未來及其運行產生的后果,人對機器的行動并沒有足夠的控制權,因此無法要求其承擔傳統的機器制造者和操作者的過錯責任。[28]依照傳統的歸責原則,一個法律主體只有在其知曉自己的行為及其后果,并且可以自由選擇是否作為的時候,才應該承擔法律責任。[29]因此,對于機器運行造成的損害結果,傳統責任理論一般追究制造者的責任,如果操作者按照制造者設計的具體意圖操作,就意味著其對責任的繼承和接受。“責任鴻溝”的本質是算法的設計部署者主張因對算法運行缺乏控制力,因此無主觀過錯則無責任。在平臺算法自動運行造成損害結果時,判定應啟動算法問責制一般應符合如下場景:
           
            第一,算法運行而非人的行為造成了損害結果。這是因為,如果人的行為在損害結果的產生中占據了主要地位,則一般會落入“主體—行為—責任”的法律責任框架。而一旦算法的自動化決策對結果呈現占據主導地位,則會產生“責任鴻溝”。舉例而言,大眾耳熟能詳的“大數據殺熟”背后是算法的差異化定價,因此會產生是否合法的討論。而如果由人來進行“消費越多,價格越高”的價格歧視行為則顯然是不合理的。
           
            第二,算法的形式多為平臺的“基礎服務”或“一般規則”。“基礎服務”是指平臺算法搭建的平臺交易架構與流程,包括但不限于數據收集、存儲,認證與信息安全,糾紛解決機制[30],行為控制激勵機制[31]等。從表面上看算法是全自動的決策,實際上算法根據預先設定的輸入會自動觸發后果。算法也經常以平臺運行“一般規則”的形式出現,包括但不限于算法的分配、派單、排序、推薦等功能。在平臺設定的目標內,算法的規則對平臺內的個體普遍適用,自動生成結果。如電子商務中的全自動定價、叫車平臺上的司機與乘客匹配、外賣平臺上的用戶信用評價、短視頻平臺上的內容推薦等。
           
            第三,損害常表現為由多方因素造成而難以確定責任來源。有時數據的來源和數據質量都可能造成算法運行的損害結果。例如,在德國前第一夫人貝蒂娜·武爾夫起訴谷歌誹謗責任一案中,谷歌提出的抗辯理由就是“搜索聯想詞由算法根據實時數據等自動生成,客觀無法控制”。[32]算法運行的不利后果并非孤立、靜態、割裂的,而可能是數據、算法和平臺相互聯結聚合而成的結果。
           
            以上三種情形,都可被平臺用來抗辯并未存在主觀過錯,因而無須承擔法律責任。面對算法帶來的平臺“責任鴻溝”,平臺責任理論以擴張平臺安全保障義務來應對,這導致平臺被不恰當地類比為提供經營場所的商家,面臨著平臺責任被無限擴大化的風險。從平臺和消費者的角度來看,這些平臺責任分配上的不確定性都是創新和產業發展的障礙。明確平臺法律責任追究的理論基礎與依據,是保障平臺發展與消費者權利的共同需求。
           
            (二)平臺為算法承擔過錯責任的理據
           
            算法平臺即利用算法構建商業模式、爭奪用戶流量,又利用算法的自動性試圖減輕甚至避免監管與責任。技術原理雖然是中立的,但是平臺對算法的設計和部署是包含價值觀和主觀意圖的,對算法運行的結果是有基本預見的。這是法律追責的根本指向,也是對平臺算法問責的根本依據。將算法設計部署的主觀過錯作為平臺追責的根本依據有三項理據:
           
            1.平臺作為算法設計者嵌入了主觀意圖
           
            首先,算法隱含了平臺的價值觀和主觀意圖。例如,十年前有學者即提出“設計隱私”理念,主張平臺在算法設計時就應將保護用戶隱私的價值嵌入平臺架構。我國在2019年開展的App治理專項行動中,也將“嵌入代碼、插件”和“提供注銷功能”等設計層面的算法作為治理對象,違反者則認定為具有不當收集個人信息的故意。[33]由此可見,平臺算法對基本交易規則和基礎服務的默認設置并不能抹殺其嵌入了設計者主觀意圖的實質。
           
            事實上,平臺很多時候也承認對算法設計和部署的主觀意圖。在搜索王與谷歌的案件中,搜索王公司聲稱谷歌的惡意篡改網頁排名算法導致其訪問量急劇下降。[34]谷歌工程師直言這是谷歌故意編輯的結果,因其享有“作為言論者的權利”[35]。滴滴出行科技有限公司某高管也曾定義涉及強奸殺人惡性案件的“順風車”服務是“性感的社交場景”。[36]可見,平臺算法的設計部署即蘊含著平臺的主觀意圖和價值判斷。
           
            其次,算法深度學習的“技術黑箱”也無法抹殺平臺設計算法的主觀意圖。深度學習使得算法輸入可以為提取得到的多種特征,輸出可以為目標任務的標簽或者數值,本質上構建了一種復雜的非線性變換。算法的輸出目標一旦被設立,就會自動通過深度學習接近這一目標。[37]換句話說,算法自動學習向深層架構發展,它的規則和運作方式很可能讓開發者都無法理解。
           
            最后,實質上,深度學習的平臺算法同樣適用算法問責制,因為算法只是借由深度學習獲得了“異質自治權”。歸根結底,算法只是在人類設定的目標范圍內,起到了替代人類的作用。從哲學的角度來看,責任只能歸因于具有自主行動能力的道德主體(人)。現階段的弱人工智能算法可以被理解為在復雜的環境中無需人工監督,具有自動收集、處理和輸出數據的能力。[38]這種自動化的能力確切地說應被稱為“異質自治權”,也就是在目標范圍內為算法提供的最高程度的自治權,而非無限的自治權。[39]換句話說,平臺系統中,自動運行的算法被人類賦予要完成的任務,由算法自行決定完成這些任務的方式。深度學習造成的算法黑箱內的技術細節,并無法掩蓋設計開發算法的主觀意圖。以“劍橋丑聞”為例,監管部門即使不知曉“劍橋分析”的算法源代碼,也不妨礙其了解算法運行目的在于定向投放政治廣告操縱選舉。[40]
           
            2.平臺作為算法使用者具備運行控制力與合規義務
           
            當平臺不是算法的設計者,而僅為算法的使用者時,平臺也需因其具備對算法運行的控制力而承擔算法問責的后果。平臺屢屢將算法運行中“控制力缺失”作為抗辯法律責任的理由,最為常見的是平臺以“行為人與責任人相分離”[41]作為抗辯理由。
           
            “行為人與責任人分離”是指對平臺法律追責的原因,往往是由用戶或者第三方行為引發的,平臺并不“生產”違法內容,因此不應為此承擔法律責任。例如,微博上的用戶發布侵犯他人名譽權的內容,行為人是提供“內容信息提供”的用戶而非平臺。這一觀點源自1996年美國《通信內容端正法案》第230條交互式計算機服務者不被視作提供內容信息的出版商,因此為網站和互聯網服務提供商提供了強大的豁免權。[42]之后,2000年的美國數字千禧版權法案(CDMA)沿襲了這一對互聯網產業寬松包容的政策,確立“通知—刪除”規則,允許網絡平臺被動中立無需主動發現和介入違法事實。在我國平臺民事責任的認定中,也經常將平臺認定為“幫助侵權”行為,而主張平臺承擔較輕的法律責任。
           
            實際上,算法賦予網絡平臺對信息流的自動處理能力,使得平臺的法律責任早已超越了“網絡服務提供者”而獨立化。平臺貌似并不生產具體內容,只是通過算法對具體網頁(商戶、內容)進行排序與呈現。然而,比起內容生產者,平臺算法所起到的屏蔽、推送、排序對用戶接收的信息具有更強大的干預作用。從信息論的角度來說,平臺算法顯著降低了海量網絡信息的混亂程度,將用戶需要的信息以“關鍵詞——店鋪排名”或者“關鍵詞——搜索建議”的形式提供給用戶,這本身就是信息,平臺也是此種意義上的“信息生產者”。無論是搜索引擎、新聞網站,還是電閃管平臺,都扮演著這種信息生產者的角色。例如,淘寶網站雖然不直接出售商品,但其算法決定了商家是否能呈現于消費者的頁面中。淘寶搜索規則在2010年7月8日的調整將小商家排序靠后導致流量急劇下降,導致淘寶網眾多商家的聚眾抗議事件。[43]
           
            因此,即使平臺僅為算法的使用者,也需要為算法運行承擔責任。以谷歌為例,2016年谷歌發現“希特勒”的自動補足是“希特勒是英雄”,以及“猶太人”自動補足為“猶太人是邪惡的”之后,出手對搜索的自動聯想結果進行了修改限制。[44]早在2009年,我國監管部門因谷歌算法的自動聯想功能涉嫌傳播淫穢色情內容要求其整改,谷歌隨即表示“將徹查所有的服務,并采取一切必要措施來解決搜索結果中存在的問題”,此舉與被認為谷歌完全有能力控制搜索算法的結果,而并非其一貫宣稱的由算法自動生成。[45]“責任鴻溝”只是平臺規避法律責任的工具,隨時可以根據需要拿出或者收起。
           
            退一步說,即使不從平臺對算法控制力的角度論證,世界各國的實踐也要求平臺承擔算法運行(數據處理活動)的合規義務。無論是歐盟一般數據保護條例(GDPR)第35條,還是我國個人信息保護法(草案)第54條,均要求平臺對算法運行對“個人的影響及風險程度”,以及“所采取的安全保護措施是否合法、有效并與風險程度相適應”承擔合規義務。這就要求平臺在對涉及個人數據處理的重要問題上先進行自我評估,將有可能侵犯用戶數據的行為作出相應的決策以及應對數據侵犯的措施,進而將數據處理影響評估內容報告給相關機構。因此,即使平臺不是算法的設計者而僅為部署和運行者,也需承擔相應的注意義務與合規義務。
           
            3.平臺對算法結果輸出負有注意義務
           
            實時數據成為算法輸出結果的重要因素。即使平臺在算法設計、運行上均無過錯,也需要為因數據問題造成的算法損害結果承擔責任,理由如下:
           
            第一,平臺作為算法設計者時,具有自主性的算法對外部實時網絡環境作出的反應方式并非完全不可預測,其對不良數據的反應能力仍在算法設計范圍內。假定算法在上線后就有了修改自身的能力,這種能力并非從天而降,仍是算法設計者為其產品提供的能力。并且,這種對實時數據的反應能力并非沒有限度,而是在事先劃定的范圍之內進行的。很顯然,平臺如果作為算法設計者,應將算法對實時數據的反應輸出能力設定在安全范圍內,以免發生不良后果。
           
            第二,平臺作為算法使用者時,應設計算法的干預和嵌入安全機制。對于更復雜的算法,可能需要遠程監控,以便在人們認為即使有潛在危險時(即使在遠程)加強安全措施。以2020年4月判決的“螞蟻金服訴企查查案”為例,企查查推送的涉及螞蟻微貸的清算信息,因算法運行推送方式的設置問題,引發公眾將歷史清算信息誤認為即時信息,發布了“螞蟻金服破產清算”的算法錯誤結果。這一案例顯示,即使算法自動抓取數據得出結果,平臺仍應負有審查算法結果的注意義務。正如判決書所言:“大數據企業對于收集、發布的數據信息仍具有基本的注意義務,對于發布的重大負面敏感信息,應當通過數據過濾、交叉檢驗等數據處理,確保數據質量。”
           
            第三,平臺算法投放前要充分進行線上環境的安全測試。算法應經過數據的“訓練”,確保它能夠應對現實生活中的數據風險,否則不應將其投放市場。例如,微軟的AI聊天算法Tay在推特上運行了幾個小時后,就發表了同情納粹的言論。[46]微軟顯然并沒有設計這一結果出現,但是其作為設計部署者應該能夠預見到將一個機器人暴露在推特這個不乏騷擾和仇恨言論平臺上的危險,也應設計程序記錄這些惡意的影響來源于哪里。算法從環境中習得適應性行為,因此平臺保證算法在設計、部署階段進行足夠的訓練,在訓練中需模擬實時環境,給算法足夠的犯錯機會,這是系統運行和改善性能的可行路徑。
           
            平臺的算法運行造成的危害后果可能是多方作用的結果,但這并不足以使平臺逃避其算法責任。在這種情況下,對于任何算法的最終運行結果,可能有多個潛在的責任方。[47]但不論算法通過深度學習如何演變,平臺作為設計者和部署者都對算法演變有一定的義務,包括監督記錄其運行和防止危害結果出現。[48]這也是巴爾金所提出的“制造者義務體系”,涉及封閉式和開放式的算法中要求嵌入審計日志,或提前考慮到開放式算法的權限控制。[49]
           
            在法律應以平臺設計部署算法的主觀意圖為追責之指向的前提下,需要澄清的是平臺算法責任是一種過錯責任,但并不意味著過錯責任是算法責任的唯一歸責原則。如同在侵權責任領域,過錯責任是默認的責任形態,但也同時存在著特殊侵權形態的無過錯責任或公平責任形態。算法的應用形態并不局限于商業平臺,已經被廣泛應用于信用評分、政府管理甚至是司法審判中,不同場景下的算法責任不可能適用同樣的歸責原則,必然會隨著算法所處理的數據所涉利益的性質發展出不同樣態的歸責原則。某些應用于公民自由、重要權利等特定部門的算法,就應如同巴爾金指出的那樣,承擔公共責任,以類似環境侵權的嚴格責任要求算法避免對社會公平的污染效應。[50]即使在筆者所限定的平臺算法論域,算法可能用來導航、新聞推薦、投放競選廣告和動態定價,除基本的過錯責任原則外,不應否認其他歸責原則適用的可能性。有學者提出,平臺某些領域的運行應嵌入公共義務,承擔一定的公共責任,這既可能通過擴大平臺注意義務的形式實現,也可能以改變歸責原則的方式落地。[51]
           
            (三)平臺算法問責的合理性與可行性
           
            平臺算法問責,從客觀方面符合平臺底層的技術邏輯,使平臺監管的觸角穿透平臺的技術面紗而直觸其底層技術——算法。平臺算法問責符合主客觀相一致的法理,可使平臺責任合理化、精細化、體系化。
           
            1.平臺算法問責符合平臺技術邏輯
           
            從底層技術邏輯的角度來看,算法在網絡平臺的硬件基礎設施(架構)、應用程序均扮演著核心角色,決定了平臺的運行模式,塑造了用戶的習慣與價值觀。將算法直接作為平臺監管的對象,可以改變現有監管層次過淺的現狀,升級傳統的“主體—行為—責任”的監管路徑。算法應用給平臺力量帶來了根本性變革,從“生產關系適應生產力”的角度看,原有的平臺監管對象應相應革新,以適應算法技術帶來的平臺角色和地位的演變。
           
            黨的十九屆四中全會提出“數據作為生產要素參與分配”[52],算法就是收集處理數據,挖掘數據價值的生產工具。平臺類型的演進實質是算法技術的演進。無論何種類型的平臺,掌握的算法越先進,就越能在數字經濟的時代取得和鞏固競爭優勢。例如,2006年美國視頻平臺奈飛推出了百萬美元大獎,獎勵打敗原有個性化推薦算法的隊伍,后因此取得長足發展,算法是平臺“競爭必備工具”的理念深入人心。[53]同時,算法也可維護平臺巨頭企業的商業優勢,例如谷歌新聞以算法自動化推薦代替人工編輯,由于新聞領域輿情更新頻率極高,要求算法不斷累計數據重建架構,谷歌為此投入了大量基礎設施,價值高達數十億美元,使得其他平臺企業無力與之抗爭。[54]
           
            平臺運行的技術邏輯是算法,平臺商業價值和競爭優勢的基礎是算法,但是,損害國家利益、社會公共利益和公民個人權益的原因也是算法。尤其需要注意的是,平臺通過算法以“作為”的形式作出了某些不當行為。今日頭條旗下“內涵段子”被關停是因其推薦算法“只要價值不要價值觀”。[55]近年來飽受詬病的“大數據殺熟”事件本質是算法的差異化定價策略。哈佛大學教授朱波夫的《監控資本主義》揭示了算法是平臺商業邏輯之根本,它不僅引導用戶行為、侵害消費者隱私,更影響市場秩序與社會公平。[56]這與“主體—行為—責任”邏輯下平臺未盡到注意義務,以“不作為”的方式實施違法行為的認識迥然不同。算法應當成為監管問責的核心對象。
           
            “主體—行為—責任”思路下,法院疲于將層出不窮的平臺算法與傳統服務類型比對,以確定網絡服務提供者的類型。這種思路忽視了平臺算法對不同數據的實質控制力,可能造成平臺不當逃避責任。以“微信小程序案”為例,杭州互聯網法院認為微信小程序類似于《信息網絡傳播權條例》(以下簡稱《條例》)中規定的“接入服務提供者”,僅提供單純的互聯網接入服務。而實際上,《條例》對平臺功能區分為存儲服務和接入服務,是基于臺式機時代網頁HTTP協議跳轉的鏈接行為,在移動互聯網App時代早已發生改變。[57]用戶可以基于微信與小程序直接鏈接的算法和內置于微信內的搜索引擎、排序算法進入微信小程序。因此,平臺通過算法對侵權的微信小程序具有控制力。法院甚至在傳統平臺主體類型外被迫創新平臺服務主體類型,也使得平臺責任的設置具有了不可預見性。例如,在2017年的“阿里云案”二審中,北京知識產權法院認為,阿里云公司提供的云技術服務既不是自動接入、傳輸服務提供者,也不是儲存、緩存服務,或是連接搜索鏈接服務提供者,而屬于侵權責任法第36條的其他網絡服務提供者。[58]由此可見,法院知曉云服務與傳統存儲、接入平臺主體類型的本質區別,但又苦于現行法律中沒有對應的主體類型,只能通過解釋的方法將其歸類為“其他網絡服務提供者”。傳統的“主體—行為—責任”路徑必然造成司法實踐中越來越多類似的困境。
           
            近兩年來,世界各國逐漸重視算法在平臺監管的核心地位,將算法作為監管對象的立法動作頻出。2019年美國國會議員提出《算法問責法案》,擬對用戶在100萬人以上的平臺公司進行算法審查。[59]2019年澳大利亞競爭與消費者委員會宣布計劃設立專門分支機構“主動監視”平臺算法運行,賦予其要求披露算法詳細信息的權限。[60]我國網絡監管部門也意識到平臺言論呈現的意識形態,其很大程度是算法對網絡信息內容排序、推送、屏蔽的結果,2019年的立法中要求平臺“優化個性化算法推薦技術”[61]。可以預見的是,將算法作為平臺監管的直接對象是人工智能時代的大勢所趨。
           
            2.考察主觀過錯可使平臺責任精細化
           
            主觀過錯既是我國行政監管考量的基本要素,也是我國平臺責任立法的已有實踐,只有對算法設計部署中存在的主觀過錯進行網絡平臺監管,方可實現法律預防違法行為、促進網絡產業積極發展的意義。要求平臺因不同程度的主觀過錯而承擔不同程度的法律責任,符合法律責任主客觀相一致的基本原則。
           
            第一,從現有規范角度來說,無論是侵權責任的過錯責任原則,還是刑法的罪責刑相適應原則,主觀過錯均對法律責任的存在與輕重具有決定性作用。以我國原侵權責任法第36條為例,平臺在接到通知后主觀狀態轉為“故意”,相應的法律責任也升格為了“連帶責任”。在行政監管中,主觀過錯亦是責任要件,行為人若其決定從事違反行政法上義務之行為,即得對其非難而要求其承擔責任。[62]主觀過錯的不同程度決定了法律責任的輕重不同。根據行政處罰法第25、26條的規定,在決定是否對違法行為人從輕處罰、減輕處罰甚至是不予處罰時,相對人違法時的主觀狀態是重要的考量要素之一。在我國行政法體系中對風險防控要求最高的藥品監管管理法中,對藥品生產者、藥品銷售者的責任原則也是過錯責任原則。[63]
           
            具體到網絡監管領域,網絡安全法的立法目的之一在于“促進經濟社會信息化健康發展”。因此,將主觀過錯程度納入法律責任追究的考量中,既可以避免客觀歸責的嚴厲制裁帶來的打擊平臺守法積極性的后果,又可以為平臺提供接受法律追責的心理基礎,提升平臺對處罰的可接受程度。將主觀過錯作為平臺責任考量要素也符合我國一貫的立法實踐。最高人民法院的司法解釋曾就平臺主觀過錯如何認定給出過詳細指引,對網絡服務提供者是否“知道”設置了一系列考量因素。[64]
           
            第二,從價值考量角度來說,主觀過錯作為平臺追責要素方可體現公平正義的基本理念。行為人的主觀過錯、危害性與責罰相當,方才具有法律責任的正當性。依據懲罰程度的不同實現對惡性違法行為的預防功能,從而盡可能地增強行政處罰預防功能的有效性。從我國網絡安全法第二章可以看到,其立法目的之一在于“促進經濟社會信息化健康發展”。將主觀過錯納入平臺責任的考量,使平臺監管從嚴格監管走向精準監管,可以促進網絡產業積極發展。
           
            從反面論證,如果平臺反對法律考察算法設計部署的主觀過錯,可能導致嚴格責任的適用,使得平臺面對更為嚴厲的監管來分散平臺運行的風險。與嚴格責任(適用于某些產品責任案件)相比,更寬松的合理性標準可能會鼓勵使用機器,從而促進創新和提高安全性。[65]同樣,考察主觀過錯使得責任可以在設計者、使用者和其他主體之間合理分配。當算法過程導致有害的結果時,主觀過錯具有可追溯性,可促使監管部門發現故障的根源,為其分配責任并懲罰或至少教育責任者成為可能。[66]
           
            將算法作為平臺底層技術邏輯作為監管對象,并在監管中將平臺主觀過錯作為考量,不是為了平臺嚴格監管而是為了精準監管。這不僅符合主客觀相一致、責罰相當的法理,也符合我國法律的一貫精神,更加符合奉法強國、良法善治的理念和精神。那么下一個需要回答的問題是,如何在算法的自動化運行中判定和度量主觀過錯呢?
           
            四、平臺算法問責路徑:平臺的主觀過錯認定機制
           
            平臺算法問責的制度構建目的在于促進理想或有益的結果、防止不良或有害結果的產生,并確保適用于人類決策的法律可以有效應用于算法決策。[67]清晰的主觀過錯認定機制對于平臺的算法問責至關重要,這意味著平臺設計、部署和應用算法的主觀過錯有著具體界定和表述,應該是在生產和生活實踐中可觀測、可區分的,在技術上可度量、可標定的。[68]平臺算法的主觀過錯應包含哪些內容?平臺自動化運行的主觀過錯如何固定?
           
            (一)過錯的事前固定:算法備案制度
           
            平臺因算法被問責的原因是其未履行法律和道德的義務,并無法向利益相關方解釋和證明其無主觀過錯。合理的平臺算法問責有賴于清晰的主觀過錯認定,需通過算法評估、備案與審計對平臺事前和運行中的問責點進行固定,以有效評估平臺是否可以評估、控制、糾正算法帶來的危害。
           
            1.平臺算法備案的內容:算法評估與審計
           
            第一,平臺算法備案的目的在于設置問責點,相關具體制度包括算法評估、算法運行監管以及算法審計。這樣既能避免事后平臺隱瞞與錯誤披露的可能,也可預防風險,避免錯誤的計算反復被適用于海量主體而使損害彌散化。以風險預防為目的的事前監管已經成為立法實踐的選擇。例如,歐盟一般數據保護條例的數據處理評估制度(DPIA)即是針對高風險數據處理活動對數據控制者設置的預警自查義務。[69]在事前問責點的設置中,算法審計也發揮著重要作用,往往與評估制度被同時使用。例如我國個人信息保護法(草案)第53條規定,個人信息處理者應定期對個人信息處理活動、采取的保護措施等是否符合法律、行政法規的規定進行審計;第54條明確提出利用個人信息進行自動化決策應進行事前的風險評估。紐約大學的AI Now研究院也提出了類似的算法影響評估(AIA)制度,要求在重要的公共部門使用算法前,應采取的關鍵步驟來確定何時以及如何產生潛在危害,包括增加其專業知識和能力以有效實施和評估算法系統,并允許第三方審計公共部門的算法。[70]
           
            第二,需要進行評估與審計的算法范圍。應以算法處理的數據所涉及的利益、對用戶行為的干預程度、社會動員程度為標準,確立不同的算法風險等級并設定不同的監管標準。國家應圍繞高敏感、高風險算法建設“關鍵算法系統監督網絡”,而對于相對低風險算法降低監管強度。例如,歐盟一般數據保護條例的數據處理評估制度,要求受到評估的算法系統從事“高風險數據處理活動”;又或德國數據倫理委員會提出的算法風險評估方案,主張對數字服務企業使用的算法進行五級風險評級的制度,對不同級別的算法采取不同強度的監管。[71]我國立法將某些算法應用定義為“具有輿論屬性或社會動員能力的互聯網信息服務”,并要求其進行自行安全評估。
           
            第三,算法問責點考量與記錄的內容。日后的算法問責需要清晰的問責點,因此相關制度應著重平臺設計部署算法的目的、風險與過程控制能力。
           
            其一,為考察算法設計部署目的設置的問責點,應包括對算法設計的目的、與算法設計與應用必要性相稱的評估。當一個算法系統有多個價值目標時,則必須將目標之間的優先級透明化。例如,自動駕駛汽車可能旨在減少交通事故死亡人數,降低其對環境的影響,減少嚴重傷害,縮短運輸時間,避免財產損失并提供舒適的乘車體驗。當這些目標沖突時哪個優先?在2018年優步公司的自動駕駛汽車事故中,優步公司則被指責過于追求運輸速度,因其系統一直判斷行人為“不明障礙物”而不減速,最后一秒識別出行人后則為時已晚。[72]人與算法系統之間的主要區別之一是:人能夠協商有沖突的價值或規則,而算法系統需要在設計時就考慮這些價值的優先順序。[73]
           
            其二,為考察算法設計部署風險(影響)設計的問責點,具體內容應包括對算法可能產生的公共利益、公民權利等風險的評估,包括風險的來源、性質、特殊性和嚴重性等。有他國實踐主張算法的設計部署者應提供更為廣泛的評估,包括算法應用對人權[74]、隱私[75]和數據保護[76]的影響等;有的學者主張算法設計部署應提供“社會影響聲明”“歧視影響評估”[77],甚至“人類影響聲明”[78]等,對此應根據平臺與算法的功能進行場景化的界定。
           
            其三,為考察平臺對算法風險與過程控制能力而設置的問責點,應包括處理可能發生風險的預案與措施。具體包括相關技術信息的留存措施、處理相關風險的技術措施、與相關部門溝通與協助的措施等。比如,歐盟一般數據保護條例第35條要求數據控制者實施數據安全影響評估。正如聯合國國際治理論壇專家報告所言,平臺應采取“持續性、前瞻性和反應性”的步驟來保證相關技術滿足其風險評估的技術需求。[79]以上問責點的設置為確保準確性和可審計性提供了重要的信息——通過進行敏感性分析、有效性檢查和糾錯過程,敦促平臺仔細調查錯誤和不確定的領域,并在需要的情況下啟動第三方的算法審計。
           
            2.平臺算法備案制度具體規則
           
            算法評估與審計的內容需要通過算法備案的形式予以固定。算法備案是行政機關作出的一種存檔備查的行為,其目的在于獲取平臺設計部署的具有潛在危害和風險的算法系統的相關資訊,以固定問責點為今后的行政監管提供信息基礎。算法備案可根據算法風險等級,內部自行備案或向監管部門備案,用于日后對平臺主觀過錯的考量。
           
            第一,算法備案的性質。平臺算法問責的目標在于問責點的固定,而非設置行政許可或前置的審批程序。其對本身報備的事項(算法應用)并不產生直接的法律效果,其目的不像行政許可那樣在于“解禁”,而在于通過對其事后進行的審查、監督來保障備案事項于公益的無害。在這種情況下,備案本身即存在著監督效應。要求平臺經過行政審批方可部署算法,勢必會降低平臺對于創新的追求動力,也會大大減緩平臺應對市場競爭的速度。因此,僅要求平臺對于一定風險級別的算法進行信息披露,而不以行政部門審批作為部署條件,才能在保證事后監管問責清晰的情況下,不阻礙產業的發展。
           
            第二,算法備案的對象。算法備案應根據不同算法風險等級,要求平臺進行自我備案或向監管部門備案。將監管部門作為備案對象,可避免向公眾披露而造成商業秘密泄露與算法被不當使用。例如,網絡用戶在掌握搜索引擎排名權重等信息后,可能通過搜索引擎優化(SEO)技術對排名和搜索建議進行操縱。在各國制度中,也一般將監管部門作為信息披露的對象。諸如美國的《算法問責制(草案)》擬要求平臺對監管部門(FTC)披露信息[80],澳大利亞反壟斷部門的平臺算法監管措施也僅限于對監管部門的披露[81]。需要指出的是,盡管備案沒有許可的強制效力,信息留存或向監管部門披露本身對于平臺來說就形成了監管的威懾力。
           
            第三,算法備案的形式。算法備案的形式可通過官方發布模板,通過平臺填寫模板的方式備案算法部署的目的、風險,評估過程控制方案。備案內容可用于日后一旦發生客觀損害結果后對平臺主觀過錯的考量,并可供監管部門在算法生命周期中持續使用及定期審核。
           
            參考各國算法規制的模式,采取平臺就核心算法向監管部門的備案制度,可達到政府監管與行業自律的平衡、信息披露與商業秘密的平衡、源頭治理與事后追責的平衡。過度依賴事后追責難免造成損害結果的彌散化,而對風險預防的過度追求必然導向嚴格的事前規制,難免抑制產業發展也使監管負擔過重。不同的技術機理意味著需要不斷從技術源頭尋找最新、最關鍵的治理節點和工具,并將其納入治理機制之中,以實現治理的可持續性。[82]算法備案制度正式從源頭設置治理節點,以備案方式為事后追責提供工具。同時,源頭技術治理還有一個重要內容,就是在技術底層賦予人工智能“善用”的基因。要求平臺在部署算法之前自我評估可能帶來的風險,就是將倫理嵌入技術的具體過程。
           
            (二)過錯的事后認定:獨立的算法解釋環節
           
            如何在危害結果發生之后對平臺的主觀過錯進行認定?監管部門事前備案內容可判斷平臺是否具有故意或者過失的主觀過錯,并以此為依據,結合客觀的損害結果直接進行行政處罰與問責。在此過程中平臺需進行算法解釋。算法解釋是認定主觀過錯進行平臺問責的必經程序。
           
            第一,算法解釋在平臺責任認定中具有程序上的必要性,并應在平臺算法問責中成為獨立設置的環節。算法解釋在平臺責任認定中具有行政程序上的必要性,這是平臺接受行政處罰前的不可或缺的陳述、申辯,是行政法原則保障的行政相對人的基本程序性權利。平臺因算法的設計部署而接受行政處罰是一種法律上的不利后果,如果缺乏陳述與申辯環節將是嚴重的程序瑕疵。聽證、陳述、申辯的主要功能是確保當事人參與到行政程序中進行意見表達,算法解釋則是這一環節在平臺算法問責的行政活動中的具體體現。
           
            第二,算法解釋在平臺責任的認定中具有功能上的必要性,但其過去一直作為具體案件事實查明、行政處罰程序的一部分呈碎片化狀態,而未引起注意。具體案件的算法解釋以認定(排除)平臺的法律責任為限,程序上多由法庭調查發起,并未與審理過程分離形成單獨的程序。如個性化推薦算法向用戶推送隆胸廣告,用戶以百度侵害其隱私權提起訴訟。承辦法官撰文詳細介紹原告獲得算法利用其Cookie數據投放個性化推薦廣告的過程,也是基于在審理過程中獲得的自動化決策的算法解釋。[83]在監管部門的要求下,平臺也需進行算法的體系性解釋。例如,“魏則西事件”后,聯合調查組進駐百度,其調查和監管過程包含著要求百度對競價排名算法進行解釋。最終調查組要求百度采用以信譽度為主要權重的排名算法并落實到位,實際上審查的就是其設計考量的價值取向而非內部的技術細節。因此,算法解釋并非創制的制度,而是一直存在于我國司法與行政的實踐中。
           
            第三,從監管成本、監管對象的角度,算法解釋都應成為平臺算法問責制對主觀過錯考察的獨立環節。事后的算法解釋行為本身是監管考察的對象。算法解釋發生在客觀的損害結果發生之后,此時平臺對監管部門的算法解釋也會受到法律的評價,解釋中的隱瞞、虛假解釋等行為可能構成相應的法律責任。為監管部門提供虛假解釋將承擔不實解釋的法律責任。事后的算法解釋是對平臺分配的合規的舉證責任。在監管部門啟動的有關算法的調查和行政處罰中,平臺等互聯網企業承擔著自證合規的舉證責任。算法解釋的內容包含要求對算法本身合法性和合理性的審查,類似于因具體行政行為提起訴訟后,對抽象行政行為的附帶性審查。應考慮將證明算法合法、合理、無歧視的責任分配給算法使用者和設計者。
           
            (三)責任設置:平臺的實質責任與虛假解釋責任
           
            平臺法律責任的設置,應根據主觀過錯的程度輕重分層次設置。對于故意和過失的平臺算法的主觀過錯,施以主客觀相一致的實質責任。對于提供虛假算法備案與虛假解釋的平臺,則施加類似于證券虛假陳述責任的虛假備案與虛假解釋責任。
           
            1.主客觀相一致的平臺實質責任
           
            平臺的實質責任,是指平臺由于算法設計、部署與運行中的故意或過失,承擔的法律責任。平臺算法責任的設置,應符合主客觀相一致、責罰相當的法理。根據平臺的主觀過錯形態設置不同層次的法律責任。
           
            第一,平臺的過錯范圍應具有多重層次和豐富內涵。算法責任的主觀過錯包括故意、過失形態。其一,過錯的范圍應涵蓋現行法律規定,并將其明確化。其二,過錯的內涵應吸納不得對用戶行為操縱、保障用戶自治性等技術倫理內容。其三,應鼓勵平臺算法通過主動承諾的形式,擴大自身注意義務的范圍。以美國聯邦貿易委員會對臉書的5億美元罰款事件為例,其罰款的依據是臉書于2012年自身作出的企業隱私政策。當企業自己主動提供了隱私政策和承諾之后,監管部門方有理由對其違背隱私政策的行為以“欺騙性貿易”的名義予以處罰。其四,對待“關鍵算法”,國家應直接制定相關技術標準,違反則為存在主觀過錯。
           
            第二,平臺的算法責任應實現動態治理,即不僅包括在設計部署時的責任,也包括算法運行過程中的責任。當平臺使用算法違反現有的法律或法規時,監管機構應首先檢查平臺是否能夠及如何有效地證明他們有控制權,以確保算法按預期行事。如果發生重大損害并且不存在此類控制措施,或者技術人員在滿足此標準方面存在疏忽與過失,則該技術人員行為應有可能受到處罰。如果這些控制措施是徹底的并得到適當實施,監管機構可能會確定平臺沒有采取疏忽行為或有意傷害的行為。
           
            第三,平臺實質責任的設置應與主觀過錯相符合。從社會角度來看,由于公司的瘋狂、疏忽、故意忽視或無能而傷害消費者的錯誤與由于公司努力創新而傷害消費者的錯誤之間存在顯著差異。同樣,公司違反規定并對消費者或競爭對手造成重大損害的行為,以及造成很少或根本沒有傷害的行為應該加以區分。[84]
           
            2.平臺虛假備案與解釋的虛假陳述責任
           
            如果平臺提供虛假備案與解釋,則承擔不真實解釋責任,類似于公司法、證券法中的虛假陳述責任。虛假備案與解釋的形態具體包括作出違背真相的虛假備案、誤導性解釋、干擾性披露、信息重大遺漏、不當的備案與解釋行為等。平臺需要對虛假備案與解釋承擔法律責任,是因為在平臺算法問責制的制度框架下,平臺的信息披露義務是具有強制性的,披露目的具有公益性。歐盟一般數據保護條例的實踐經驗表明,如果沒有一個明確的定義,平臺就有可能以最無害的方式來解釋它們的算法。[85]
           
            平臺進行算法的虛假備案與陳述可能有多重表現形式。除了故意的虛假備案,平臺可能通過混淆的方法提供干擾性披露。平臺可能通過披露大量冗余干擾性數據,混雜在關鍵數據中,以此妨礙解釋關鍵數據內容。[86]《黑箱社會》的作者帕斯奎爾稱這種行為為“混淆”,就是指刻意增加冗余信息,以此來隱藏算法秘密帶來混淆。[87]此外,也需關注在技術條件局限作用下導致的信息披露不能。正如詹娜·伯勒爾所提醒的,算法相關信息披露不實的原因可能涉及故意隱瞞、信息的復雜性或者專門機器學習本身的復雜性。[88]具體平臺算法虛假備案與解釋的制度超出了本文篇幅范圍,將是未來的研究方向。
           
            結語
           
            平臺治理與算法規制均是人工智能時代的重要的法學議題。平臺借助算法技術鏈接資源、自動運行,取得和鞏固市場優勢地位。算法嵌入平臺搭建架構、調配資源,實現技術對社會的深刻變革,智能平臺就是兩者深度融合的具體體現。人工智能時代,法律如何應對這種生產方式與社會關系的深刻變革,是本文的關切所在。
           
            法律相對平臺技術的滯后性導致了平臺監管中的問題。傳統的“主體—行為—責任”的平臺追責框架受到平臺運行自動化的沖擊,主觀過錯的認定和責任承擔理論出現錯位,導致了現有監管中主觀過錯認定機制不清、責任設置不符合比例原則的困境,理論層面也要面對“平臺責任中行為人與責任人相分離”“平臺本應技術中立所以承擔的是無過錯責任”的詰問。監管層次過淺、監管時點滯后、監管機制模糊的問題,需要構建新的平臺算法問責機制來解決。
           
            一方面,筆者主張將平臺責任的理論基礎深化至平臺底層邏輯——算法層面,從而使得平臺責任獨立化,解決“平臺責任中行為人與責任人相分離”的理論誤區;另一方面,筆者主張考察算法設計部署的主觀過錯,解決“平臺技術中立”的理論誤區。這需要建立平臺算法備案制度來事前固定問責點,并設置獨立的算法解釋制度來認定平臺主觀過錯,解決監管時點滯后與監管機理不清的問題。平臺從提供“連接”服務走向智能化與自動化后,網絡平臺應當基于“算法責任”的主觀過錯,以“客觀損害結果”和之前已經事先存在的“算法責任”相結合,建立權責一致、責罰相當的監管框架與法律責任體系。
           
            如何打造“負責任”的人工智能?平臺的算法問責應該是制度建設邁出的第一步。人工智能算法營造了運行自動化、損害風險化的假象,深度學習算法、人工智能主體性被反復言說,實際上為平臺(或人工智能、機器人生產企業)規避責任提供了理論基礎。[89]將人工智能法律制度落地細化為平臺算法監管,實際上是將人工智能應用與監管場景化,一方面可以避免對人工智能不求甚解的恐懼,另一方面也可以消除理論界一些夸大其詞的判斷。技術帶來的風險必須由人來負責,如果不能解決“誰負責”的問題,那么所有的治理努力最終都將毫無意義。當然,政策制定者必須認識到,平臺算法問責制的目標不是要實現完美無誤的算法,而是要將風險降至最低,正如汽車安全標準不要求汽車百分之百安全,而是盡可能合理地安全一樣。創新技術與固有思維之間的沖突與激蕩,必將伴隨人工智能技術發展的過程。如何建立具備足夠的包容之心和適應能力的動態治理機制,是人工智能時代的學者和政策制定者必須思考的問題。

          【作者簡介】
          張凌寒,北京科技大學文法學院副教授,法學博士。
          【注釋】
          [1]有學者認為,平臺承擔的主動監控義務是基于“功能主義”的考量而非規范主義的進路。參見趙鵬:《超越平臺責任:網絡食品交易規制模式之反思》,載《華東政法大學學報》2017年第1期。
          [2]參見魏露露:《互聯網創新視角下社交平臺內容規制責任》,載《東方法學》2020年第1期。
          [3]人工智能是繼移動互聯網之后的互聯網又一發展階段,其以物聯網技術為基礎,以平臺型智能硬件為載體,以算法為核心,結合云計算與大數據應用,產生的三維符合、虛實互動的網絡化平臺技術。參見中國信通院:《互聯網趨勢發展報告(2017-2018)》第2頁前言部分,載http://www.cac.gov.cn/wxb_pdf/baipishu/fazhanqushi020171213443448958139.pdf, 2020年3月20日訪問。
          [4]網絡平臺利用算法執行“通知-刪除”機制,算法監測內容并確定其是否與數據庫中的內容相匹配。參見萬勇:《人工智能時代的版權法通知——移除制度》,載《中外法學》2019年第5期。
          [5]美國亞馬遜網站的定價算法曾為一本二手書開出天價,后證實是定價算法的設置出現問題。 See John D. Sutter: Amazon seller lists book at $23, 698, 655.93--plus shipping, http://edition.cnn.com/2011/TECH/web/04/25/amazon.price.algorithm/index.html, 2020-02-10 accessed.
          [6]楊樂:《網絡平臺法律責任探究》,電子工業出版社2019年版,第146頁。
          [7]“行為人與責任人相分離”所指的是平臺侵權的內容都是由用戶上傳的,如商標侵權的商品、誹謗他人的言論,而平臺卻要為此承擔不利法律后果。參見尹培培:《網絡安全行政處罰的歸責原則》,載《華東政法大學學報》2018年第6期;梅夏英、劉明:《網絡侵權歸責的現實制約及價值考量——以〈侵權責任法第〉36條為切入點》,載《法律科學》2013年第2期。
          [8]2016年以來網信辦相繼出臺了《互聯網信息搜索服務管理規定》《移動互聯網應用程序信息服務管理規定》《互聯網直播服務管理規定》;2017年又出臺了《互聯網新聞傳播管理條例》《互聯網論壇社區服務管理規定》《互聯網跟帖評論服務管理規定》《互聯網群組信息服務管理規定》《互聯網用戶公眾賬號信息服務管理規定》《互聯網新聞信息服務許可管理實施細則》等政策性文件。2020年出臺了《網絡信息內容生態治理規定》、2021年出臺《互聯網用戶公眾賬號信息服務管理規定》等。
          [9]《國務院反壟斷委員會關于平臺經濟領域的反壟斷指南》,載國家市場監管總局網站,http://gkml.samr.gov.cn/nsjg/fldj/202102/t20210207_325967.html, 2021年2月8日訪問?
          [10]Directive on Copyright in the Digital Singles Market(2019), Article 13.
          [11]S.1914- Ending Support for Internet Censorship Act 116th Congress (2019-2020), https://www.congress.gov/bill/116th-congress/senate-bill/1914,2020-04-24 accessed.
          [12]Rachel Gutman: The 13 Strangest Moments From the Zuckerberg Hearing, https://www.theatlantic.com/technology/archive/2018/04/the-strangest-moments-from-the-zuckerberg-testimony/557672/,2020-03-22 accessed.
          [13]《互聯網信息服務管理辦法》(2000年)第16條規定:“互聯網信息服務提供者發現其網站傳輸的信息明顯屬于本辦法第15條所列內容之一的,應當立即停止傳輸,保存有關記錄,并向國家有關機關報告。”
          [14]侵權責任法(2010年)第36條規定:“網絡用戶、網絡服務提供者利用網絡侵害他人民事權益的,應當承擔侵權責任。網絡用戶利用網絡服務實施侵權行為的,被侵權人有權通知網絡服務提供者采取刪除、屏蔽、斷開鏈接等必要措施。網絡服務提供者接到通知后未及時采取必要措施的,對損害的擴大部分與該網絡用戶承擔連帶責任。網絡服務提供者知道網絡用戶利用其網絡服務侵害他人民事權益,未采取必要措施的,與該網絡用戶承擔連帶責任。”
          [15]網絡安全法(2016年)第47條規定:“網絡運營者應當加強對其用戶發布的信息的管理,發現法律、行政法規禁止發布或者傳輸的信息的,應當立即停止傳輸該信息,采取消除等處置措施,防止信息擴散,保存有關記錄,并向有關主管部門報告。”第68條規定:“網絡運營者違反本法第47條規定,對法律、行政法規禁止發布或者傳輸的信息未停止傳輸、采取消除等處置措施、保存有關記錄的,由有關主管部門責令改正,給予警告,沒收違法所得;拒不改正或者情節嚴重的,處十萬元以上五十萬元以下罰款,并可以責令暫停相關業務、停業整頓、關閉網站、吊銷相關業務許可證或者吊銷營業執照,對直接負責的主管人員和其他直接責任人員處一萬元以上十萬元以下罰款。”
          [16]“行政處罰中將被處罰人的主觀過錯納入考慮將確保行政處罰案件更加公正。”參見王靜:《行政處罰法修訂增加主觀過錯考量的重大意義》,載“城管執法之家”微信公眾號,2021年2月4日。
          [17]白龍:《用法治方式讀懂“快播案”》,載《人民日報》2016年1月11日,第5版。
          [18]崔文佳:《價值觀引領算法才有更多優質“頭條”》,載《北京日報》2018年4月13日,第3版。
          [19]參見同前注[6],楊樂書,第148頁。
          [20]《關于對阿里巴巴集團進行行政指導工作情況的白皮書》。轉引自趙鵬:《私人審查的界限——論網絡交易平臺對用戶內容的行政責任》,載《清華法學》2016年第6期。
          [21]參見《互聯網用戶公眾賬號信息服務管理規定》(2017)第7條規定:“互聯網直播服務提供者應當落實主體責任,配備與服務規模相適應的專業人員,健全信息審核、信息安全管理、值班巡查、應急處置、技術保障等制度。提供互聯網新聞信息直播服務的,應當設立總編輯。互聯網直播服務提供者應當建立直播內容審核平臺,根據互聯網直播的內容類別、用戶規模等實施分級分類管理,對圖文、視頻、音頻等直播內容加注或播報平臺標識信息,對互聯網新聞信息直播及其互動內容實施先審后發管理”,載http://www.cac.gov.cn/2017-09/07/c_1121624269.htm, 2021年2月4日訪問;《互聯網用戶公眾賬號管理規定》(2017)規定:“信息服務提供者應加強對本平臺公眾賬號的監測管理,發現有發布、傳播違法信息的,應當立即采取消除等處置措施,防止傳播擴散,保存有關記錄,并向有關主管部門報告。”參見《互聯網跟帖評論服務管理規定》:“跟帖評論服務提供者對發布違反法律法規和國家有關規定的信息內容的,應當及時采取警示、拒絕發布、刪除信息、限制功能、暫停更新直至關閉賬號等措施,并保存相關記錄”,載http://www.cac.gov.cn/2017-08/25/c_1121541842.htm, 2020年2月1日訪問。
          [22]參見丁道勤:《電子商務法平臺責任“管道化”問題及其反思》,載《北京航空航天大學學報》(社會科學版)2018年第6期。
          [23]參見同前注[20],趙鵬文。
          [24]參見網絡安全法第47條、第50條和第68條,《互聯網新聞信息服務管理規定》第16條等。責令整改是否是行政處罰尚在學界存在爭議。
          [25]江蘇省網安部門依據網絡安全法等法律法規共辦理行政案件580起,對突出問題亂象掛牌整治2批次。其中,責令限期整改430家次,警告538家(人)次,罰款79萬元,沒收違法所得0.5萬元,行政拘留29人;關停或下架違法違規移動互聯網應用17款。參見《2020年江蘇網絡安全行政執法典型案例發布》,載https://www.secrss.com/articles/18130,2021年4月5日訪問。
          [26]廣東省網信辦于2017年8月11日對騰訊公司微信公眾號平臺存在用戶傳播暴力恐怖、虛假息、淫穢色情等危害國家安全、公共安全、社會秩序的信息問題依法展開立案調查。幾乎與此同時,北京市網信辦也依據網絡安全法就新浪微博對其用戶發布傳播“淫穢色情信息、宣揚民族仇恨信息及相關評論信息”未盡到管理義務以及百度貼吧對其用戶發布傳播“淫穢色情信息、暴力恐怖信息帖文及相關評論信息”未盡到管理義務的違法行為作出從重罰款這一處罰決定。而在另一起行政處罰中,北京市網信辦、北京市規劃國土委就違法違規發布“大棚房”租售信息一事,聯合依法約談58同城、趕集網、百度等網站。根據網絡安全法第47條及《互聯網新聞信息服務管理規定》僅僅責令網站落實整改。參見尹培培:《網絡安全行政處罰的歸責原則》,載《東方法學》2018年第6期。
          [27]參見章劍生:《現代行政法基礎理論》,法律出版社2015年版,第363頁。
          [28]Matthias, A. The responsibility gap: Ascribing responsibility for the actions of learning automata, Ethics and information technology, Vol.6:3, p.175-183(2004).
          [29]J. M. Fischer and M. S. J. Ravizza, Responsibility and Control: A Theory of Moral Responsibility, Cambridge University Press, Cambridge, 1998.
          [30]例如,前文所提到的淘寶對用戶違約的舉證和合理解釋的規定。
          [31]例如,共享經濟平臺上對網約車司機的身份認定、追蹤、報酬發放方式等。參見胡凌:《平臺視角下的人工智能法律責任》,載《交大法學》2019年第3期。
          [32]Frederic Lardinois, Germany’s Former Foreign First Lady Sues Google for Defamation Over Autocomplete Suggestions, TECH CRUNCH(Sept.7, 2012), http://techcrunch.com/2012/09/07/germanys-former-first-lady-sues-google-for-defamation-over-autocomplete-suggestions/.
          [33]《App違法違規收集使用個人信息行為認定方法》(2019)。
          [34]Search King, Inc.v. Google Technology, Inc., Case No. CIV-02-1457-M (W. D. Okla. May.27, 2003)
          [35]See Blackman, Josh. What happens if data is speech.16 University of Pennsylvania Journal of Constitutional Law Heightened Scrutiny25(2014).
          [36]滴滴出行科技有限公司某主管曾在公開場合說:“(順風車)是一個非常有未來感、非常sexy(性感)的場景,我們從一開始就想得非常清楚,一定要往這個方向打。”參見張鑫:《深扒滴滴免職兩位高管一位定義順風車“sexy的場景”》,載《法制晚報》2018年8月26日。
          [37]參見趙鑫:《深度學習在推薦算法上的應用進展》,載《中國人工智能學會通訊》2016年第7期。
          [38]需要注意的是,弱人工智能的算法也有不同的自治程度,如無人機、自動駕駛汽車與定價算法、自動武器等具有不同的自治程度。
          [39]Gutman M, Rathgeber B, Syed T. Action and autonomy: A hidden dilemma in artificial autonomous systems, 3 Robo-and Information ethics, Some Fundamentals 231(2012).
          [40]劍橋分析公司及其母公司戰略通訊實驗室曾參與過世界各地舉行的200多場選舉活動,其成果包括利用臉書數據影響2016年美國大選、2013年和2017年兩次幫助肯尼亞總統贏得選舉,以及影響烏克蘭大選等。參見佚名:《“臉書”個人用戶數據被濫用?“劍橋分析”在全球有何影響》,載https://www.bbc.com/zhongwen/simp/world-43482767,2019-04-09 accessed, 2021年2月1日訪問。
          [41]趙鵬:《網絡平臺行政法律責任邊界何在》,載《財經》2016年第12期。
          [42]See Jeff Kosseff, The Twenty-Six Words that Created, Cornell University Press, 2019, p.12.
          [43]淘寶搜索規則在2010年7月8日的調整曾引發了巨大爭議,導致淘寶網眾多小商家的聚眾抗議事件。盡管淘寶方面宣稱此次調整是為了削減人氣流量的比重而給更多商家展現機會,但被很多小商家指責此舉目的為“逼迫”賣家投放競價排名廣告。參見《新淘寶搜索規則》,載https://baike.baidu.com/item/新淘寶搜索規則/869491?fr=aladdin, 2018年10月31日訪問。
          [44]FRANK AUGUGLIARO: GOOGLE AUTOCOMPLETE STILL MAKES VILE SUGGESTIONS, https://www.wired.com/story/googleautocomplete-vile-suggestions/amp?__twitter_impression=true, 2018-11-22 accessed.
          [45]KENNETHA. CUTSHAWET. AL., CORPORATECOUNSEL’SGUIDETO DOING BUSINESS IN CHINA §26:33.
          [46]See Daniel Zwerdling: Internet Trolls Turn A Computer Into A Nazi, https://www.wnyc.org/story/internet-trolls-turn-a-computer-into-a-nazi/, 2018-06-04 accessed.
          [47]David C. Vladeck, Machines Without Principals: Liability Rules and Artificial Intelligence, 89 Washington Law Review 117, 150(2014).
          [48]Floridi, Luciano. Distributed morality in an information society.19 Science and engineering ethics 727(2013);李磊:《論共享單車平臺公司對低齡騎行人的安全注意義務》,載《東方法學》2020年第1期。
          [49]See Jack M. Balkin, 2016 Sidley Austin Distinguished Lecture on Big Data Law and Policy: The Three Laws of Robotics in the Age of Big Data, 78 Ohio State Law Journal 1229(2017).
          [50]Ibid.
          [51]參見劉權:《網絡平臺的公共性及其實現——以電商平臺的法律規制為視角》,載《法學研究》2020年第2期。
          [52]《中共中央關于堅持和完善中國特色社會主義制度、推進國家治理體系和治理能力現代化若干重大問題的決定》,2019年10月31日中國共產黨第十九屆中央委員會第四次全體會議通過。
          [53]Matthew Hindman, The Internet Trap: How the Digital Economy Builds Monopolies and Undermines Democracy, Princeton University Press, 2018, p.43.
          [54]Ibid, at 54-55.
          [55]參見王頔:《國家廣播電視總局責令“今日頭條”網站永久關停“內涵段子”等低俗視聽產品》,載http://www.xinhuanet.com/2018-04/10/c_1122661804.htm, 2018年11月20日訪問?
          [56]See Zuboff S, Big Other: Surveillance Capitalism and the Prospects of an Informal Civilization, Palgrave Macmillan UK, Journal of Information Technology, Vol.30, pp.75-82(2015).
          [57]參見同前注[31],胡凌文。
          [58]北京知識產權法院民事判決書,(2017)京73民終1194號。
          [59]See H. R.2231-Algorithmic Accountability Act of 2019, https://www.congress.gov/bill/116th-congress/house-bill/2231, 2019-05-22 accessed.
          [60]Rob Taylor, Facebook and Google Algorithms Are Secret—but Australia Plans to Change That, https://www.wsj.com/articles/facebook-and-google-algorithms-are-secretbut-australia-plans-to-change-that-11564134106, 2020-4-20 accessed.
          [61]《網絡信息內容生態治理規定》(2020)第12條規定:“網絡信息內容服務平臺采用個性化算法推薦技術推送信息的,應當設置符合本規定第10條、第11條規定要求的推薦模型,建立健全人工干預和用戶自主選擇機制。”
          [62]主要系指行為人的主觀犯意,若其決定從事違反行政法上義務之行為,即得對其非難而要求其承擔責任,此種責任要件有兩種,即故意或過失。參見翁岳生:《行政法》(上冊),中國法制出版社2009年版,第847頁。
          [63]在國務院2002年頒布的《藥品管理法實施條例》第81條規定:“藥品經營企業、醫療機構未違反《藥品管理法》和本條例的有關規定,并有充分證據證明其不知道所銷售或者使用的藥品是假藥、劣藥的,應當沒收其銷售或者使用的假藥、劣藥和違法所得;但是,可以免除其他行政處罰。”即能夠證明自己確實沒有過錯的藥品經營企業可以免除行政處罰。藥品監管即藥品風險防控,可以說是整個產品質量監管領域最為嚴格的,但在這一最為嚴格的領域中,我們看到了責任主義的貫徹。在銷售者如法地履行了注意義務的情況下,仍然有可能出現假藥、劣藥,這對銷售者來說就可以稱為一種“法所容許的風險”。參見楊利敏:《論我國行政處罰中的責任原則——兼論應受行政處罰的過失違法行為》,載《華東政法大學學報》2020年第2期。
          [64]最高人民法院《關于審理利用信息網絡侵害人身權益民事糾紛案件適用法律若干問題的決定》第9條對網絡服務者是否“知道”侵權行為的存在作出了規定:一是考慮網絡服務提供者是否以人工或者自動方式對侵權網絡信息以推薦、排名、選擇、編輯、整理、修改等方式作出處理;二是考慮網絡服務提供者管理信息的能力、提供服務的性質、方式引發侵權的可能性;三是網絡信息侵害人身權益的類型及明顯程度;四是侵權網絡信息的社會影響程度或者一定時間內的瀏覽量;五是網絡服務提供者采取預防侵權措施的技術可能性及其是否采取了相應的合理措施;六是網絡服務提供者是否針對同一網絡用戶的重復侵權行為或者同一侵權信息采取了相應的合理措施;等等。
          [65]See Abbott, Ryan, The reasonable computer: disrupting the paradigm of tort liability, 86 Geo. Wash. L. Rev.1(2018).
          [66]See Mittelstadt, Brent Daniel, et al. The Ethics of Algorithms: Mapping the Debate, 3 Big Data & Society 2(2016).
          [67]See Kroll, Joshua A., et al. Accountable algorithms, 165 University of Pennsylvanie Law Review 633(2016);參見江溯:《自動化決策、刑事司法與算法規制——由盧米斯案引發的思考》,載《東方法學》2020年第3期。
          [68]參見傅瑩:《人工智能的治理和國際機制的關鍵要素》,載《人民論壇》2020年2月(上)。
          [69]歐盟一般數據保護條例下數據處理評估制度的規定集中在第35、36條,和前言條款第89到96項。另外,根據歐盟一般數據保護條例的原則,第29條工作組于2017年10月也更新了數據處理評估制度指南。
          [70]AINow institution, AI Now 2019 Report.https://ainowinstitute.org/AI_Now_2019_Report.pdf, 2020-01-20 accessed.
          [71]根據算法處理的數據所涉及的利益大小,可對算法進行風險評級,對不同類型的算法采取不同強度的監管。以德國數據倫理委員會提出制定算法評估方案為例,其主張對算法分為五類:(1)對于具有較低潛在危害的系統例如飲料制作機,不應監管;(2)對于具有潛在危害的系統,例如電子商務平臺的動態定價機制應該放寬管制,可以采用事后控制機制,加強披露義務等來降低其潛在危險;(3)對于具有一般或明顯危害的系統,應考慮以發放許可證的方式,促使審批、監管常規化;(4)對于具有相當潛在風險的系統,例如在信用評估方面具有準壟斷地位的公司,應公布其算法細節,包括計算所參考的因素及其權重,算法所使用的數據,以及對算法模型的內在邏輯進行解釋;(5)對于自動化武器等具有潛在不合理危險的系統,則應該“完全或者部分”禁止。 See Opinion of the Data Ethics Commission 159(2018), https://www.bmjv.de/SharedDocs/Downloads/DE/Ministerium/ForschungUndWissenschaft/DEK_Empfehlungen_englisch.html; jsessionid=C4CE6C88B9310034A97B42CD67553FC7.2_cid289?nn=11678512, 2020-04-20 accessed.
          [72]See Timothy B. Lee. Report, Software bug led to death in Uber’s self-driving crash, May 2018.https://arstechnica.com/tech-policy/2018/05/report-software-bug-led-to-death-in-ubers-self-driving-crash/,2020-03-20 accessed.
          [73]James McGrath and Ankur Gupta, 2018. Writing a Moral Code: Algorithms for Ethical Reasoning by Humans and Machines.9 Religions 8, 240-259(2018).
          [74]在聯合國人權委員會的文件中,提出了對人權影響的評估框架。See united nations, human rights council, office of the high comm'r, guidingprinciples on business and human rights 23-26(2011), https://www.ohchr.org/Documents/Publications/GuidingPrinciplesBusinessHREN.pdf[https://perma.cc/R3PC-BW5H]。同樣,紐約大學AINow研究所提出的算法影響評估框架中也包括對人權的影響,See dillon reisman et al., al now inst., algorithmic impact assessments: a practicalframework for public agency accountability 5(2018), https://ainowinstitute.org/aiareport2018.pdf[https://perma.cc/JD9Z-5MZC].歐盟專家委員會提出的《關于先進數字技術的人權影響框架》也提出了新技術的使用前應考慮對人權的評估,Yeung K. A study of the implications of advanced digital technologies (including AI systems) for the concept of responsibility within a human rights framework. Committee of experts on human rights dimensions of automated data processing and different forms of artificial intelligence MSI-AUT Council of Europe, 5.(2018).
          [75]See Privacy Impact Assessments, fed.trade commission, https://www.ftc.gov/site-information/privacy-policy/privacy-impact- assessments, 2020-04-23 accessed.
          [76]Data Protection Impact Assessments, ICO, https://ico.org.uk/for-organisations/guide-to-the-general-data-protection-regulation-gdpr/accountability-and-governance/data-protection-impact-assessments [https://perma.cc/Q2NL-9AYZ]; see also REISMAN ET AL., supra note [355].
          [77]Barocas, Solon, and Andrew D. Selbst. Big data's disparate impact.671. Calif. L. Rev.169(2016).
          [78]Marc L. Roark, Human Impact Statements, 54 washburn l.j.649(2015).
          [79]As part of fulfilling this responsibility, private actors should take on-going, proactive and reactive steps to ensure that they do not cause or contribute to human rights abuses and that their innovation processes are human-rights friendly... The scale and complexity of the means through which they meet their responsibilities may vary, however, taking into account their means and the severity of potential impact on human rights by their services and systems. See Draft Recommendation of the Committee of Ministers to member States on human rights impacts of algorithmic systems, Committee of experts on human rights dimensions of automated data processing and different forms of artificial intelligence(MSI-AUT), Council of Europe, 10(2018).https://www.intgovforum.org/multilingual/sites/default/files/webform/msi-aut201806_eng_draft_recommendation_12_november_2018.docx__0.pdf, 2020-04-10 accessed.
          [80]See H. R.2231-Algorithmic Accountability Act of 2019,https://www.congress.gov/bill/116th-congress/house-bill/2231,2019-05-22 accessed.
          [81]Rob Taylor, Facebook and Google Algorithms Are Secret—but Australia Plans to Change That, https://www.wsj.com/articles/facebook-and-google-algorithms-are-secretbut-australia-plans-to-change-that-11564134106, 2020-4-20 accessed.
          [82]參見傅瑩:《人工智能的治理和國際機制的關鍵要素》,載《人民論壇》2020年第4期。
          [83]參見張曉陽:《基于cookie的精準廣告投放技術及其法律邊界芻議以朱燁訴百度公司隱私權糾紛為視角》,載《電子知識產權》2015年第5期。
          [84]New, Joshua, Daniel Castro, How Policymakers Can Foster Algorithmic Accountability. Information Technology and Innovation Foundation, Washington DC, https://itif.org/publications/2018/05/21/how-policymakers-can-foster-algorithmic-accountability (2018).
          [85]歐盟一般數據保護條例的條文中包含了很多這種邏輯漏洞,數據控制者很容易通過各種方式規避對于算法的嚴格審查。參見張凌寒:《自動化決策與人的主體性》,未刊文。國外也有學者撰文指出歐盟一般數據保護條例條文可規避性強的問題,See Tal Z. Zarsky, Incompatible: The GDPR in theAge of Big Data, 47 SETON HALL L. REV.995(2017).
          [86]參見沈偉偉:《算法透明的迷思——算法規制理論的批判》,載《環球法律評論》2019年第6期。
          [87]See Frank Pasquale, The Black Box Society, Harvard University Press 2015, pp.6-8.
          [88]See Burrell, Jenna, How the machine‘thinks’: Understanding opacity in machine learning algorithms, 3Big Data & Society 1(2016).
          [89]參見同前注[31],胡凌文。

          本網站文章僅代表作者個人觀點,不代表本網站的觀點與看法。
          轉載請注明出自北大法律信息網
        0
        北大法律信息網
        www.chinalawinfo.com
        法律動態
        網站簡介
        合作意向
        網站地圖
        隱私政策
        版權聲明
        北大法寶
        www.pkulaw.cn
        法寶動態
        法寶優勢
        經典客戶
        免費試用
        產品服務
        專業定制
        購買指南
        郵件訂閱
        法律會刊
        北大英華
        www.pkulaw.com
        英華簡介
        主要業務
        產品列表
        英華網站
        聯系我們
        用戶反饋
        返回頂部
        二維碼
        不要添了,我高潮了视频