• <output id="qgjlo"><strong id="qgjlo"><xmp id="qgjlo"></xmp></strong></output>

      1. <p id="qgjlo"></p>

        <object id="qgjlo"></object>
        <table id="qgjlo"><strike id="qgjlo"><b id="qgjlo"></b></strike></table>
      2. 算法規制的迭代與革新
        2020/1/12 8:55:53  點擊率[491]  評論[0]
        【法寶引證碼】
          【學科類別】科技法學
          【出處】《法學論壇》2019年第2期
          【寫作時間】2019年
          【中文摘要】算法從互聯網時代即已成為法律規制的對象,其法律地位隨著技術發展不斷演進。在互聯網1.0時期,法律沿用傳統手段應對算法引起的不利法律后果,算法僅具有技術上的意義;在互聯網2.0時期,算法規制經過了從調整算法設計到調整算法部署和運用的迭代,算法也從產品化的算法演進為工具化的算法。人工智能時代,由于大數據與深度學習技術,算法進一步演化為本體化的算法。算法決策因具有不可解釋性而逃逸法律責任,算法嵌入式擴張導致場景化規制失靈,算法平臺化運行與公共利益隔離。因此,算法規制面臨再次迭代的必要。算法規制的革新,一方面應實現調整對象的升級,另一方面應平臺責任和技術責任雙軌并用。算法的技術責任,應從設計、運營與事后救濟三個流程充分展開,既充分利用現有法律責任體系,也應創制必要的規則,以保障算法設計、部署和運營合理化,遏制算法濫用對潛在正當法律利益的威脅和侵害。
          【中文關鍵字】算法規制;雙軌制;技術責任
          【全文】

            人工智能時代,“算法”從只有計算機專業人員熟悉的術語,成為了人盡皆知的時代熱點。人們猛然發現,算法已經滲透到了社會生活的方方面面:Facebook的News Feed算法決定了大部分美國人的日常新聞閱讀內容,廣泛普及的手機導航算法指引著路上的無數司機,法官利用算法輔助對犯罪嫌疑人的量刑和假釋決定,[1]政府公共部門利用算法進行行政管理以提高工作效率降低支出算法正在全方位地推動著人類社會日常生活的運轉,改變著人類的社會面貌。
           
            究竟什么是算法?算法本質是以數據為填充,通過計算步驟得到具體結果。算法的運算結果與算法設計、算法部署及應用有關。算法看似是艱深的計算科學概念,實際上在計算機科學家看來,通過一系列步驟,用輸入的數據得到輸出的結果就是算法的本質。從這個意義上來說,一份祖傳的食譜,一項招生政策,甚至人早上起床后決定穿什么出門的思維過程,都是具備了輸入、輸出、明確性、有限性和有效性要素的算法。[2]
           
            本文旨在討論應對算法法律地位的變化,法律如何做出因應性變革。早在30年前,美國華爾街的股票商就開始利用算法進行證券交易以獲得更高利潤。因此,有必要回溯對于算法造成的不利法律后果,當時的法律是如何應對規范的?近年來算法的技術發展和角色變化,又對既往的法律規制提出了哪些挑戰?法律應如何回應這些挑戰?
           
            一、互聯網時代算法規制與其法律地位的迭代
           
            人工智能時代,算法憑借其在數據驅動下調配資源的力量,新晉為立法與理論關注的焦點。然而在此之前的互聯網時代,算法始終存在并發揮其作用。隨著算法技術發展與作用不斷更新,法律對算法引起的不利法律后果的調整規則也在不斷迭代。從算法規制迭代的梳理中,可以一窺算法法律地位的變遷。
           
            (一)互聯網1.0時代:以傳統規則應對技術化的算法
           
            互聯網1.0時代具體指網絡發展的前期,互聯網的主要特征是“聯”,互聯網作為信息傳輸的渠道。此時算法技術剛剛開始利用互聯網傳輸的數據的速度優勢,改變傳統行業的運行規則。如算法直接運用于證券交易,以及利用自動內容分發算法影響互聯網信息傳輸。
           
            1.規制原因:算法技術初現于法律視野。法律規制算法應用的事件最早發生于1987年。華爾街的證券交易商托馬斯彼得非構造了分層算法用來模仿證券交易員的操作,分層算法包含了交易員在決策時要考慮的全部因素。因為電腦運行算法、核實價格和執行交易所用的時間要遠遠少于人為操作,彼得非獲得巨大的利潤。[3]納斯達克交易所注意到了彼得非在當時非同尋常的交易速度、穩定性與利潤率,因此派出調查員到其交易所,發現了裝有世界上第一臺全自動算法交易系統的IBM電腦。這套算法交易系統自動讀取納斯達克交易數據,全權決定并執行交易,再將交易單傳回納斯達克終端。
           
            納斯達克交易所面臨的問題是:沒有相關規則的前提下,用算法代替人進行交易是否合法?最終納斯達克交易所并未回答此問題,而是沿用原有規則要求必須通過鍵盤打字逐條輸入交易指令。但是彼得非用六天時間造出了自動化打字手柄,由手柄敲擊鍵盤以保證交易速度,規避了此條規則。隨后二十年算法自動交易系統逐漸統治了華爾街。
           
            此時的法律并未將算法作為在設計法律制度時需要考量的對象,而是僅從技術的角度來討論算法技術應用的行為是否合法。換句話說,此時算法還僅僅具有技術上的意義,而并不享有法律為其設定的規則。
           
            2.調整方式:沿用傳統嚴格責任制度。自動算法交易系統的險些夭折,充分顯示了互聯網1.0時代法律滯后性,法律規則并未作出因應性調整,而是沿用該傳統規則。這也同樣體現在網絡服務提供者的侵權責任認定規則的發展歷程中。網絡服務提供者用算法來處理、排序用戶上傳的海量信息,而其中可能包括侵害著作權的文件。網絡服務提供者沒有進行人工逐一嚴格審查而被訴侵權。1995年美國立法主張對網絡服務提供者適用關于傳播媒介的版權法規定,承擔直接侵權的嚴格責任。德國法院早期的判決也認為網絡服務提供者有義務確保任何侵犯版權的行為不會在他的服務器中發生。[4] 這一規定加重了網絡服務提供者的法律責任,遭到了強烈反對。
           
            3.算法地位:僅具技術上的意義。在互聯網1.0時代,算法尚未得到法律的針對性調整。算法應用與人的行為被法律合并評價,即采用傳統規則來應對算法的應用。此時算法僅僅具有技術上的意義,而并不具有法律上的地位。這種規制模式帶來兩種截然相反的后果:其一,法律放任算法在某一領域的應用,算法應用在這一領域得到蓬勃發展進而顛覆了整個行業。其二,法律用對行為人的評價機制來評價算法應用,忽視了算法應用的特點,阻礙了技術和行業的發展。這些都為互聯網2.0時代法律的變遷提供了驅動力。
           
            (二)互聯網2.0時代的第一次迭代:產品化的算法與技術中立原則
           
            互聯網2.0時代大約始于2000年,主要特征是“互”。網民之間、網絡與網民之間實現了“點對點”的互動,每個網民都可以成為信息來源,網站的角色從提供信息者變成了提供網絡服務者。互聯網2.0時代,法律逐步建立起一套完整的原則、規則與制度,來調整算法造成的不利法律后果。
           
            1.升級原因:互聯網產業發展的抑制效應。彼時由算法引發的不利法律后果的情況,多是網絡服務提供者提供算法(軟件或程序),供用戶或自身使用,造成對第三方的損害結果。此階段尤以版權侵權案例居多。WEB2.0技術的應用和普及,使原來自上而下的網絡服務提供者集中控制主導的信息發布和傳播體系,逐漸轉變成了自下而上的由廣大用戶集體智能和力量主導的體系[5]。經過反復理論探討和實踐探索,立法者逐漸認識到,原有的嚴格責任制度造成了互聯網產業發展的抑制效應,以DMCA為里程碑,美國法律對網絡服務提供者的著作權侵權責任規則原則上經歷了“嚴格責任”到“過錯責任”的轉變[6],以減輕網絡產業的負擔。
           
            2.調整對象:算法設計。網絡服務提供者設計出算法后,或者提供給用戶使用,或者在自身網站上使用。算法如在這兩種情況下產生不利法律后果,法律均只評價網絡服務提供者在算法設計階段有無侵權的故意,如果沒有則無需承擔直接侵權責任。如2002年著名的Grokster案,被告公司開發的P2P軟件(算法)被用戶使用從事版權侵權活動,多家唱片公司起訴被告指控其提供軟件并獲利,應承擔侵權責任[7]。但法院認為,P2P軟件具有“實質性非侵權用途”,不能推定兩被告提供軟件的目的是幫助用戶進行版權侵權,因此不承擔侵權責任。
           
            即使是網絡服務提供者自身使用算法造成了不利法律后果,法律也傾向于以算法設計時的主觀過錯狀態為標準,判斷其是否構成侵權。如2006年百代公司訴阿里巴巴案中,涉訴的算法應用為搜索蜘蛛程序“自動在索引數據庫中進行檢索及邏輯運算,以鏈接列表的方式給出搜索結果”[8]。阿里巴巴辯稱其只是提供了搜索和鏈接服務,第三方網站提供歌曲,因此自己并無侵權故意。據此,法院認定被告涉案行為不構成對信息網絡傳播權的直接侵權。案件經二審后維持原判。
           
            以上案例均顯示,在互聯網2.0階段,法院將算法設計作為調整對象。從時間節點上,法院只評價算法設計時是否具有侵權的故意;從因果關系上,只考察算法設計是否造成了損害結果,而不將算法應用造成損害結果作為判斷要件。
           
            3.調整方式:技術中立與間接責任。互聯網2.0時代,秉承既往索尼案確立的技術中立原則,逐步發展出間接侵權責任制度,以減輕網絡服務提供者負擔。技術中立的規則得到了國際廣泛認同,在提供深層鏈接[9],提供信息定位服務[10],空白搜索框[11]等多項技術的應用是否構成侵權時,均會引起一波理論探討熱潮,但最后各國一般均認為這些算法應用并不構成網絡服務提供者的直接侵權。正如學者指出,如果將一項特定技術作為版權立法的依據,由此產生的規則很難經受技術發展的考驗,因此技術中立原則是立法所必須遵循的原則。[12]
           
            法律責任的設置則根據算法設計時主觀過錯不同區分為直接侵權與間接侵權。[13]美國《千禧年數字版權法》以及歐盟《電子商務指令》也均一致認定“幫助侵權”規則的前提:網絡服務商沒有監視網絡、尋找侵權活動的義務,此規則在我國也得到了相關判例的認可。這充分體現,算法運行后,網絡服務提供者只承擔運行環境的安全保障義務。當算法應用造成了不利后果時,網絡服務提供者只承擔未盡到注意義務的間接侵權責任。
           
            4.算法地位:產品化的算法。將算法設計作為調整對象,確立技術中立原則和間接責任體系,體現了算法作為技術產品的法律地位。算法一旦“生產完畢”,其部署和應用即不再對侵權行為的認定產生直接影響。如此,一方面能夠鼓勵技術發展;另一方面能減輕網絡服務提供者為算法應用和部署承擔的責任,促進互聯網產業的發展。縱觀互聯網2.0時期的諸多知識產權領域的經典案例,基調是各國立法者和司法者疲于應對層出不窮的最新算法技術。
           
            (三)互聯網2.0時代第二次迭代:工具化的算法與平臺責任擴張
           
            2008年之后,互聯網2.0進入自己的平臺時代,大型網絡服務提供者演化為網絡平臺逐漸崛起[14]。如果說互聯網時代的關鍵詞是“互”,平臺時代的關鍵詞則是“融”。網絡平臺逐漸超越了互聯網服務提供者的角色,成為了網絡空間規則的制定者和執行者。算法實質上主宰了網絡空間日常運營,其角色和地位的變化催生了一系列理論與實踐的變化。
           
            1.升級原因:平臺私權力的崛起。互聯網平臺經濟大規模崛起,Facebook、Twitter、阿里巴巴、騰訊等一系列大型互聯網公司快速崛起,社交類平臺和電商平臺迅速升溫。平臺影響日益深遠,網絡空間成為了虛擬場域。在此虛擬場域中,算法實際上承擔了網絡空間的日常治理。而公權力此時由于技術力量和手段的限制,疲于應對網絡空間監管。對網絡交易中的違法行為或自媒體中的失范言論,網絡平臺擁有最便利的發現和限制能力,它是成本最低的違法行為的控制者。為加強對網絡空間的監管與治理,實踐中立法與司法逐漸摒棄了算法作為“技術產品”的中立性法律地位,通過加強平臺與算法之間的關系,要求平臺承擔法律責任。
           
            2.調整對象:算法設計與算法部署應用。在網絡平臺時代,法律的調整對象除了算法設計,也擴張至平臺對于算法的部署和應用。當算法不利法律后果發生后,法律不再秉持技術中立理念。除了考察算法設計的行為外,也要求平臺對算法部署和應用的不當承擔法律責任。如2015年,國家工商總局發布《關于對阿里巴巴集團進行行政指導工作情況的白皮書》(以下簡稱《白皮書》)[15],直指阿里巴巴縱容平臺用戶銷售侵權和違禁商品。雖然未直接啟動行政處罰,這一行為仍然引發阿里巴巴市值在四天內蒸發367.53億美元,并導致針對阿里巴巴的證券欺詐訴訟等連鎖反應。國家工商總局在《白皮書》中指出阿里存在“涉嫌在明知、應知、故意或過失等情況下為無照經營、商標侵權、虛假宣傳、傳銷、消費侵權等行為提供便利、實施條件”,而這種便利和幫助是由阿里部署算法提供的。自動分類、提供搜索工具算法,幫助消費者搜索相關產品和服務,客觀上幫助了違法行為的實施[16]。
           
            無獨有偶,國外的學者也不再堅持技術中立,而是認為平臺通過算法的部署,對交易產生了重大影響。“網絡交易平臺的角色已經遠非如單純信息傳送通道一樣消極和中立,它們在商品和服務展示、交易規則安排、商品和服務評價、商戶信用評價等方面均扮演了非常積極的角色。這些積極的角色增加了用戶已有內容的價值并在很大程度上塑造了交易秩序”。[17]
           
            3.責任方式:平臺責任擴張。對于算法造成的不利后果,在沿用網絡服務提供者的間接侵權責任制度外,世界各國均加強了對網絡平臺的責任,以調整平臺對算法的部署和應用。從時間節點上,平臺承擔法律責任從“設計開發時”延伸至算法應用產生損害結果時。從因果關系上,不再局限于算法設計與損害結果的因果關系,而是擴展至算法部署和應用與損害結果是否存在因果關系。
           
            除了世界各國要求電商平臺就不當的算法部署和應用造成的違法交易承擔法律責任外,2016年以來很多國家開始要求社交媒體平臺主動承擔監控義務,對用戶上傳的恐怖、色情、仇恨等非法內容加強監管并承擔法律責任。[18]我國國家網信辦明確提出,采取“強雙責”的方針——強化網絡平臺的主體責任與社會責任。[19]平臺責任制度在世界范圍內廣泛應用。
           
            4.算法地位:工具化的算法。互聯網2.0時代,網絡平臺不僅要對算法的設計負起責任,同樣也要對算法在部署和應用中產生的不利法律后果承擔責任。此種規則的設置隱含了將算法作為網絡平臺工具的假設。換句話說,此種法律規則默認平臺不僅能夠控制算法設計,也能夠控制算法的應用過程和結果。以算法部署和應用作為調整對象,設置網絡平臺責任,是公權力治理網絡空間力有不逮的無奈之舉,也是對網絡平臺技術權力擴張的因應性變革。但是,要求平臺為算法部署和應用的不利后果承擔責任,可能存在以下隱患:(1)沒有評判算法部署和應用是否合理的法定標準,平臺責任范疇模糊,往往以違法行為數量巨大來論證平臺過錯。(2)僅僅設置平臺責任無法涵蓋算法的全部應用范圍。在社會公共管理中算法也存在廣泛應用,這類部署和應用的不當平臺責任無法覆蓋。
           
            縱觀算法規制的歷史,算法的法律地位隨著互聯網的時代變遷和技術的發展而進化。從僅具有技術意義的算法到具有法律意義的算法,法律對于算法的地位功能假設也從產品化的算法迭代為工具化的算法。相應地,從沿用傳統規則到技術中立原則,再到平臺責任的加強與擴張,法律規則也應對算法功能地位的變化做出因應性的調整。隨著智能時代的來臨,大數據和深度學習算法技術的進一步發展,原有的法律規則已無法應對算法地位功能的進一步發展,新的算法規制在算法技術的發展下呼之欲出。
           
            二、人工智能時代算法規制的新問題與路徑
           
            人工智能時代已如浪潮般襲來,各類平臺在利用算法不斷智能化升級,融入性進化。依據“奧康剃刀”(如無必要,勿增實體)原則,對算法規制的擴用的思路是充分保留原有制度,同時創制必要制度,以應對算法技術與作用的演進。
           
            (一)智能時代算法的演進:本體化的算法
           
            智能時代,隨著大數據和深度學習技術的發展,以及算法在互聯網平臺和社會治理中的廣泛應用,法律應調整的對象發生了變化,算法的法律地位進一步演進。
           
            1.調整對象的增加:算法自主決策。在互聯網時代工具化算法的情況下,算法經由人的設計開發、部署應用行為發揮效力。例如,在電商平臺上,對搜索算法和推薦商品算法的設計開發、部署應用兩個步驟,決定了用戶可以收到怎樣的商品推薦結果。醫院委托科技企業進行算法(門診系統)開發,進而使用算法,以幫助提高效率。開發者和使用者對算法都具有較高的控制力,能夠預測算法產生的后果并對算法決策結果給出解釋。相應的,法律對于算法造成的不利法律后果,評價對象為在人對算法的開發或部署行為中是否存在過錯,以確定算法開發者或部署者的法律責任。
           
            隨著大數據算法的技術迭代以及部署和運用的平臺化,基于數據的技術運算迅速成長為一種擁有資源配置的新興社會力量。[20]算法逐漸脫離了純粹的工具性角色,而有了自主性和認知特征,甚至具備了自我學習的能力。這使得算法對現實社會和個人發生效力的流程,在算法設計(指設計者進行初始編碼,進行開發算法的訓練數據和管理的行為)、算法應用和部署(指網絡平臺之部署應用算法的行為)之外,增加了一步,即算法本身自主決策。換句話說,算法作為決策者,其決策原因和推理過程對于人類處于黑箱之中。智能算法的自主決策,使得算法從提高效率的“工具”上升為“決策者”。[21]2017年的Loomis案件中,被告人認為法院使用的COMPASS算法對其進行的犯罪風險評估包含種族歧視,起訴要求評估算法。[22]對被告發生法律效力的算法則經過了公司的算法開發行為、法院算法的部署行為、以及算法自動決策三個層次。其分離算法的黑箱使得算法決策過程和因素不被人所理解,而算法決策作為單獨的步驟,與人的行為相分離。
           
            2.算法地位的演進:本體化的算法。算法的法律地位隨著算法自主決策能力越來越強而演進,算法已經從平臺的工具演變為具有自主決策能力的“決策者”,成為本體化的算法。本體化的算法的效力,體現在算法的自主決策一方面不可被人類完全理解和解釋,另一方面具有直接的法律效力。例如,淘寶的算法對用戶的支付寶賬戶采取取消收款、資金止付等強制措施,用戶推翻其決策要舉證其決定錯誤[23]。甚至算法直接扮演了執法者的決策角色,如美國聯邦尋親處的算法錯誤地將56歲的瓦爾特福爾摩認定為“拒付撫養費的父母”,而直接給其開出了定額20.6萬美元的撫養費罰單。[24]算法與人的行為的分離,其法律意蘊在于人的行為與引發的責任的分離,[25]傳統的人的行為——責任的邏輯鏈條被算法的自動決策切斷。
           
            同時,算法借由私營平臺和社會公共部門,深度嵌入社會運行,實現了無孔不入的構建、干預、引導和改造。算法在接管人類讓渡的決策權。有學者指出,私營企業和政府公共部門采用算法和大數據做出的自動決策,使得數百萬人無法獲得保險、貸款、出租房屋等一系列服務。然而,算法不公開、不接受質詢,不提供解釋、不進行救濟,相對人無從知曉決策的原因,更遑論“改正”的機會,這種情況被學者稱為“算法暴政”。[26]
           
            (二)智能時代算法規制的新問題
           
            本體化算法的不可解釋性對現有的法律責任體系適用困難,本體化算法也對社會的結構性嵌入對傳統的場景化規制提出了挑戰。這些使得原有的民事間接責任加平臺責任模式不敷適用,并造成了平臺運行與公眾利益的隔離,這些問題驅動算法規制再次迭代。
           
            1.算法的不可解釋性對現有法律責任的逃逸。在現行的法律責任制度,平臺公司往往主張拒絕對算法設計、部署和應用的不當承擔責任。原因在于:(1)平臺可以主張用戶通過平臺服務協議對面臨的算法自動化決策知情同意,[27]因此基于算法對用戶造成的損害無需承擔責任。如淘寶網的用戶協議要求用戶接受自動化決策對于違約行為、支付風險的判定結果。“淘寶可依據您的用戶數據與海量用戶數據的關系來認定您是否構成違約:您有義務對您的數據異常現象進行充分舉證和合理解釋,否則將被認定為違約”。[28](2)算法決策的使用者一般主張算法錯誤為客觀“技術錯誤”而非主觀錯誤,因此無需承擔侵權責任。而以普通民眾的技術能力證明其使用的算法確實存在嵌入的偏見和數據的濫用,極不現實。自動化決策實際上是根據數據得出的一個運算結果,包括平臺公司也只能看到輸入的數據以及得出的結果,而對中間的運算過程則一概不甚明了。(3)用戶如果請求平臺提供自動化決策的解釋,自動化決策的算法的平臺公司都可以商業秘密為抗辯理由拒絕公開決策的內容和理由。即使在支持數據控制者對用戶有一定信息披露義務的歐洲,適用于自動化決策的算法訪問權限的限制,尚未在歐洲各地的法院的判例中得到普遍的明確范圍。
           
            2.算法嵌入性結構擴張導致場景化規制的困境。算法對除平臺以外的社會結構實現深度的結構性嵌入,僅以平臺責任作為規制算法的路徑,存在以下困境:(1)以具體人和公司為調整對象的法律體系,仍適用于具體算法應用場景,規制效率較為低下。當數據流動共享機制和復雜的算法生態形成后,場景化規制則捉襟見肘;(2)算法的使用已經逐漸脫離平臺系統,尤其進入公共部門應用于社會治理時,一方面,公共部門沒有平臺一樣程度的算法控制能力;另一方面系統性損害風險增大。如2007年4月,來自私營公司的程序員將900多條不正確的規則植入美國科羅拉多州的公共福利系統,而由于程序員缺乏相關的背景知識,導致誤讀法律致使成千上萬的人遭受不公平的對待。這些錯誤包括把“無家可歸”解讀為“行乞為生”,導致一位失去住所流落街頭的60歲婦女在申請增加食品券數量時遭到多次拒絕,原因是系統認定其為乞丐。最終為了繞開錯誤,資質審查人員不得不輸入虛假數據。[29]算法嵌入性的結構擴張,使場景化的規制手段已無法充分保護公眾權益。
           
            3.算法平臺化運行與公共利益的隔離。在人工智能時代,公共領域和私人領域早已被模糊。即使是私人公司開發和使用的算法,也往往承載了公共利益價值。例如,私營公司谷歌開發的google flu算法可以預測疾病的爆發,具有極強的公共衛生價值。2018年Facebook的用戶隱私數據被私人公司算法用于美國競選的事件也充分說明,私人公司的行為早已承載了公共利益的價值,甚至直接影響了政治走向。
           
            然而,算法搭載于商業開發,往往作為公司專有產品和服務的一部分,這種情況下規制算法有干預商業自由之嫌;這使得算法權力受到現有制度的保護,甚至直接造成了公共利益的損害。引起廣泛關注的“大數據殺熟”事件即使得消費者受到價格反向歧視,無法享受平等公開的商業服務。同樣,在Face-book的數據泄漏事件中,劍橋分析始終表示“我們沒有破解Facebook或違反任何法律”[30],可見現行對公司有關算法和數據的法律規制遠遠無法保護公共利益。
           
            以上分析顯示,現有法律制度針對算法的場景化規制、責任平臺化、標準私益化問題十分嚴重,與當下算法的嵌入性結構擴張、社會全層面覆蓋等特性嚴重不符。根據算法的技術性優勢和結構性特征盡快升級算法規制迫在眉睫。
           
            (三)算法規制升級路徑:雙軌制的確立
           
            技術發展帶來的科林格里奇困境(collingridge dilemma)使及時性的立法供給顯得日趨緊迫。這一困境警示我們,當一項技術的社會后果不能在技術生命的早期被預料到而加以及時調控和規制時,技術的普及和應用將使其成為經濟和社會結構的一部分,由于對負面結果的控制變得昂貴、困難和消耗時間,以致難以或者不能改變。[31]本文對智能時代算法的本體化演進及法律規制的不足,主張應建立規制路徑的雙軌制,具體包括:
           
            1.調整對象的升級:增加算法自主決策。本文上一部分梳理法律對算法規制的調整對象,無論是算法設計還是算法的部署應用,均以算法的運行結果作為規制啟動的原因。算法的運行結果包括出于侵權目的進行算法設計,未盡到合理注意義務進行算法部署和應用等。這種規制方法顯然無法應對算法地位的演進。因此,有必要建立算法規制調整對象的雙軌制,既調整算法設計與部署應用的結果,也調整算法自主決策本身。調整對象的升級帶來以下規制發展。
           
            (1)指向算法本身增強風險防范。結果監管指向內容審查,而對預防性監管則必然指向對算法本身進行審查。這就意味著監管審查的對象,從單軌的內容監管應轉化為內容與算法的雙軌制監管。這種監管以算法為目標,以預防技術產生的負面效應或副作用。[32]算法從工具到決策者的角色的轉化,要求必須在算法投入使用前就進行充分地考察以加強風險防范。
           
            (2)突破規制企業行為進行算法規制。監管部門設立一系列規則尋求規范的是企業行為,而非算法本身,在算法自動化決策日益自主化的情況下,除沿用規制企業行為外,應進階直接對算法本身進行規制。例如在我國2019年實施的《電子商務法》中,立法者直接算法的設計和部署進行規則,要求電商平臺的算法能夠為消費者提供自然搜索結果。隨著算法將現實社會上傳為無形化、數字化、虛擬化的場景,并對社會進行切割和提供海量定制式規則,算法必然將成為立法的直接調整對象。
           
            2.責任承擔的雙軌制:平臺責任與技術責任。以上規制對象的變化,必然引起法律責任設置的變化。應繼續沿用現有的平臺責任,平臺作為社會大量算法設計、部署和應用的場景應負有相應的法律責任。但為了彌補平臺責任規制場景化、標準私益化、責任主體有限性等問題,應及時針對算法作為調整對象的法律,建立技術責任制度。技術責任意指機器倫理、法律責任的設置應圍繞技術的運行,而非不論網絡平臺與算法的關系,一味由平臺承擔責任。
           
            (1)技術責任制度專任化。由于專業知識的障礙,之前的算法規制一般由專業部門進行,如在美國對高頻交易算法由金融市場行為管理局(FCA)執行。隨著機器深度學習技術的發展,算法自動化決策的黑箱飽受詬病,也被認為是對算法進行規制的主要障礙。[33]為避免將司法者陷入未知境地,各國普遍傾向于采用成立專業委員會來對算法進行規制。無論是機器學習委員會[34],美國紐約市政府的專業委員會[35],還是美國國家算法安全委員會[36],都體現了專業規制的思路。對于算法透明度的評估、是否有歧視可能、以及對可疑結果的回溯都需要專業委員會提供咨詢意見甚或直接執行,方可保證規制有效性。
           
            (2)技術責任的救濟原則。然而,算法的技術性要求規制的專業性,但同時也應警惕社會精英化對公共利益的背離。有學者甚至悲觀的預見,這種技術資源上的差異將使得富有的精英能夠設計他們自身或者他們的后代,使其成為生理和心理能力都更為高等的“超人”,人類先前的社會經濟階層系統可能會轉化為生物階層系統。[37]科技對平等原則的沖擊,使得我們必須訴諸“人類中心主義”來尋求危機的解除。[38]在算法規制中也必然更加強調公共利益的嵌入,用以避免算法權力獨大,以公共利益限制算法權力。
           
            三、算法技術監管及其責任
           
            算法規制的雙軌制升級同時考慮了設置事前的風險防范機制和事后的問責機制。在算法規制的運行階段,算法運行結果和算法自主化決策本身,平臺責任和技術責任,勢必要融合于算法規制的各個流程中。在此過程中,復雜的智能和自主技術系統的法律地位問題與更廣泛的法律問題交織在了一起。本部分以流程為導向,對算法技術監管及責任對現行法律制度的滲透做系統梳理。
           
            (一)設計階段:早期介入與設計責任
           
            現有法律制度使得平臺公司利用算法設計開發的商業模式有監管套利之嫌。例如,滴滴平臺雖然通過平臺、汽車出租者、司機與乘客,以及保險公司等多份合同設計,成功地繞開了對于商業運營車輛的監管,但最終結果仍是一種運輸服務的租賃業務。而當監管部門責難時,這種在設計上對監管的完美規避,并不能掩蓋其本質的營運行為。同理,當平臺公司的算法設計上線時,一旦造成損害結果,設計者往往主張:第一,對任何算法的發展和最終損害,可能有多個潛在的責任方,設計并無過錯。第二,設計行為是智力創造過程不應受到法律的規制。設計者躲在實驗主義的盾牌之后躲避干預和法律責任。因此,設計階段應及時加入對算法本身的技術監管。
           
            1.要求設計者在設計算法過程中嵌入算法倫理。在設計階段應以立法形式要求算法通過道德審查標準,來防止對用戶的操縱或產生不公平的后果。當然,目前這種方法面臨著許多挑戰,目前可能僅在某些敏感性和風險較高的算法決策領域更適用倫理性的審查要求,并基于數量只能采用人工審查模式。同時,要求社會學家、法學家等共同設計倫理框架,在算法設計階段就為算法的研發和應用提供道德準則。
           
            2.要求算法設計者承擔一定的設計責任。為了保證設計過程監管與未來責任回溯,監管機構將需要增加設計責任的制度,以補充現有的設計安全模型和隱私設計模式。具體包括將設計日志責任法定化,如涉及在封閉式和開放式機器人中要求某些硬編碼的審計日志;或嚴格執行實驗許可,在實驗階段充分考慮可能存在的問題,如對開放式機器人許可實驗。這些設計責任類似于在金融領域建立的“審計線索”,現在已經成為重要的法律措施。這些設計責任不僅有利于算法投入使用后的管理,也必然會反向影響系統開發,即使對符合價值取向的算法設計進行制度激勵。[39]
           
            3.要求設計者承擔充分的測試責任和披露責任。應將敏感和關鍵領域算法設計的測試責任和披露責任法定化。應在第一步機器倫理指導下,算法投入使用前,要求設計者充分測試算法。并且應細化要求算法設計,必須進行必要的迭代測試以達到預測性能的客觀視圖。例如犯罪預測類算法在投入使用前,應充分在不同地區和領域測試,收取達到規定數量的數據集,并測試其在打擊犯罪中的實際作用。測試責任也應充分考慮公共利益標準,避免將算法設計中可能存在的危害外在化。否則,算法設計者應承擔責任,或被迫撤回或修改算法。
           
            (二)運營階段:評價標準與程序正當
           
            運營階段的算法規制目標仍在于以評價標準與正當程序促使算法權力運行處于公眾監督之下。
           
            1.算法的法律評價標準公益化。公權力代表公共利益對平臺公司的算法進行較以往更為嚴格的規制初現端倪。如在魏則西事件后,聯合調查組要求百度采用以信譽度為主要權重的排名算法并落實到位,嚴格限制商業推廣信息的比例對其逐條加注醒目標識,并予以風險提示。[40]今日頭條的算法設計的目標是最大限度吸引流量與增加用戶在線時間,符合正常商業盈利最大化的目標。但我國廣電總局2018年4月要求今日頭條關停“內涵段子”應用程序,以及要求今日頭條為其產品“抖音”配置反沉迷系統。[41]這實質上是公權力通過對平臺公司的商業行為以公共利益標準進行規制,實際針對的是追求盈利目標的算法。對算法的規制目的為限制算法對于公眾權利的侵蝕,這必然要求以公共利益為規制的原則,而由于用戶相對平臺公司的弱勢地位,仍需公權力為代表對平臺公司的算法進行規制。
           
            2.部署應用算法的平臺責任嚴格化。有必要對原有責任制度進行擴充,打破平臺公司的過錯和算法的不可解釋性這兩大歸責障礙。目前各國均有擴用責任制度的嘗試。例如,美國對無人機登記制度正全面鋪開,政府要求無人機必須有牌照,以對任何魯莽或者疏忽飛行的無人機與相關人員聯系起來。[42]此外,即使平臺公司無法解釋算法如何產生結果,也應對其使用的算法所作出的自動化決策負責。雖然算法的不可解釋性仍未有實質解決方案,但歐盟開始嘗試創制算法解釋權。美國的監管者則主張在財務和信用方面的算法造成不利法律后果時,確保“意圖”不是責任的必要條件。[43]在新的人工智能責任體系建立完善之前,沿用與擴用責任制度是必然也是一種無奈。2016年,歐洲議會提出了“機器人法”立法建議報告,盡管此報告中暢想了未來對人工智能自動化決策設立法律人格,并沒有提出具體的方案。而是主張機器人造成的損害由主人來承擔責任,[44]并提議公司為機器人購買保險和成立專門基金補充保險機制。應對人工智能的沖擊,擴用現行制度仍是當下保守而不是明智的選擇。
           
            3.算法自動化決策程序的正當化。算法自動化決策對公民權利影響甚巨,卻完全規避正當程序。尤其是算法的自動化決策已經大規模進入公共部門決策程序,在公法領域,自動化決策的算法解釋權是正當程序的基本要求。當公權力機關對當事人做出不利決定時,應當要告知當事人決定的內容并且說明理由,同時給予當事人陳述申辯的機會和救濟的途徑。[45]在美國聯邦憲法上,正當程序條款甚至取得了概括性人權保障條款的地位。[46]我國司法實踐中也在實際運用正當程序原則審查行政行為。[47]隨著私人規制和公權力的界限日益模糊,“私行政”的理念下也日益要求參與社會事務并實際履行公益和人權保障功能的私主體,也應接受國家對其組織形式和程序的監督義務。[48]而算法的自動化決策因披著技術的外衣,一直拒絕對利害關系人公開。應用于美國社區管理的“真知”算法的設計者理查德伯克坦陳:“不透明性可以幫助我擺脫一切麻煩我在做出對某些人不利的預測時,從來不會給出理由,我唯一的目標就是做出正確的預測。”[49]正當程序下,受到不利決策的自動化決策的人應有權知曉決定的內容與理由,并享有申訴和申辯的機會。
           
            (三)事后救濟:解釋權與有限主體化
           
            法律規范行為主要有兩種機制:事前(ex ante)和事后(ex post)。[50]前者是預防型的,即預測并防止某一事件的發生,后者為反應型,即對某一事件作出反應。[51]無救濟則無權利,算法規制必然包含事后救濟和追責制度的建立。
           
            1.算法解釋權制度。算法解釋權指的是,當自動化決策的具體決定對相對人有法律上或者經濟上的顯著影響時,相對人向算法使用人提出異議,要求提供對具體決策解釋,并要求更新數據或更正錯誤的權利。[52]目前學界對自動化決策算法法律制度的討論多集中在如何進行風險防范,[53]而算法解釋權意在風險發生后如何分配損害。
           
            算法解釋權的主體應為認為受到自動化決策不利決策的相對人,如經過算法評估不被雇傭的候選人,量刑和假釋輔助算法決策的相對人等。負有義務者為自動化決策的使用者,包括根據合同自動化決策的使用者如網絡平臺、保險公司、銀行等,也包括使用自動化決策決定涉及資格、權利等事項的公共部門,如決策有關福利發放、犯罪風險評估,教育入學資格等。需要指出的是,當算法的使用者無法提供解釋時(如由于技術能力的限制),算法的開發者有義務進行協助,以為相對人提供具體決策的解釋。
           
            此外,算法的深度學習依賴數據,責任難以從數據流和算法中被識別,只有算法本身才有可能提供合理的解釋。[54]在今年3月7日,谷歌大腦團隊的克里斯歐拉(Chris Olah)公布了一項題為“可解釋性的基礎構件”的研究成果,該成果解決了神經網絡這種最令人難以捉摸的算法的可視化問題,谷歌將其比喻為人工神經網絡的核磁共振成像(MRI)。這種可視化解釋技術簡化了相關信息,使算法的工作狀態回到了“人類尺度”,能夠被普通人看懂和理解。未來這種“解釋算法的算法”或者“監督算法的算法”必將成為算法規制的革新手段。
           
            2.算法有限主體化。在現行可能的規范手段中,可對算法復雜性列出定性尺度,有助于評估算法自主程度并因應性地予以規范。算法主體性不同于法人等法律擬制制度,而是人造物基于智能性而非為法律規制便宜性獲得的法律主體地位。算法法律主體化后,可能享有個人財產,享有一定言論自由,承擔有限侵權責任,并受到法律保護不受到攻擊、傷害。[55]人工智能,機器學習和機器人領域的前沿領域,無論是智能合約,高頻交易算法(時間跨度是人類無法察覺的),還是未來的機器人,都強調自主性。面對此類超級智能體的出現,人類的本能想法是賦予人工智能算法以法律主體地位,并發展一系列相應制度以納入現有法律體系規制框架內。2016年,歐洲議會的“機器人法”立法建議報告提出:“從長遠來看要創設機器人的特殊法律地位,以確保至少最復雜的自動化機器人可以被確認為享有電子人(elec- tronic persons)的法律地位,有責任彌補自己所造成的任何損害,并且可能在機器人作出自主決策或以其他方式與第三人獨立交往的案件中適用電子人格(electronic personality)。”賦予人工智能體以法律主體地位的設想否定了來源定律,即假定任何給定的機器人或算法系統都有創造者,控制者或所有者。
           
            人工智能時代法律政策是基于風險的制度選擇和法律安排。[56]本文是對人工智能時代社會結構性變革應對研究的拋磚引玉,具體制度設計仍有待法學學者的深入研究。

          【作者簡介】
          張凌寒(1982-),女,河北張家口人,法學博士,東北師范大學政法學院副教授,北京航空航天大學博士后研究人員,主要研究方向:刑法學。感謝龍衛球老師在本文撰寫過程中給予的悉心指導,作者文責自負。
          【注釋】
          [1]Northpoint公司開發的犯罪風險評估算法COMPAS對犯罪人的再犯風險進行評估,并非出一個再犯風險分數,法官可以據此決定犯罪人所遭受的刑罰。Kirchner, Julia Angwin Surya Mattu, Jeff Larson, Lauren.2016.‘Machine Bias: There’s Software Used Across the Country to Predict Future Criminals. And It’s Biased Against Blacks.’ ProPublica.https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing.2017年11月1日訪問。
          [2]參見[美]克里斯托弗斯坦納:《算法帝國》,李筱瑩譯,人民郵電出版社2014年版,第21頁。
          [3]參見[美]克里斯托弗斯坦納:《算法帝國》,李筱瑩譯,人民郵電出版社2014年版,第22頁。
          [4]參見王遷:《論“信息定位服務”提供者“間接侵權”行為的認定》,載《知識產權》2006年第16期。
          [5]參見胡泳:《眾聲喧嘩:網絡時代的個人表達與公共討論》,廣西師范大學出版社2008年版,第116頁。
          [6]參見王遷:《信息網絡傳播權保護條例中“避風港”規則的效力》,載《法學》2010年第6期。
          [7]參見Metro-Goldwyn-Mayer Studios, Inc.v. Grokster, Ltd.,545U. S.913 at948(2005).
          [8]見北京市高級人民法院《(2007)高民初字第1201號民事判決書》。
          [9]如美國、澳大利亞等國版權法學界與實務界均認為,提供指向侵權文件站點的鏈接并非“直接侵權”。有關搜索鏈接行為法律性質的認定對于信息定位鏈接行為不是“網絡傳播行為”、不構成“直接侵權”的結論,在國際上是高度一致的。參見梁志文:《論版權法之間接侵權責任》,載《法學論壇》2006年第5期。
          [10]“信息定位服務”提供者一般有監視被鏈接信息內容的能力。因此,在早期的網絡侵權訴訟中,法院通常會基于“信息定位服務”提供者沒有發現并及時制止他人利用自己的服務實施侵權而推定其至少存在過錯,應當承擔侵權法律責任。但隨著信息網絡技術的飛速發展,法院這一“過錯推定”的做法極大地影響了網絡服務業的發展。法澄清適用于網絡環境的“幫助侵權”規則。美國《千禧年數字版權法》以及歐盟《電子商務指令》均一致規定:網絡服務商沒有監視網絡、尋找侵權活動的義務。對此,盡管我國尚未有法律明確承認這一規則,但相關判例卻認可了該規則。
          [11]“空白搜索框”的搜索模式是,“信息定位服務商”通過設置搜索框向用戶提供其所選定的關鍵詞的搜索鏈接。在這種搜索模式下,搜索引擎按照用戶輸入的關鍵詞進行自動查找并列出指向第三方網站或其中文件的鏈接,用戶選擇輸入什么樣的關鍵詞直接決定了其搜索信息的精確性,而不能決定該搜索出的信息是否侵權。換句話說,它可以搜索出任何內容,搜索出的信息既可能是侵權的,也可能是公有領域的信息,或者經權利人許可傳播的不侵權的內容。因此,從這種意義上說,“空白搜索框”是一個中立的技術工具,具有“實質性非侵權用途”。
          [12]參見王遷:《“索尼案”二十年祭——回顧、反思與啟示》,載《科技與法律》2004年第4期。
          [13]參見梅夏英、劉明:《網絡侵權歸責的現實制約及價值考量——以侵權責任法第36條為切入點》,載《法律科學(西北政法大學學報)》2013年第2期。
          [14]互聯網平臺,也被稱為互聯網服務提供商。相關研究可參見周漢華:《論互聯網法》,載《中國法學》2015年第3期。
          [15]轉引自趙鵬:《私人審查的界限——論網絡交易平臺對用戶內容的行政責任》,載《清華法學》2016年第6期。
          [16]參見趙鵬:《私人審查的界限——論網絡交易平臺對用戶內容的行政責任》,載《清華法學》2016年第6期。
          [17]參見Hogan B. The presentation of self in the age of social media: Distinguishing performances and exhibitions online. Bulletin of Science, Tech- nology & Society, 2010,30(6): 377-386.
          [18]為加強網絡言論管理,德國聯邦議會周五通過了新的網絡管理法,新法將于10月正式實施。在此法律下,Facebook等社交媒體未能在24小時內刪除“顯而易見的非法內容”——包括仇恨性言論、誹謗及煽動暴力等。http://finance.sina.com.cn/roll/2017-07-01/doc- ifyhryex5667798.shtml 2017年7月15日訪問。印尼要求社交媒體關閉宣揚極端言論的賬戶。印尼通信部長警告社交媒體不關閉激進內容賬戶將被阻止共享http://finance.sina.com.cn/roll/2017-07-01/doc-ifyhryex5667798.shtml 2017年7月12日訪問。
          [19]參見《強化網站主體責任正當時》,中華人民共和國互聯網信息辦公室官方網站,http://www.cac.gov.cn/2016-12/22/c_1120166441.htm 2017年7月15日訪問。
          [20]參見Diakopoulos, N. Algorithmic accountability: journalistic investigation of computational power structures. Digit. Journal.3(3),398–415(2015).
          [21]Ben Wagner, Efficiency vs. Accountability?– Algorithms, Big Data and Public Administration.https://cihr.eu/efficiency-vs-accountability- algorithms-big-data-and-public-administration/2017年12月14日訪問。
          [22]2016年,一名叫Eric L. Loomis的被告人被判處了6年有期徒刑,部分原因是COMPAS認定他為“高風險”。Loomis認為法官對量刑算法的依賴侵害了他的法定訴訟權益。他提出審查COMPAS算法的請求,被威斯康辛州立法院駁回,提交給美國最高法院后也于2017年6月宣告訴訟失敗。參見《紅星專訪美國機器判案法院:機器說你有罪,你果然有罪》,http://3g.163.com/news/article/CK3OKBQF0514ADND.html.
          [23]淘寶自動化決策對用戶違約的認定(6.1),“6.1淘寶可在淘寶平臺規則中約定違約認定的程序和標準。如:淘寶可依據您的用戶數據與海量用戶數據的關系來認定您是否構成違約;您有義務對您的數據異常現象進行充分舉證和合理解釋,否則將被認定為違約。”見《淘寶平臺服務協議全文(2016年10月版)》,http://b2b.toocle.com/detail--6361764.html, 2017年11月23日訪問。
          [24]參見[美]盧克多梅爾:《算法時代:新經濟的新引擎》,胡小銳、鐘毅譯,中信出版社2016年版,第87頁。
          [25]參見Gillespie, T. Algorithms(digital keywords).(2014) available at http://culturedigitally.org/2014/06/algorithm draft digitalkeyword/。
          [26]參見Lepri B, Staiano J, Sangokoya D: The Tyranny of Data? The Bright and Dark Sides of Data- Driven Decision- Making for Social Good, Transparent Data Mining for Big and Small Data. Springer International Publishing, 2017: 3-24.
          [27]參見胡凌:《人工智能視閾下的網絡法核心問題》,載《中國法律評論》2018年第2期。
          [28]淘寶自動化決策對用戶違約的認定(6.1),“6.1淘寶可在淘寶平臺規則中約定違約認定的程序和標準。如:淘寶可依據您的用戶數據與海量用戶數據的關系來認定您是否構成違約;您有義務對您的數據異常現象進行充分舉證和合理解釋,否則將被認定為違約。”見《淘寶平臺服務協議全文(2016年10月版)》,http://b2b.toocle.com/detail--6361764.html, 2017年11月23日訪問。
          [29]參見Pasquale F. The black box society: The secret algorithms that control money and information. Harvard University Press, 2015.
          [30]相反,劍橋分析還表示,它的政治部門SCL Elections公司是從一家公司獲得的授權數據,這家公司是通過Facebook提供的工具獲取數據——這是“當時的普遍做法”。http://36kr.com/p/5128498.html, 2018年6月20日訪問。
          [31]參見張欣:《數字經濟時代公共話語格局變遷的新圖景——平臺驅動型參與的興起、特征與機制》,載《中國法律評論》2018年第2期。
          [32]參見張凌寒:《風險防范下算法的監管路徑研究》,載《交大法學》2018年第4期。
          [33]參見Pasquale F. The black box society: The secret algorithms that control money and information. Harvard University Press, 2015.
          [34]參見Geoff Mulgan: A machine intelligence commission for the UK, Mulgan, https://www.nesta.org.uk/team/geoff-mulgan/.
          [35]參見Devin Coldewey: NewYork City moves to establish algorithm-monitoring task force.https://techcrunch.com/2017/12/12/new-york-city- moves-to-establish-algorithm-monitoring-task-force/2018年6月18日訪問。
          [36]參見Macaulay T. Pioneering computer scientist calls for National Algorithm Safety Board.2017,201.
          [37]參見赫拉利:《人類簡史》,中信出版社2014年版,第289頁。
          [38]參見周濂:《用政治“鎖死”科技?》,載《讀書》2016年第7期。
          [39]Robot law. Edward Elgar Publishing, 2016.
          [40]參見《國信辦聯合調查組結果:百度競價排名影響魏則西選擇百度:從6方面整改》,http://www.guancha.cn/economy/2016_05_09_359617.shtml
          [41]參見《內涵段子”被永久關停張一鳴發文致歉反思》,http://www.cankaoxiaoxi.com/society/20180423/2262696.shtml.
          [42]參見《民航局:6月1日起民用無人機實行實名登記制》,http://www.cnhan.com/html/tech/20170516/599807.htm
          [43]ROBINSON, D., Yu H. Knowing the score: New data, underwriting and marketing in the consumer credit marketplace. A Guide for Financial In- clusion Stakeholders, 2014: 1-34.https://www.teamupturn.com/static/files/Knowing_the_Score_Oct_2014_v1_1.pdf. Ifeoma Ajunwa, EEOC Public Meeting on Big Data in the Workplace (Oct.13,2016),在此文中作者描述了信用算法對數據的使用。Clint Boulton, The hidden risk of blind trust in AI’ s ‘ black box’, at http://www.cio.com/article/3204114/artificial-intelligence/the-hidden-risk-of-blind-trust-in-ai-s-black-box.html(July 6,2017)。在此文中作者描述了雇傭算法的驗證。
          [44]如果機器人對人造成了損害,無論是適用羅馬法中的“繳出賠償”(noxoe deditio)原則(即把機器人交給受害者或其家屬處置),還是讓機器人支付賠償金或坐牢,最終承擔責任的始終是機器人的“主人”,因為機器人不可能有獨立的收入,限制它的“自由”則等于剝奪了其“主人”的財產權。參見鄭戈:《人工智能與法律的未來》,載《探索與爭鳴》2017年第10期。
          [45]參見周佑勇:《行政法的正當程序原則》,載《中國社會科學》2004年第4期。
          [46]參見余軍:《正當程序:作為概括性人權保障條款——基于美國聯邦最高法院司法史的考察》,載《浙江學刊》2014第6期。
          [47]參見何海波《司法判決中的正當程序原則》,載《法學研究》2009年第1期。
          [48][日]山本隆司:「公私協働の法構造」碓井光明他編『公法學の法と政策(下)』,有斐閣2000年版,556頁。轉引自杜儀方:《公私協作中國家責任理論的新發展——以日本判決為中心的考察》,載《當代法學》2015年第3期。
          [49]Angwin, J., Larson, J., Mattu, S.and Kirchner, L.(2016) Machine Bias. There is software that is used across the county to predict future criminals. And it is biased against blacks, ProPublica, 23 May 2016.
          [50]參見Calabresi G, Melamed A D. Property rules, liability rules, and inalienability: one view of the cathedral. Harvard law review, 1972: 1089-1128. See also Lessig L. Code and Other Laws of Cyberspace'Basic Books, 1999.1999.
          [51]參見龍衛球:《數據新型財產權構建及其體系研究》,載《政法論壇》2017年第4期。
          [52]參見張凌寒:《商業自動化決策的算法解釋權研究》,載《法律科學(西北政法大學學報)》2018年第3期。
          [53]參見司曉、曹建峰:《論人工智能的民事責任:以自動駕駛汽車和智能機器人為切入點》,載《法律科學(西北政法大學學報)》2017年第5期。
          [54]參見張凌寒:《商業自動化決策的算法解釋權研究》,載《法律科學(西北政法大學學報)》2018年第3期。
          [55]參見胡凌:《人工智能視閾下的網絡法核心問題》,載《中國法律評論》2018年第2期。
          [56]參見周漢華:《論互聯網法》,載《中國法學》2015年第3期。

          本網站文章僅代表作者個人觀點,不代表本網站的觀點與看法。
          轉載請注明出自北大法律信息網
        0
        北大法律信息網
        www.chinalawinfo.com
        法律動態
        網站簡介
        合作意向
        網站地圖
        隱私政策
        版權聲明
        北大法寶
        www.pkulaw.cn
        法寶動態
        法寶優勢
        經典客戶
        免費試用
        產品服務
        專業定制
        購買指南
        郵件訂閱
        法律會刊
        北大英華
        www.pkulaw.com
        英華簡介
        主要業務
        產品列表
        英華網站
        聯系我們
        用戶反饋
        返回頂部
        二維碼
        不要添了,我高潮了视频