<track id="dw34f"><ruby id="dw34f"><menu id="dw34f"></menu></ruby></track>
  • <pre id="dw34f"><label id="dw34f"><xmp id="dw34f"></xmp></label></pre>
      1. <table id="dw34f"></table>

          <td id="dw34f"></td>

          1. 人工智能量刑的制度困境與完善路徑
            2021/3/5 16:01:08  點擊率[192]  評論[0]
            【法寶引證碼】
              【學科類別】人工智能
              【出處】《閱江學刊》2021年第1期
              【寫作時間】2021年
              【中文摘要】在量刑中運用人工智能技術對于法院提高訴訟效率有顯著作用,因此中外法院的人工智能量刑實踐已不鮮見。人工智能量刑存在技術障礙和法律風險,可能沖擊公正價值,影響法官自由心證,侵害當事人權利。應客觀看待人工智能量刑的技術局限和價值追求,妥善處理人工智能與法官量刑權的關系,嚴格保障被告人的正當程序權利,并適當兼顧當事人隱私權和個人信息權,從而實現人工智能技術在量刑中的合理運用,消解其負面影響,發揮科技推動法治發展的積極作用。
              【中文關鍵字】人工智能;量刑;法官量刑權;權利保護
              【全文】

                一、引  言
               
                人工智能“忽如一夜春風來”般地在司法領域成了高頻熱搜詞,運用人工智能技術似乎成了一種潮流甚至時尚,許多國家和地區的法院都對司法智能化的議題充滿熱忱。
               
                所謂人工智能,其核心內容一是令機器做人類所能做之事,甚至比人類做得更好,二是令機器理解由人類或機器甚至其他動物做出的智能化行為,然而當前司法實踐領域所運用的“人工智能”技術是否能夠實現這兩方面的內容尚值得研究。
               
                即便其達到此種智能化水平,運用人工智能技術也會給司法裁判帶來一系列難題,特別是當其被用于刑事案件的量刑時,不但影響法官行使裁判權,更直接關系到被告人的生命、自由、財產等最重要法益,豈可不慎?
               
                面對人工智能量刑給原有的刑事司法制度帶來的沖擊和挑戰,雖不必抵觸抗拒,卻需細致考慮人工智能量刑是否能實現目的與效果的同一、是否存在技術障礙和法律風險等具體問題,從而依照司法的基本規律和原則規制人工智能量刑,實現對司法公正、權利保障等核心價值的正向保障。
               
                二、人工智能量刑的司法實踐
               
                在刑事量刑中引入人工智能的直接目的在于應對案件積壓問題,并以人工智能技術的選擇性替代和智能優化幫助法官及時地定紛止爭,以提升司法實踐的效率和便捷性。而在美國盧米斯訴威斯康星州案中,法院對于借助人工智能技術進行量刑采取了謹慎保守的態度。
               
                該案的核心在于法院在量刑時使用的一種基于證據的風險評估工具COMPAS是否侵犯了被告人享有正當程序的權利。州法院認為,在決定適用刑罰時應該使用COMPAS的報告,主要基于以下三個主要因素:犯罪的嚴重性、犯罪的性質和保護公眾的需要。然而,法院對于評估如何分析風險的信息掌握有限,無法滿足COMPAS的適用前提。
               
                此外,盧米斯指出,法院在判決時使用COMPAS風險評估,侵犯了被告的正當程序權利,理由有三:第一,非基于準確信息判處刑罰,剝奪了被告的正當權利,此與風險評估工具的專營性不無關系;第二,巡回法院對COMPAS風險評估的考慮,相當于根據群體數據作出判決,而不是根據指控和被告的獨特性格作出個別判決,侵犯被告獲得個別化量刑的權利;第三,在量刑中不當使用性別評估,嚴重違反了被告不以性別為基礎進行判刑的正當程序權利。
               
                盡管如此,法院在最終的裁判結論中仍然堅持認為量刑時對COMPAS風險評估的考慮不會侵犯被告的正當程序權利。該案的判決引發了許多爭議,有學者認為:一方面,人工智能在量刑中的運用仍可能侵犯被告知情、不受偏見、有效辯護、平等對抗等權利;另一方面,人工智能在使司法高效便捷的同時,也再次敲響了司法裁判保障被告人憲法性權利、呵護公平正義的警音。
               
                我國法院在量刑中積極運用人工智能技術。2017年,上海高院研發了一套智能輔助辦案系統,又名“206系統”。作為一套推進以審判為中心的訴訟制度改革軟件,“206系統”吸取了以往重大冤假錯案中普遍存在的事實不清、證據不足等教訓,既能解決刑事案件證據標準適用不統一、辦案程序不規范等問題,又可充分發揮系統自身的校驗、把關和監督功能,確保證據鏈的印證和各訴訟階段的程序合規,提升辦案質量,減少司法任意性。
               
                此外,隨著“智慧法院”和互聯網法院的逐步建成,各地的人工智能辦案輔助工具亦紛紛涌現。例如北京的“睿法官”、江蘇的“法務云”、河北的“智審”、重慶的“法治云”等。
               
                在文書導出、證據相似情況案件推送、辦案程序監督、社會危險性審查、檢查監督、量刑建議參考乃至未來的證據校驗、非法言詞證據排除等司法實踐中,都離不開人工智能的輔助。我國積極開發和運用人工智能辦案輔助系統,不論在推進案件繁簡分流、提高審判效率方面,還是在幫助法官采信證據、促進裁判公平正義方面,人工智能都具有舉足輕重的作用。
               
                盡管如此,此前早就有學者指出,電腦量刑固然能在很大程度上排除在行使自由裁量權方面的主觀任意性,同時也會排除諸如自然法、人權保障、“有恥且格”、預防為主之類的思辨性要素,還傾向于排除對各種不同利益進行權衡、考量等的政策性調整機制。因此,對于人工智能取代人類司法職能的固有風險須予以警惕。
               
                值得注意的是,上述智能輔助辦案系統、“智慧法院”和互聯網法院建設等概念是人工智能在司法中的具體表現,兩者是一般與個別、抽象與具象的關系,而人工智能量刑又是前述概念在量刑方面的具體運用,兩者是整體與部分、系統與要素的關系。
               
                因此,只有在對人工智能量刑的內涵和外延合理界定的基礎上,才能更精準地把握人工智能在司法運用中的脈絡和初衷。
               
                人工智能量刑的目的在于:
               
                其一,公正是人工智能量刑的根本追求。通過人工智能辦案輔助系統的類案推送等功能,法官可以有效對比個案事實下的證據鏈完整度和印證情況,并酌情考量人工智能提供的類案情況下相似的量刑參考依據,從而解決實踐中普遍存在的“同案不同判”情形,最終促進和增強司法裁判的公正性和社會可接受性。
               
                其二,效率是人工智能量刑的首要著眼點。隨著“以數據為中心的人民法院信息化3.0版本”的智慧型法院時代的到來,加之司法實踐中“案多人少”的矛盾日益凸顯,法院在內生動力和外生動力的共同作用下,尤需借助人工智能的辦案輔助功能來處理法官在審理案件前和裁判過程中的技術性操作活動,從而節省更多的時間和精力來進行審判中心環節的自由裁量,并實施更加精準的量刑推算,最終達到相同時間下處理更多、更高質量的案件糾紛之目的,有效緩和人案矛盾。
               
                然而,從司法實踐的實際效果來看,良善的初衷并非能夠順利地如愿以償。如同前述盧米斯案所示,一方面,COMPAS工具確然在幫助法官評估被告的量刑和人身危險性方面具有一定的科學性、便捷性和可操作性,從而在一定程度上提高了法官作出司法判決的效率。
               
                但在另一方面,正是由于技術尚欠成熟的人工智能風險評估工具在裁判量刑中的使用而引發了新一輪的訴訟,從訴訟過程整體的周期和損耗的人力、物力、財力來看,又損害了案件爭議解決的效率。
               
                此外,人工智能量刑技術背后的算法不公開、采樣不均衡、偏見性植入等因素,都會直接或間接地影響被告人辯護權的有效實現,乃至克減其憲法性權利,并容易致使法官忽略個案中的特殊性,僅僅根據人工智能推送的一般大數據樣本草率定論,最終有損實質意義上的公平正義。
               
                在我國對人工智能量刑推崇備至的當下,更是容易催生出唯“人工智能”是瞻的反客為主現象,顛倒法官裁判是主、人工智能是輔的職能配置關系。因此,面對人工智能量刑在應然目標和實然走向之間的鴻溝,我們尤其要警惕當前人工智能量刑的技術障礙與法律風險。
               
                三、人工智能量刑的障礙與風險
               
                透視當前司法實踐中的人工智能量刑現狀,可發現其背后的技術障礙和法律風險。這些障礙和風險會對法官的審判權和當事人的合法權利等產生重大影響。因此,有必要對此進行深入分析,并對人工智能技術在量刑領域的研發與運用持更加審慎的態度。
               
                (一)人工智能量刑的技術障礙
               
                首先,人工智能量刑存在“低智能”障礙。人工智能技術已經駛入快車道,但這并不意味著其足以與人類理性頭腦等同并驅,乃至取代法官的裁判量刑職能,并與之相提并論。
               
                相反,當前的人工智能在很多方面仍然表現為“低智能”,而這種人工“低智能”量刑或將造成的錯誤判決不僅反映著自身技術意義上的不完全可靠,它還意味著以公民的生命、自由、財產、隱私等重要法益為代價,影響量刑裁判本身的公平正義。
               
                正如有學者指出,司法大數據和人工智能開發還存在圖譜構建、情節提取、模型訓練等技術性障礙,應當冷靜反思當前過熱的司法技術主義熱潮。
               
                具體而言,第一,從法律知識圖譜的構建來看,人工智能辦案輔助系統尚不足以涵蓋所有的法律案件類型。盡管人工智能可以通過深度學習將但凡可獲取的案件都納入自己的數據庫中,但是,案件類型紛繁復雜,實在難以窮盡式地學習,而且目前尚有許多裁判文書不上網,因而并沒有進入人工智能深度學習的視野之中。
               
                第二,從法律語言的情節提取來看,由于文義表達的多樣性,人工智能不熟悉法律語言的一詞多義表達習慣,往往會在案件情節檢索過程中發生遺漏。例如犯罪嫌疑人、被告人認罪認罰,除了“認罪”“認罰”等字眼表述,還可以有“主動供述”“接受刑罰”“達成協議”“簽署具結書”等陳述方式,而人工智能目前尚難以自動在這些詞語之間架起關聯。
               
                第三,從司法人工智能的既有模擬訓練來看,其能夠正確輔助司法量刑的前提在于樣本文書的實質正確。即使人工智能可以對當前所有的樣本文書進行窮盡式學習,但由于冤假錯案樣本文書的必然存在,而人工智能只能進行機械式的輸入和輸出,無法對樣本文書自身的正確與否采取價值上的考量和判斷。既然其無法做到對錯案的識別,那么在類案推送的情況下,就極有可能釀成“復使舊冤造新冤”的局面。
               
                其次,人工智能量刑存在封閉性和秘密性的不足。人工智能工具雖被賦予“辦案輔助系統”之定位,但在實際的司法操作過程中,由于算法“暗箱”的存在,往往難以同法官的審判職能進行分工疏離。
               
                具言之,第一,人工智能量刑具有不公開的特點。由于人工智能量刑的技術研發往往都被外包給專業的科技公司來完成,因而自身具有專營性,涉及各個科技公司的商業秘密,其背后所代表的商業利益和專利權直接決定了算法公開的不可行性。而人工智能量刑技術研發所依賴的算法代碼如同司法制度中現存的“二元副卷”、庭審評議、審委會審判等制度悖論一樣,但凡不經法定的公開和監督,那么借以作出的量刑裁判的可接受性就勢必會受到質疑,最終損害司法權威和裁判的公平正義。
               
                第二,裁判的不公開性可能衍生出科技公司在商業利益驅使下對法官的欺騙性。既然人工智能量刑的算法代碼不能被公之于眾,甚至連法官自己也無從知曉,那么類案推送和量刑的依據又是什么?如若不能打開這一“黑匣子”,法官又何以能作出令人信服的量刑裁判?甚至有理由懷疑,人工智能量刑只是一個巧立名目的商業幌子,科技公司極有可能只是為了包裝自己的人工智能產品而造了個噱頭,最終蒙蔽了法官的眼睛,也扭曲了民眾心目中正義的天平。
               
                最后,人工智能量刑存在群體數據缺陷。大數據和算法是人工智能得以運用于裁判量刑的邏輯前提,而算法的基礎是數據,基于錯誤的或者不準確的數據,進行算法決策,得出的結論自然是錯誤的、有偏差的,因而采樣的范圍和方法直接決定了人工智能量刑的質量和效果。
               
                質言之,一旦人工智能辦案輔助系統的數據庫中充斥著帶有倫理性、制度性偏見的樣本,那么對于法官來說,其一,在依靠人工智能進行量刑裁判的過程中,勢必會受到數據庫中預采樣本的影響,從而偏離對本案被告的個別化判斷,相當于通過數據樣本的選擇架空了個案裁量,間接剝奪了法官的專屬定罪量刑權。其二,對于被告人來說,根據群體數據而非根據指控和被告的獨特性作出個別化的量刑判決,極有可能會產生潛在的誤解。
               
                例如,一個從未有過暴力犯罪的人,僅僅因為人工智能工具依據一般群體特征所得出的結論,認定該被告的人格特質具有暴力犯罪的高度人身危險性,忽略該案被告人所在案件的特殊性、案情的復雜性、證據的多樣性等因素,就會造成對被告人量刑裁判的實質性不公,客觀上強令其為多數人之“惡”埋單。
               
                因此,從這個角度來看,法官對被告作出量刑裁判仍需倚仗控辯雙方向法庭提供更加完整的信息,人工智能量刑在尚未克服其群體數據這一缺陷之前,只是作為一個必要但不充分的判斷要素存在。
               
                (二)人工智能量刑的法律風險
               
                首先,人工智能量刑會沖擊公正價值。法院一方面積極地卷入追求人工智能的司法狂熱,享受人工智能量刑帶來的智能便捷,另一方面恰因這種狂熱而愈發陷入對高效司法的片面追求之中,因而量刑裁判的公正價值正面臨來自效率價值的風險沖擊,增加了審判的不確定性。
               
                除此之外,更值得警惕的是,人工智能內含的算法代碼本身就可能損害公正。盡管算法是一套客觀獨立出來的規則程式,但其在誕生之初不免帶有代碼設計者的主觀價值預斷,而這種主觀預斷所衍生出來的或隱或顯的偏見或歧視,一旦加入特定人工智能程序而運用于量刑判斷,則可能在運用此種模式化程序大大加快案件審理進程的同時導致對實體公正的損害,甚至導致錯誤裁判,最終影響司法權威。
               
                其次,人工智能量刑會影響法官的自由心證。其一,量刑是一個由法官來動態權衡的過程,包含大量的邏輯推導和論證說理等思維過程。但是,一旦將量刑的重任呈交給機器,那么,人工智能量刑勢必會走向機械化,其模式類似于中世紀的法定證據制度。因而,法官在進行心證的過程中,難免會受到機器刻度化量刑的影響,進而向這一機械式結果靠攏。
               
                其二,雖然人工智能辦案輔助系統是一個沒有感情的機器,但是程序員在編寫算法代碼的過程中,難免會植入自身的情感、倫理、價值觀等主觀因素,進而在某種程度上形成一種偏見,而這種偏見會影響乃至取代法官的心證判斷,最終造成附著在算法代碼上的第三方偏見僭越法官的專屬審判權。
               
                其三,對于被告人來說,可能受到二次傷害。其量刑要先受到來自算法代碼的偏見審視,后經法官有意無意的裁斷肯認,使得先前的歧視得到鞏固,進而以算法決策的方式損害規則適用的公正性,最終甚至擴大刑事司法的不公正。
               
                其四,由于法院不具備研發人工智能量刑工具的能力,因此在實踐中只能采取大量外包的做法,由科技公司或程序員來負責研發并投入使用,至此便產生了機器量刑和法官量刑之間的博弈,甚至法官心證所受人工智能的影響只能是單向性的,既使得人工智能量刑的影響力更勝一籌,亦造成法官無法對電腦量刑采取有效的監督。
               
                最后,人工智能量刑會減損當事人的訴訟權利、隱私權和個人信息權。算法“黑匣子”的存在使得法官成為了一個“強橫”的裁判者,特別是在法官自己也無從知曉人工智能算法為何的情形下,保障被告人的知情權更是天方夜譚。一旦被告人無從得知人工智能量刑的計算和判別依據,那么被告的不知情將會直接導致辯方無法進行有效的辯護,進而庭審的控辯審三角結構發生失衡,最終損害被告人的一系列訴訟權利,乃至影響量刑裁判的公平正義和可接受性。
               
                此外,對于被人工智能量刑工具收集個人信息的被告人而言,還存在著隱私權和信息權被侵犯的隱患。隱私強調的是一種私生活的安寧,而個人信息更強調姓名、身份證、住址等身份信息的可供識別,此為根據兩者不同的請求權基礎而作二元劃分。
               
                因此,人工智能量刑工具在司法適用的過程中,既有可能因為搜集并使用先前案件被告人的身份信息而侵犯其個人信息權,亦有可能因為檢索到的案件情節、內容涉及個人私生活而侵犯其隱私權,尤其發生在當前被告人不存在對涉刑案件所搜集的個人信息主張救濟權利的情況之下。
               
                四、人工智能量刑的合理運用
               
                人工智能用于量刑,和其他任何科技手段運用于司法一樣,必然會對既有的司法制度造成影響。針對上文所述的問題和挑戰,可以就客觀地看待人工智能量刑的技術局限和價值追求,妥善處理人工智能與法官量刑權的關系,嚴格保障被告人的正當程序權利,適當兼顧當事人隱私權和個人信息權等幾方面著手進行解決。
               
                (一)客觀看待人工智能量刑的技術局限和價值追求
               
                在科技快速發展的今天,人工智能等新技術運用于量刑等刑事司法活動,從某種意義上看是一種必然趨勢,如果運用得當則能夠幫助法官作出迅速、準確的量刑。因此,在量刑的問題上大可不必“閉關自守”而排斥人工智能等新技術的使用。但是另一方面,當前的人工智能技術畢竟處在“低智能”“弱智能”的發展階段,甚至有一些“偽智能”產品充斥其中。
               
                此外,人工智能技術的開發與其他任何科學技術的發展一樣,是以一定的錯誤率或失敗率為代價的,但是如上文所述,刑事案件的量刑直接涉及被告人的生命、自由、財產等最重要法益,也關系到刑事司法能否守住“社會公平正義的最后一道防線”,而司法制度是無法承受與科技開發一樣的錯誤率和失敗率的。
               
                因此,對于人工智能量刑仍應保持審慎的態度,在運用人工智能量刑時,不但要認真甄別不同產品的智能化程度,而且應謹慎選擇經過嚴格科學檢驗且技術成熟的人工智能產品。
               
                在確保用于量刑的人工智能產品技術層面的可靠性之外,在運用人工智能量刑的價值取向上,除了承認其具有提高司法效率的功利性價值之外,更需強調對于保障司法公正和保護公民權利的追求。公正是司法的生命線,是司法制度存在的根本正當性基礎。對于刑事司法而言,公正永遠是高于效率的第一價值,即便是以追求司法效率為驅動力的人工智能量刑也不能違背“公正優先、兼顧效率”的司法原理。
               
                倘若在個案的量刑中運用人工智能技術可能導致對司法公正的威脅,特別是可能導致實體方面顯失公正的錯誤量刑或者程序方面的嚴重違法時,則應毫不吝惜地放棄人工智能的運用。而對司法公正的追求必然要求“尊重和保障人權”,因為對公民權利的保護程度已經是現代法治國家判斷司法公正是否得以實現的重要標桿,這在刑事量刑中亦不例外。
               
                當以具備普遍性、非人格性為特征之形式合理性品格的人工智能技術運用于量刑時,可能因其技術特征和品性導致與人權保障的要求發生沖突,從而出現上文所述對當事人的正當程序權利和隱私權或個人信息權利的影響。當此種情形出現時,應當“以保護人的權利和福祉為其倫理基礎”,運用價值位階分析法,優先保障當事人的高位階訴訟權利,從而消解人工智能量刑引發的工具理性與價值理性的沖突。
               
                (二)妥善處理人工智能與法官量刑權的關系
               
                針對上文所述的在刑事案件量刑中運用人工智能技術給法官量刑權帶來的影響,可以從明確人工智能技術在量刑中的職司、適度分離技術人員與司法人員、強調法官的裁判權責和貫徹“以審判為中心”的司法改革目標進而依法采納量刑證據四個方面著手加以解決。
               
                首先,人工智能運用于量刑應被明確定位為輔助工具。當前,人工智能技術的低智能化現狀使得由人工智能替代法官量刑在技術上不可行,但退一步而言,即便日后人工智能技術取得了重大突破,實現了對人類智能化行為的模仿和理解,但由于其固有的去情感化特征,也無法勝任量刑工作中的情感投入、價值權衡。
               
                因此,“人的糾紛只能由人來解決”,量刑中,人工智能只能扮演輔助工具的角色,主要從事信息收集、數據分析、類案推送的工作,至多允許其提出量刑建議供法官參考,而不得使其主導量刑。
               
                其次,在運用人工智能量刑過程中,技術人員與司法要有適度的職司分離。為防止技術人員將其特定利益或觀念加入人工智能量刑工具中,或者技術人員與司法人員交往過密導致職能混淆或利益交換,應在二者之間劃定職司界限。
               
                技術人員的工作應限定于人工智能量刑工具的研發、維護和修繕等方面,而不得介入具體案件的量刑;法官在量刑中使用人工智能工具遇到技術障礙時可以就技術問題求助于技術人員,但應按照特定的程序進行,例如通過法院后勤保障或審判管理部門統一協調安排,一般情況下不宜由法官直接接觸技術人員,從而對二者之間的交往形成一定程度的阻斷和監管。
               
                再次,強調法官針對量刑問題之主導權和司法責任。黨的十八屆三中全會要求貫徹落實“讓審理者裁判、由裁判者負責”的司法責任制,其核心在于實現裁判者的權責統一。在量刑問題上也需要強調此種權責一致,厘清主體與工具的權責關系。
               
                一方面,作為裁判者的法官必須對量刑有主導的權力,且其量刑裁判權具有最終性,作為量刑輔助工具,人工智能的運用不得侵犯此種法官的主導權;另一方面,法官必須對其量刑裁判承擔相應的司法責任,即一旦發生錯誤裁判,法官應按照司法責任制的要求受到追責,其量刑裁判是否依據人工智能工具之量刑建議作出,不能成為其推卸責任之借口。
               
                最后,應進一步貫徹“以審判為中心”的司法改革目標,依法采納量刑證據。黨的十八屆四中全會提出推進“以審判為中心”的司法改革,其核心內容在于強化審判權在司法權力配置和運行中的核心地位,從而理順偵查權、起訴權和審判權的關系。
               
                在刑事案件量刑中,人工智能技術的運用也需要以此目標作為基點,在公檢法信息化系統逐步走向互聯互通的現實下,人工智能工具會從公檢法系統中獲得相關數據,其中的一些數據未必具有刑事訴訟法所規定的審判階段作為定案依據的證據能力,在我國定罪和量刑程序合一的現實前提下,不應作為量刑的依據。
               
                因此,運用人工智能輔助量刑時所運用的證據,仍需按照“以審判為中心”的要求,遵循審判的證據運用規則加以審查判斷,保證證據的合法性。
               
                (三)嚴格保障被告人的正當程序權利
               
                為避免人工智能量刑給被告人權利帶來過度的負面影響,從嚴格保障公民正當程序權利的思路出發,可以針對以下三方面問題進行調整和完善。
               
                第一,以辯方的數據訪問權替代閱卷權。我國《刑事訴訟法》第40條規定:“辯護律師自人民檢察院對案件審查起訴之日起,可以查閱、摘抄、復制本案的案卷材料。其他辯護人經人民法院、人民檢察院許可,也可以查閱、摘抄、復制上述材料。”此即辯護人閱卷權的規定,該規定不但引發了閱卷權之權利主體爭議,而且因其將閱卷范圍限于“案卷材料”即訴訟文書和證據材料,已經無法應對司法信息化的現實需求,也無法回應人工智能量刑帶來的挑戰,因此宜以數據訪問權代替閱卷權。
               
                所謂數據訪問權是指數據主體可以從數據控制者處確認其個人數據是否正被處理,并在此種情形下可以訪問個人數據及獲得相關信息的權利,賦予辯方此種權利,不但將辯方得以知悉的范圍由“案卷材料”擴展至涉案個人數據,從而應對人工智能量刑工具海量收集個人數據而帶來的控辯雙方在量刑數據運用力量失衡方面的困難,使得辯方在進行辯護時對其被用于量刑的個人數據充分知情。
               
                第二,人工智能量刑工具的算法適度向辯方和法官公開。人工智能技術用于量刑的一大技術障礙即在于算法的不公開,此種不公開既包括不向辯方公開,也包括不向法官公開。
               
                人工智能算法的不公開,主要是基于專利保護、商業秘密等方面的利益考慮,并非毫無道理。然而刑事量刑涉及上文所述的公民生命、自由、財產等更為重要的法益,較之商業利益具有價值位階上的優先性,因此人工智能量刑工具開發商和運營商完全拒絕向辯方和法官公開其算法,可能導致這些更重要的法益受損。
               
                倫奎斯特大法官曾言:“在我們國家,貫穿政治理論長期歷史和憲法發展歷程的最難以裁決的案件是存在兩種相互沖突的價值的案件,每一價值都應當得到應有的尊重,但它們卻相遇在此消彼長的競爭當中。”
               
                那么基于價值平衡的理念,商業利益應當向公民的生命、自由、財產權作適當妥協,將人工智能工具中直接關系到量刑準確性和公正性的關鍵算法向辯方和法官作出適度公開,使得辯方能夠有效準備辯護,也令法官對人工智能工具如何得出量刑建議有充分理解。
               
                當然,此種公開并不要求人工智能量刑工具開發商和運營商徹底放棄其商業利益,否則必然削減其維護和開發此類人工智能量刑工具的動力,對此可以通過各方簽署協議的方式,確保算法公開只被用于刑事量刑之目的,從而兼顧開發商和運營商的商業利益。
               
                第三,充分發揮專家輔助人的作用。我國《刑事訴訟法》第197條規定:“公訴人、當事人和辯護人、訴訟代理人可以申請法庭通知有專門知識的人出庭,就鑒定人作出的鑒定意見提出意見。”
               
                法律對專家輔助人制度的規定為其參與人工智能量刑奠定了基礎:在我國刑事訴訟定罪程序與量刑程序合一的現實下,專家輔助人出庭提出的意見不但可以針對定罪也可以針對量刑,于是在上文所述的辯方行使數據訪問權、人工智能算法適度公開的前提下,能夠就人工智能量刑工具在收集數據、算法運行、作出量刑建議等技術方面問題提出專家意見,從而協助法官確保人工智能量刑的科學性。
               
                (四)適當兼顧當事人隱私權和個人信息權
               
                較之于生命、自由、財產,個人隱私和個人信息保護的價值位階雖然較低,但在信息時代下亦是重要議題,在人工智能量刑的背景下,應當兼顧公民的隱私權和個人信息權,以免受上文所述之負面影響。
               
                一方面,應當從僅肯認隱私權轉向隱私權與個人信息權“二元化”保護。傳統上刑事司法對隱私權的保護歷史較長,如美國在卡茨案后即確立隱私權的主客觀雙重判斷標準。隱私權保護路徑的優勢在于其不必對原有制度進行大幅修改,例如可以利用刑事訴訟對搜查扣押制度的既有規定實現權利保護。
               
                然而此種隱私權保護路徑存在天然缺陷,其著眼點通常在于取證之時刻,對證據及其承載信息的后續使用關注不足,且往往忽視相對人的主觀意愿。隨著個人信息權從隱私權中獨立,發展出隱私權和個人信息權“二元化”保護的模式,這同樣適用于刑事司法領域的量刑中。
               
                在人工智能被運用于刑事案件量刑的背景下,對于人工智能收集的用于量刑的數據和信息,不但要經受隱私權保護路徑下的取證合法性的考量,還要遵守個人信息保護的一些基本原則。
               
                第一,應當區分一般個人信息和敏感個人信息,對于敏感個人信息,其收集使用應有較一般個人信息更為嚴格的審批和監管程序。第二,可以適當引入“知情同意”的個人信息使用原則,在使用個人信息時應先向信息主體告知并取得其同意,在其拒絕同意而該個人信息對于量刑公正有重大意義時再考慮依照法定程序強制取得。第三,明確個人信息監管職責,通過信息加密、設置加密授權觸發機制、設定泄密報告機制等,確保被收集的個人信息僅用于量刑之目的,保障其運用的安全性。
               
                另一方面,應當肯認當事人的被遺忘權。被遺忘權是信息主體在個人信息不再有合法使用之需時要求刪除或停止使用該個人信息的權利,這項權利不但源于刑事司法,在刑事司法中也有適用的空間和必要性。
               
                人工智能量刑必然收集大量個人信息,這些信息在量刑目的完成后是否還有繼續存儲、使用的必要性,值得研究。在此情形下,應當允許當事人特別是已被定罪量刑的罪犯和被害人主張其被遺忘權,向法院申請刪除用于人工智能量刑而收集的個人信息,至于實際是否許可該行使被遺忘權之主張,由法院判斷。
               
                法院可以根據立法者設立相關的標準進行審查,例如,對性侵未成年人罪犯一律拒絕其被遺忘權主張,對嚴重貪賄之職務犯罪罪犯原則上拒絕其被遺忘權主張,對被害人通常許可其被遺忘權主張,也可以賦予法院適度的自由裁量權,由其在個案中根據案件具體情況加以判斷。如此一來,人工智能量刑收集大量個人信息后,可以為當事人提供事后救濟的路徑,從而兼顧量刑公正的目標和個人信息保護的需求。
               
                五、結  語
               
                未來已來,人工智能在刑事案件量刑中的使用已是必然趨勢,這是科技運用于刑事司法這一歷史潮流下不可對抗的產物,因此對于人工智能量刑應抱持開放而謹慎的態度。
               
                人工智能量刑,核心的問題在于人工智能是否會成為強橫的“阿爾法法官”而侵犯法官的審判權,以及其對于當事人的權利是否會造成負面影響。
               
                針對這些問題,通過擺正法律對待人工智能量刑的心態,客觀看待其技術現實并明確應然之價值追求,理順人工智能工具與法官在量刑問題上的角色分配和權限劃分,堅決保障當事人特別是被告人在量刑中的正當程序權利,并兼顧其隱私權和個人信息權,可以發揮人工智能工具對法官量刑的輔助作用,并在其中協助實現量刑的公平正義,從而實現科技運用與法治發展的相向而行。

              【作者簡介】
              鄭曦,法學博士,北京外國語大學法學院教授、碩士研究生導師;顧佳浩,北京外國語大學法學院碩士研究生。

              本網站文章僅代表作者個人觀點,不代表本網站的觀點與看法。
              轉載請注明出自北大法律信息網
            0
            北大法律信息網
            www.chinalawinfo.com
            法律動態
            網站簡介
            合作意向
            網站地圖
            隱私政策
            版權聲明
            北大法寶
            www.pkulaw.cn
            法寶動態
            法寶優勢
            經典客戶
            免費試用
            產品服務
            專業定制
            購買指南
            郵件訂閱
            法律會刊
            北大英華
            www.pkulaw.com
            英華簡介
            主要業務
            產品列表
            英華網站
            聯系我們
            用戶反饋
            返回頂部
            二維碼
            不要添了,我高潮了视频