人工智能法官已經(jīng)上線 但誰能保證它的公平公正?
2017-05-26 11:02:55 來源:人工智能網(wǎng) 熱度:
人工智能已經(jīng)開始在你決定未來的過程中發(fā)揮作用了無論你的Netflix瀏覽偏好是什么,你是否適合抵押貸款,還是你是否與你期望的boss相容。但是,至少就目前而言,我們?yōu)槭裁床荒艹姓J(rèn)讓人工智能在法庭上判定罪犯有罪或無罪是一個(gè)過分的舉動(dòng)?

令人擔(dān)憂的是,這似乎已經(jīng)發(fā)生了。最近美國(guó)首席大法官John Roberts最近出席一場(chǎng)活動(dòng)時(shí),有人問他是否曾預(yù)見到有朝一日“智能機(jī)器在人工智能的驅(qū)動(dòng)下協(xié)助法庭裁決,甚至是更有爭(zhēng)議的司法裁決”。他回應(yīng)道:“這一天已經(jīng)近在眼前,這也給司法部門的工作帶來了巨大壓力。”
Roberts可能指的是最近的Eric Loomis案件,至少有部分的判決建議是來源于一家私人公司的秘密專利軟件,而Loomis最終被判了6年監(jiān)禁。Loomis有犯罪史,他此次是因?yàn)樵谝惠v偷來的汽車中襲警并逃離而被判處死刑,現(xiàn)在他聲稱,他的正當(dāng)程序被侵犯了,因?yàn)樗退穆蓭煻疾荒茏屑?xì)審查或質(zhì)疑生成這一建議的算法是否合理。
這份建議報(bào)告是由一款名為Compas的軟件產(chǎn)品生產(chǎn)的,該產(chǎn)品由Nortpointe公司銷售并出售給法庭。
該計(jì)劃是人工智能研究領(lǐng)域的一種新趨勢(shì)的代表:旨在幫助法官在法庭上做出“更好”的決策或者至少是以數(shù)據(jù)為中心的決策的新趨勢(shì)。
盡管Loomis的報(bào)告的具體細(xì)節(jié)仍被密封,但這份文件可能會(huì)包含許多圖表和圖表,以量化Loomis的生活、行為和再犯的可能性。這可能還包括他的年齡、種族、性別認(rèn)同、瀏覽習(xí)慣,以及……我也不太明白……他的頭骨尺寸。關(guān)鍵是我們什么都不了解。
我們所知道的是,案件的檢察官告訴法官,Loomis展示了“高風(fēng)險(xiǎn)的暴力,高風(fēng)險(xiǎn)的再犯真的是太高的風(fēng)險(xiǎn)了。”
在量刑方面,這些都是標(biāo)準(zhǔn)。法官同意了這份報(bào)告的結(jié)果并告知Loomis說他已經(jīng)“通過公司的評(píng)估,確認(rèn)是一個(gè)對(duì)社會(huì)來說高風(fēng)險(xiǎn)的人”。
威斯康星州最高法院裁定Loomis有罪,并補(bǔ)充說,該公司的報(bào)告給他們的決定帶來了有價(jià)值的建議,但他也說,就算沒有這個(gè)軟件的幫助,Loomis也會(huì)得到同樣的判決結(jié)果。
但我們?cè)趺茨苤肋@一點(diǎn)呢?當(dāng)像Compas這樣的全智能系統(tǒng)給法官提供建議時(shí),會(huì)出現(xiàn)什么樣的認(rèn)知偏差?
現(xiàn)在我們要明確一點(diǎn),那就是威斯康星州法院沒有“非法”的行為這僅僅是一個(gè)不太好的主意而已。其他法院也可以自由地做同樣的事情。
令人擔(dān)憂的是,我們實(shí)際上并不知道人工智能和其他算法在量刑方面的使用程度。
我自己的研究表明,有幾個(gè)司法管轄區(qū)都在類似于學(xué)校那樣“試用”系統(tǒng)進(jìn)行封閉實(shí)驗(yàn),但沒人能公布他們合作伙伴的詳細(xì)情況,也不能公布它們會(huì)在何時(shí)何地使用。
我們也知道,有許多人工智能創(chuàng)業(yè)公司正在爭(zhēng)相打造類似的系統(tǒng)。
然而,在法律中使用人工智能并不是從量刑開始,而是從調(diào)查開始。一種名為VALCRI的系統(tǒng)已經(jīng)被開發(fā)出來,它僅在幾秒鐘內(nèi)就能完成犯罪分析人員的勞動(dòng)密集型工作:費(fèi)力地瀏覽大量的數(shù)據(jù),如文本、實(shí)驗(yàn)室報(bào)告和警方文件,記錄并突出可能需要進(jìn)一步調(diào)查的內(nèi)容。
英國(guó)的西米德蘭警方將在未來三年內(nèi)使用匿名數(shù)據(jù)進(jìn)行測(cè)試總計(jì)達(dá)650萬次。比利時(shí)的警方正在進(jìn)行類似的審判。然而,過去的人工智能和深度學(xué)習(xí)項(xiàng)目涉及大量數(shù)據(jù),一直存在問題。
科技給法庭帶來了許多好處,從影印機(jī)到DNA指紋和復(fù)雜的監(jiān)視技術(shù)。但這并不意味著任何技術(shù)都是進(jìn)步。
雖然在調(diào)查和量刑方面使用人工智能可能有助于節(jié)省時(shí)間和金錢,但它也引發(fā)了一些棘手的問題。ProPublica公司的一份報(bào)告明確指出,佛羅里達(dá)州布勞德縣的黑人被告“更有可能比白人被告誤判為再犯率偏高”。最近,Bath大學(xué)電腦科技專業(yè)的教授Joanna Bryson的工作表明,即使是算法最復(fù)雜的AI(人工智能系統(tǒng))也會(huì)繼承創(chuàng)造它們的人的那些關(guān)于種族和性別的偏見。
更重要的是,把人類特有的決策過程(至少在一定程度上)轉(zhuǎn)移給算法,有什么意義?為什么我們要選擇由我們的同行組成的陪審團(tuán)呢?
法律的標(biāo)準(zhǔn)從來都不是完美的,而是我們作為人類的能力所允許的最好的。我們會(huì)犯錯(cuò)誤,但隨著時(shí)間的推移,我們會(huì)積累知識(shí),知道如何不再犯錯(cuò)誤不斷完善體系。
Comas,以及它這一類的系統(tǒng)代表了法律體系的“黑箱”。這必須強(qiáng)行加以抵制。
法律體系依賴于信息的連續(xù)性、透明度和審查能力。作為一個(gè)社會(huì),我們不希望看到的是一種鼓勵(lì)人工智能初創(chuàng)企業(yè)以盡可能快、更低成本和最單一方式提供建議的司法體系。
雖然一些人工智能觀察人士多年來一直在嚴(yán)密警惕這種情況,但現(xiàn)在它還是出現(xiàn)了這個(gè)情況糟透了。
或許一個(gè)開放的、可被審查的版本,將會(huì)是一個(gè)不錯(cuò)的進(jìn)步。然而,我們必須首先確保我們提高了司法系統(tǒng)的標(biāo)準(zhǔn),然后才能將任務(wù)推給算法。人工智能不應(yīng)該只是一個(gè)不付出的借口。
人工智能領(lǐng)域被很多人投了大量資本,也有很多真正的機(jī)會(huì)。如果我們利用得好,它就能改變很多事情,并確保它的好處能讓所有人受益,這好處不只是能鞏固金字塔頂端的權(quán)力。
我現(xiàn)在還沒有完美的解決辦法。但我知道,當(dāng)涉及到人工智能在法律中的作用時(shí),我們必須問,它們使用的背景,目的,以及是否有靠譜的監(jiān)督。在這些問題能夠得到肯定的回答之前,要保持高度懷疑,或者至少有一些非常杰出的律師輔助。
責(zé)任編輯:黃焱林