人工智慧給刑事司法系統帶來了嚴重的風險
Anusha Rao
如今,人工智慧對人們生活帶來有意義且實質性的影響的能力比以往任何時候都要巨大。與此同時,其也導致了許多難以解決的多層面的問題的形成。
人工智慧當前被實踐應用的領域之一是法律、政府、治安和種族等社會問題的交叉點:刑事司法系統。
在過去的幾個月裡,「黑人的命也是命」運動的興起以及對種族關係、治安和結構性偏見的重新審視,使得美國刑事司法系統的問題暴露出來。雖然這是一個聲稱建立在公平正義原則上的機構和制度,但其實質上充滿了對美國人中的黑人和棕色人種不成比例的偏見。由於社會結構的嚴重缺陷是的歧視性的警察、律師和法官的不公正持續存在,偏見成為了困擾刑事司法系統的最大問題之一。
刑事風險評估算法是被設計用來預測被告在未來因不當行為而面臨風險的工具,包括他們再次犯罪的可能性或者出庭受審的可能性。它們是司法系統中最常用的人工智慧的形式,在全國各地都有使用。
在收集了大量不同類型的關於被告人的數據,如年齡、性別、社會經濟狀況、家庭背景和就業狀況之後,他們得出了一個對個人風險的「預測」,並給定一個具體的百分比,以表明被預測者再次犯罪的可能性有多大。這些數字被用來確定保釋金,判刑甚至用以決定有罪抑或無罪。
它們最大的賣點是它們是客觀的——那些喜歡使用它們的人吹噓數學代碼的公正和無偏見的自然屬性。法官可能會被情緒所影響並受到更嚴厲的懲罰,而算法卻永遠不會淪為這種不恰當和人性缺陷的犧牲品。
不幸的是,像人工智慧的許多形式一樣,它們受制於一個似乎無法控制的關於偏差的問題。人工智慧中最大的偏差來源是糟糕的訓練數據。現代的風險評估工具是基於歷史犯罪數據的算法驅動的,使用統計方法來尋找模式和聯繫。如果一個算法是根據歷史犯罪數據訓練的,那麼它將找出與犯罪相關的模式,但該模式是相關聯模式而非因果關係模式。
這些模式往往代表著警察和司法系統中存在的問題。例如,如果一個算法發現低收入與高累犯率相關,那麼它會給具有低收入背景的被告一個更高的預測值。正是那些被執法部門盯上的人群,如貧困社區和少數民族社區,會面臨表明他們「更有可能」犯罪的更高的預測值的風險。這些預測值隨後便會提交給法官,由法官據此作出保釋和量刑的決定。
人工學習方法為算法生成更多有偏差的數據,放大並延續了偏差,從而形成了一個缺乏責任感的循環。因為對於很多算法來說,是無法理解其自身是如何做出決定的。
我們可以把一個首先應被視為一個人的複雜人類減少到一個數字的想法是令人震驚的。在社會中,我們把被監禁的人當作廢物,提倡報復和懲罰而不是改造。我們使得人們幾乎不可能恢復正常的生活,許多州剝奪了他們的投票權並損害了他們的就業機會。在人們的頭上加上一個數字,會使得這個國家已經猖獗的少數民族社區的非人性化更加嚴重。
我通常會發現,對技術的恐懼源於對它的實際運作方式及其影響我們生活的能力的重大誤解。人工智慧是一個有價值的工具,有許多實際的和道德的應用。但是在刑事司法系統中使用風險評估工具會使得種族偏見長期存在,因此應該立即取締該工具。
原作者:
Anusha Rao華盛頓特區學習認知科學院的學生;霍普金斯大學人工智慧學會成員
https://www.jhunewsletter.com/article/2020/09/artificial-intelligence-poses-serious-risks-in-the-criminal-justice-system
本文譯者:梁少嫻,廈門大學法學院2020級碩士研究生,廈門大學法學院法律認知、數據與智能研究中心(實驗室)學生助理。
本文刊載於吳旭陽主編:《法律認知、數據與智能通訊》(電子版)2020年10月期。
轉載請註明出處。