【演講主題:可信賴的 AI】
時下有許多演算法聲稱能洞悉我們,知道我們的喜好。在美國甚至有些州使用 COMPAS 這套演算法協助法院推測受刑人再犯的機率,但隨之而來的就是演算法是否會黑箱的質疑,甚至特別偏好特定種族,性別。對於沒有溫度的演算法,到底怎樣做才可以稱得上沒有偏見呢
演算法這個詞對於現代人類可能不算陌生,許多演算法都好像可以掌控我們喜歡甚麼甚至預測行為,在美國某些州(New York, Wisconsin, California, Florida’s Broward County)就使用了 COMPAS 這套由 North Pointeic 開發的演算法推測刑事被告的再返風險。但隨之也引來大眾媒體的質疑,畢竟演算法模型是否會有黑箱的疑慮在,亦或者是對特定族群、性別會有所偏見都是問題。
雖然 North Pointeic 指出 [1] 模型以被告的前科、初次被捕年齡、當前年紀,教育程度等作預估,性別人種不會是考慮的對象。
但儘管假設演算法開發者是誠實的,不代表演算法本身就是對的。
Propublica 隨後即指出[2]黑人被告的再犯風險被高估的比例比白人的多人 20% 以上,換句話說黑人更容易被判定有再犯風險。
之後雙方便展開了大量的論戰,甚至數學家與記者也加入了論戰,其中不乏統計與機率的分析
從 ProPublica 的分析裡[3],黑人被告被歸為高風險犯罪者的機率約為60%,白人的約只有 35% 。但這個差距不代表演算法本身有謬誤,因為黑人跟白人被告的再犯比例真的不同,兩年內再犯被捕的黑人被告比例為 52.6% 白人的為 39.3% 。
我們用常見的 false positive (FP)跟 false negative (FN)來評估演算法的好壞。
黑人的 FP 比例為 44.85% 白人的只有 23.45%。
然而白人 FN 的比例有 47.72% 黑人的卻只有 28%。
從這個角度看這套演算法確實很糟,會讓黑人判刑過長,白人容易被放回社會再犯。
但 North Pointeic 反駁他們演算法中,黑人 Positive Predict Value(PPV) 的比例為 63% 白人為 59% 兩者比例差不多,不管何種種族,法官都可以依其再犯分數作為參考。
你或許會想調整某些參數使 FN 跟 FP 的情形在兩個群體中相同,但根據經驗,調好了這個可能 TP 的機率在兩個群體又不一致了。
根據 Jon Kleinberg 的證明[4] 兩個群體不可能在沒有校準偏誤的情形下,又擁有相同的 FN 跟 FP 發生率。因此除非黑人與白人的犯罪率相同,我們才能開發出完美公平的演算法。
不得不承認有些不良的演算法提供了種族性別做為參數給使用者作調整,甚至 Facebook 都曾把在廣告投放的依據裡將種族作為一個選項,使得特定族群的權益可能因此受到打壓[5]。但這些事在被揭露後都可以用輿論去影響,幸運的是有像 ProPublica 這樣的調查新聞網站以及大批的資料科學家都很關注網路巨擘開發的演算法。
但有些事可能還是得對症下藥,當我們的演算法已經不用特定眼光,完全公正的參數做判斷,結果卻仍有疑慮,不如去看看這個資料集,也就是檢討這個社會,為甚麼會有這個傾向,在這個例子中,可能就要研究為何黑人被告被捕時的年紀可能都比較輕,讓這個模型傾向判斷他有較高的再犯風險。再去解決這個問題,會是比起質疑演算法會更有效,畢竟餵給模型的數據,都是真真實實發生在我們身邊的,唯有解決他們才能讓社會更完善。
About 黃柏愷
準備要念研究所卻還是甚麼都不會的迷惘學生