清研智庫:解決AI算法偏見的五個策略
從谷歌搜索和約會網(wǎng)站到檢測信用卡欺詐,人工智能(AI)一直在尋找新的方式進入到我們的生活中。但我們能信任驅(qū)動它的算法嗎?
作為人類,我們會犯錯誤。我們可能會出現(xiàn)注意力失常,誤解信息。然而當(dāng)我們重新評審視時,我們可以挑出錯誤并糾正它們。但是當(dāng)一個AI系統(tǒng)犯了錯誤時,無論在相同的環(huán)境下看了多少次相同的數(shù)據(jù),它都會一次又一次地重復(fù)。
AI系統(tǒng)是不可避免地使用反映過去的數(shù)據(jù)進行訓(xùn)練的。如果一個訓(xùn)練數(shù)據(jù)集包含了過去人類決策的固有偏見,這些偏見就會被系統(tǒng)編纂和放大。或者如果它包含的關(guān)于特定少數(shù)群體的數(shù)據(jù)較少,那么對該群體的預(yù)測就會趨于糟糕。這就是所謂的 “算法偏見”。
算法偏見是如何產(chǎn)生的?
算法偏見可能是由于缺乏合適的訓(xùn)練數(shù)據(jù),或者是由于不適當(dāng)?shù)南到y(tǒng)設(shè)計或配置而產(chǎn)生的。例如,一個幫助銀行決定是否發(fā)放貸款的系統(tǒng),通常會使用銀行以前的貸款大量數(shù)據(jù)集(以及銀行可以訪問的其他相關(guān)數(shù)據(jù))進行訓(xùn)練。該系統(tǒng)可以將新的貸款申請人的財務(wù)歷史、就業(yè)情況和人口統(tǒng)計信息與以前申請人的相應(yīng)信息進行比較。由此,它試圖預(yù)測新申請人是否有能力償還貸款。
但這種方法可能存在問題。在這種情況下,可能產(chǎn)生算法偏見的一種方式是通過之前貸款經(jīng)理對抵押貸款申請做出的決定所產(chǎn)生的無意識偏見。如果客戶過去被不公平地拒絕貸款,AI會認為這些群體的普遍還款能力低于實際水平。年輕人、有色人種、單身女性、殘疾人和藍領(lǐng)工人只是一些可能處于不利地位的群體的例子。
算法偏見對個人和公司都有風(fēng)險
上述有偏見的AI系統(tǒng)給銀行帶來了兩個關(guān)鍵風(fēng)險。首先,銀行可能會錯失潛在客戶,將偏見的受害者送到其競爭對手那里。根據(jù)反歧視法,它還可能被追究責(zé)任。如果一個AI系統(tǒng)不斷地在其決策中應(yīng)用固有的偏見,那么政府或消費者團體就會更容易識別這種系統(tǒng)性模式。這可能會導(dǎo)致巨額的罰款和懲罰。
減輕算法偏見
五種減輕算法偏見的方法。可以應(yīng)用于各行各業(yè)的企業(yè),幫助確保AI系統(tǒng)的公平和準確。
1. 獲取更好的數(shù)據(jù)
通過獲取更多的數(shù)據(jù)點或新型的個人信息,特別是那些可能在現(xiàn)有數(shù)據(jù)中出現(xiàn)不準確的人,可以減少算法偏見的風(fēng)險。
2.對數(shù)據(jù)進行預(yù)處理
這包括編輯數(shù)據(jù)集,以掩蓋或刪除與反歧視法保護相關(guān)的屬性信息,如種族或性別。
3. 增加模型的復(fù)雜性
一個簡單的AI模型可以更容易測試、監(jiān)測和詢問。但它也可能不那么準確,并導(dǎo)致偏向多數(shù)人而非少數(shù)人。
4. 修改系統(tǒng)
可以主動調(diào)整AI系統(tǒng)的邏輯和參數(shù),直接對抗算法偏見。例如,可以通過為弱勢群體設(shè)置不同的決策門檻來實現(xiàn)。
5. 改變預(yù)測目標
選擇用來指導(dǎo)AI系統(tǒng)的具體措施,會直接影響到它在不同群體中的決策方式。找到一個更公平的措施作為預(yù)測目標,將有助于減少算法偏見。
采用AI決策的政府和企業(yè)的建議
在向想要采用AI決策的政府和企業(yè)提出的建議中,首先強調(diào)在使用AI決策時必須考慮公平和人權(quán)的一般原則。而這一點必須在系統(tǒng)投入使用之前完成。還建議對系統(tǒng)進行嚴格的設(shè)計和測試,以確保輸出結(jié)果不會受到算法偏見的污染。一旦投入使用,就應(yīng)該對其進行密切監(jiān)控。
最后建議,以負責(zé)任和道德的方式使用AI系統(tǒng),不僅僅是遵守狹義的法律條文。它還要求系統(tǒng)與廣泛接受的社會規(guī)范保持一致–并考慮到對個人、社區(qū)和環(huán)境的影響。
隨著AI決策工具的普及,如果我們謹慎地使用他們,我們不僅有機會提高生產(chǎn)力,而且有機會創(chuàng)造一個更加公平公正的社會。
作者:Tiberio Caetano、Bill Simpson-Young,清研智庫李梓涵編譯