從大聯(lián)盟棒球場(chǎng)到當(dāng)?shù)貙W(xué)校和夏令營(yíng),各公司競(jìng)相將人臉識(shí)別技術(shù)應(yīng)用到生活中的方方面面。然而,這也帶來(lái)了一個(gè)棘手的問題:人臉識(shí)別技術(shù)可能會(huì)加劇種族偏見。不斷有證據(jù)表明,商業(yè)人臉識(shí)別軟件對(duì)膚色較黑的人識(shí)別時(shí)準(zhǔn)確度不高,人權(quán)倡導(dǎo)者擔(dān)心警方可能會(huì)使用這種有偏向性的面部掃描方式。
然而,各大公司持續(xù)在全國(guó)范圍內(nèi)推廣這些人臉識(shí)別系統(tǒng),并向人們保證將研發(fā)出更準(zhǔn)確的算法。然而,真的有可能實(shí)現(xiàn)完全無(wú)種族偏見(不僅僅是消除膚色的影響)的人臉識(shí)別嗎?為了回答這個(gè)問題,我們與人臉識(shí)別,種族和監(jiān)控方面的專家進(jìn)行了交談,并向他們?cè)儐柺欠衲軌蚪鉀Q人臉識(shí)別在技術(shù),文化和刑事上的偏見問題。
技術(shù)偏見與技術(shù)解決方案
今年早些時(shí)候,麻省理工學(xué)院的研究人員Joy Buolamwini和Timnit Gebru指出導(dǎo)致人臉識(shí)別系統(tǒng)對(duì)黑人有偏見的原因之一是訓(xùn)練的數(shù)據(jù)集中膚色較深的面孔數(shù)量太少,使得人臉識(shí)別系統(tǒng)在識(shí)別膚色較深的面孔時(shí)準(zhǔn)確度更低。研究人員發(fā)現(xiàn),當(dāng)使用各種人臉識(shí)別算法來(lái)識(shí)別性別時(shí),算法將膚色較深的女性誤分類為男性的比例為34.7%;而對(duì)膚色較淺的女性的分類最大錯(cuò)誤率不到1%。
“商業(yè)識(shí)別軟件已經(jīng)將人臉識(shí)別變?yōu)榱艘环N二進(jìn)制分類任務(wù),但錯(cuò)誤率高達(dá)三分之一,在這種情況下,我們不禁要問,如果是在其他的子組分類項(xiàng)目中,這樣的錯(cuò)誤率是否可以容忍?!盉uolamwini在麻省理工學(xué)院所附的新聞稿中問道。
在該論文中,微軟的性別分類器在對(duì)深色膚色女性進(jìn)行分類時(shí)錯(cuò)誤率為20.8%。因此,微軟在6月份宣布,將通過(guò)使面部訓(xùn)練圖像中的膚色更多樣化來(lái)重新校準(zhǔn)訓(xùn)練數(shù)據(jù),并宣稱其能夠平衡種族差異對(duì)性別分類正確率的影響。然而,這只是人臉識(shí)別偏見中的一種。
“我們正在談?wù)摰氖俏覀冃袠I(yè)面臨的兩個(gè)不同且獨(dú)特的問題,”AI創(chuàng)業(yè)公司Kairos的首席執(zhí)行官Brian Brackeen在接受Gizmodo訪談時(shí)說(shuō)到。他解釋說(shuō),技術(shù)偏見需要技術(shù)性解決方案。但即使是功能完備的人臉識(shí)別系統(tǒng)也可能會(huì)有偏見,這是一個(gè)需要更多地從文化方面解決的問題?!斑@兩個(gè)問題都值得關(guān)注,但他們?cè)诒举|(zhì)上是不同的。”
Kairos的生物識(shí)別登錄系統(tǒng)使得銀行客戶可以刷臉登錄賬戶,員工可以刷臉打卡上班,游樂園里的游客可以刷臉進(jìn)入快速通道。在這種情況下,Brackeen說(shuō)到,誤報(bào)或漏報(bào)的風(fēng)險(xiǎn)要低得多。被銀行錯(cuò)認(rèn)與被警方錯(cuò)認(rèn)根本不是一回事。
“我更愿意向主題公園,郵輪公司或銀行出售人臉識(shí)別軟件,”Brackeen說(shuō),“如果你因?yàn)槭欠侵抟崦绹?guó)人而必須登錄兩次才能進(jìn)入銀行賬戶,這是不公平的。 但是,你不會(huì)被攻擊。“
Brackeen開玩笑說(shuō),他可能是唯一一名人臉識(shí)別公司的黑人首席執(zhí)行官。上個(gè)月他宣布了Kairos拒絕與穿戴式相機(jī)制造商Axon簽訂合同的消息,成為了媒體關(guān)注的焦點(diǎn)。根據(jù)Brackeen的說(shuō)法,人臉識(shí)別軟件在增強(qiáng)警察辦案能力的同時(shí)也加劇了警務(wù)系統(tǒng)的偏見。
“我們所談?wù)摰拇┐魇较鄼C(jī)上使用的AI工具都具有超越人類能力的力量。假定一名工作人員一小時(shí)可以識(shí)別30張圖片,如果你問警察部門是否愿意將人臉識(shí)別軟件的識(shí)別速度限制為1小時(shí)識(shí)別30張圖片,他們一定會(huì)拒絕,因?yàn)檫@不是所花費(fèi)的時(shí)間的問題。這是關(guān)于可能會(huì)改變社會(huì)契約的人臉識(shí)別超能力的問題”,Brackeen說(shuō)到。
最終,Brackeen找到了一個(gè)供應(yīng)商端的解決方案:在上個(gè)月的一篇社論中,他呼吁每個(gè)人臉識(shí)別公司停止向執(zhí)法機(jī)構(gòu)出售其技術(shù)。
毒樹之果
人臉識(shí)別軟件是通過(guò)將被掃描的面孔與面部圖像數(shù)據(jù)庫(kù)進(jìn)行匹配來(lái)進(jìn)行識(shí)別。如果是應(yīng)用于警務(wù)系統(tǒng),這些數(shù)據(jù)集中的圖像可能來(lái)自于護(hù)照、駕駛證照片或檔案照等。在奧蘭多,警方與亞馬遜合作測(cè)試了連接到公共場(chǎng)所的監(jiān)控?cái)z像頭的人臉識(shí)別軟件。在紐約,各學(xué)區(qū)也開始探索類似的系統(tǒng),如果公園等公共場(chǎng)地發(fā)生射擊后就可掃描游客面孔。在以上這些情況下,使用人臉識(shí)別軟件的目的都是即時(shí)識(shí)別正在追捕的嫌犯。
然而,前提是逮捕令本身的發(fā)布是“公正的”或應(yīng)引起警方的干預(yù)。想想Mike Brown槍殺事件在密蘇里州的弗格森引發(fā)的抗議。Brown去世后,司法部的一項(xiàng)調(diào)查發(fā)現(xiàn),弗格森警方采取行動(dòng)的原因不是出于對(duì)公民安全的考慮,而是為了不影響城市稅收。正如報(bào)告所解釋的那樣,警方經(jīng)常因種族主義針對(duì)黑人司機(jī)進(jìn)行攔截和搜查,將其作為有利可圖的盈利模式,并因他們未能如期和僅部分付款而簽發(fā)逮捕令。
這些數(shù)字令人震驚:弗格森的黑人公民占占全市人口的67%,但黑人公民是85%的交通站的攔截目標(biāo),因各種罰單而成為91%的交通站的攔截目標(biāo)。如果未來(lái)可以借助于人臉識(shí)別軟件即時(shí)識(shí)別所有司機(jī),可以想象,由于識(shí)別系統(tǒng)有偏見,任何被即時(shí)匹配為正受追捕的嫌犯的人的生活將是如何混亂。隨著人臉識(shí)別系統(tǒng)變得標(biāo)準(zhǔn)化,并逐步應(yīng)用于學(xué)校,體育館,機(jī)場(chǎng)和交通樞紐,警察的監(jiān)督權(quán)力也在逐漸增長(zhǎng)。即使使用重新校準(zhǔn)的訓(xùn)練模型,“偏見”也并不會(huì)消失。我們談過(guò)的一位學(xué)者認(rèn)為,在警務(wù)系統(tǒng)中永遠(yuǎn)不會(huì)存在無(wú)偏見的人臉識(shí)別。
“人臉識(shí)別系統(tǒng)假定警察處于中立立場(chǎng),但我們知道事實(shí)并非如此,“德克薩斯大學(xué)奧斯汀分校的助理教授Simone Browne說(shuō)到。她是Dark Matters: On the Surveillance of Blackness一文的作者,認(rèn)為生物識(shí)別監(jiān)視將身體本身轉(zhuǎn)變?yōu)橐环N證據(jù)形式,一種與奴隸制歷史有關(guān)的超客體化形式。Browne寫道:
種族監(jiān)視也是數(shù)字領(lǐng)域的一部分,在其領(lǐng)域內(nèi)部和外部都會(huì)產(chǎn)生重大影響......然后,從個(gè)人和群體中產(chǎn)生和抽象出來(lái)的數(shù)據(jù)在數(shù)據(jù)庫(kù)內(nèi)部和不同數(shù)據(jù)庫(kù)之間記錄,傳播和交換。這些數(shù)據(jù)通過(guò)性別,國(guó)籍,地區(qū),種族,社會(huì)經(jīng)濟(jì)地位進(jìn)行標(biāo)記......對(duì)某些人來(lái)說(shuō),這些類別本身就帶有偏見。
Brown認(rèn)為,人臉識(shí)別技術(shù)為我們的身體創(chuàng)造了一個(gè)數(shù)字副本,然后被當(dāng)作身份證進(jìn)行分析,共享,審查,與我們進(jìn)行匹配——所有這些都是驗(yàn)證我們的身份和跟蹤我們行為的手段。人臉識(shí)別系統(tǒng)是對(duì)人類進(jìn)行分類的一種手段,從而將人們根據(jù)生物統(tǒng)計(jì)學(xué)信息分成有時(shí)會(huì)引起偏見的不同類別。我們可以從幫派數(shù)據(jù)庫(kù),恐怖分子觀察名單甚至購(gòu)物者首選列表中看到這種分類產(chǎn)生的后果。
“我們現(xiàn)在都無(wú)法設(shè)想人臉識(shí)別技術(shù)將能提高黑人境況,畢竟警務(wù)系統(tǒng)仍保持一成不變,” Browne警告說(shuō)。
誰(shuí)將從中受益?
“我們生活在科技日新月異,科技和科學(xué)發(fā)展不斷加快的時(shí)代”,數(shù)據(jù)與社會(huì)研究院的主任Alondra Nelson說(shuō),她主要研究科技對(duì)社會(huì)的影響,“暫停和反思是必要的。我認(rèn)為,它們能夠提醒我們,我們不僅僅是想成為快速轉(zhuǎn)動(dòng)的系統(tǒng)中的齒輪?!?/p>
Nelson對(duì)微軟關(guān)于性別分類的帖子持懷疑態(tài)度,他當(dāng)時(shí)在推特上發(fā)文:“我們必須停止在更多樣化的監(jiān)控系統(tǒng)中將‘包容’與正義和平等混為一談?!?/p>
“非裔美國(guó)人社區(qū)的有色人種群體沒有享受到特定新技術(shù)帶來(lái)的積極作用,相反,他們往往受到新技術(shù)往最壞的方向發(fā)展所帶來(lái)的傷害,我的大部分工作都涉及到他們?nèi)绾慰创@種現(xiàn)象?!?Nelson說(shuō)。
這種雙重困境——黑人遭受科學(xué)帶來(lái)的負(fù)面影響而非享受科學(xué)帶來(lái)的進(jìn)步——體現(xiàn)在“醫(yī)療種族隔離”的概念中,這是由作家Harriet Washington對(duì)以黑奴為實(shí)驗(yàn)體的醫(yī)學(xué)實(shí)驗(yàn)進(jìn)行歷史分析后創(chuàng)建的術(shù)語(yǔ)?!搬t(yī)療種族隔離”指的是為了所謂的科學(xué)進(jìn)步,黑人淪為實(shí)驗(yàn)品,且并沒有從中受益。其中一個(gè)最臭名昭著的例子就是James Marion Sims,他因降低了產(chǎn)婦死亡率被一些人稱為19世紀(jì)的“婦科學(xué)之父”,但他的研究都是在黑人女奴身上進(jìn)行的。
“所有在生育健康方面早期取得的進(jìn)步都是通過(guò)完善黑人女性實(shí)驗(yàn)實(shí)現(xiàn)的,” Washington在2007年接受采訪時(shí)說(shuō)。 “為什么? 因?yàn)榘兹藡D女可以拒絕“。幾個(gè)世紀(jì)之后,黑人婦女的產(chǎn)婦死亡率是白人婦女的三倍。
人臉識(shí)別并沒有那么可怕,但“醫(yī)療種族隔離”是一個(gè)有用的思考框架,來(lái)考慮科學(xué)和科技的發(fā)展與進(jìn)步給不同群體造成的影響以及最終帶來(lái)的利益。我們可以用一個(gè)簡(jiǎn)單的問題來(lái)說(shuō)明這種差異:哪些群體可以說(shuō)不?
Nelson說(shuō):“這不僅僅是公司要問的,它更關(guān)系到民主治理。擁有更好的監(jiān)控技術(shù)并不一定代表更好的民主治理,我們需要對(duì)這樣的可能性持開放態(tài)度?!?/p>
如果不應(yīng)用于警務(wù)系統(tǒng),技術(shù)和文化上的偏見似乎不那么危險(xiǎn)。但問題仍然存在:黑人是否可以拒絕進(jìn)行面部掃描,即使人臉識(shí)別軟件在數(shù)據(jù)上實(shí)現(xiàn)了均衡衡,被廣泛應(yīng)用于商業(yè),并受到了合理規(guī)范? 同其他任何人一樣,黑人應(yīng)能夠享受更短的機(jī)場(chǎng)排隊(duì)隊(duì)伍和更便捷的登錄方式等便利。但是,在評(píng)估新興技術(shù)對(duì)社會(huì)的積極或消極影響時(shí),我們需要考慮它是否對(duì)社會(huì)成員產(chǎn)生了不同的影響,而不僅僅是它是否有趣或體現(xiàn)了包容性。
監(jiān)督監(jiān)管者
本月早些時(shí)候,在公眾強(qiáng)烈反對(duì)其公司與ICE簽訂合同后,微軟總裁Brad Smith公開(并廣泛報(bào)道)呼吁,要求美國(guó)政府對(duì)人臉識(shí)別技術(shù)進(jìn)行監(jiān)管。Smith 寫到 “一般而言,要求選舉產(chǎn)生的政府監(jiān)管公司比要求未經(jīng)選舉的公司監(jiān)管政府似乎更為明智?!?/p>
Smith呼吁建立一個(gè)“兩黨專家委員會(huì)”來(lái)指導(dǎo)人臉識(shí)別技術(shù)的監(jiān)管。這起初看起來(lái)像是一種公關(guān)策略,與奧巴馬時(shí)代的多元化小組或最近流行的人工智能道德委員會(huì)一樣,聚集了一批大名鼎鼎,德高望重的人物,卻沒有執(zhí)法權(quán)力。然而,Smith的提議與之前的委員會(huì)有一個(gè)主要的區(qū)別:聯(lián)邦委員會(huì)直接聽取國(guó)會(huì)議員的意見。這些議員比以往任何時(shí)候都更強(qiáng)烈地希望規(guī)范硅谷這個(gè)自由派的堡壘,并且他們可以通過(guò)簽發(fā)傳票獲得由于牽涉到財(cái)產(chǎn)保護(hù)法而被掩蓋的文件和信息。這是一個(gè)振奮人心的建議,但要想解決人臉識(shí)別系統(tǒng)中的偏見還需做出更多努力。
為了創(chuàng)建無(wú)種族偏見的人臉識(shí)別軟件,銷售相關(guān)軟件的公司必須,是的,解決他們系統(tǒng)的技術(shù)缺陷,并履行道德義務(wù),不得將技術(shù)提供給帶有種族偏見的團(tuán)體。此外,立法者需對(duì)如何以及何時(shí)使用面部掃描進(jìn)行嚴(yán)格的限制。即便如此,人臉識(shí)別技術(shù)不可避免地要用于刑事司法系統(tǒng),如果不能解決刑事司法系統(tǒng)中的種族主義問題,公平的人臉識(shí)別系統(tǒng)永遠(yuǎn)也不可能實(shí)現(xiàn)。
實(shí)現(xiàn)這些目標(biāo)可能看起來(lái)不切實(shí)際,但這也證明了問題的緊迫性。不幸的是,這些并不是對(duì)遙遠(yuǎn)的反烏托邦未來(lái)的杞人憂天。就在這個(gè)月,奧蘭多警察部門重新啟動(dòng)了與亞馬遜公司合作的試點(diǎn)項(xiàng)目,而紐約州州長(zhǎng)宣布,面部掃描將很快用于紐約市的橋梁和隧道通行。
人臉識(shí)別技術(shù)因其便利性正在消費(fèi)者中不斷推廣,但它與監(jiān)視,甚至是控制緊密相關(guān)。想象一下,宣傳“刷臉付錢”系統(tǒng)的廣告或文章上也顯示犯罪數(shù)據(jù)庫(kù)或恐怖分子觀察名單。如果他們真的這樣做了,我們就需要更坦誠(chéng)地直面人臉識(shí)別技術(shù)帶來(lái)的影響。
https://yyk.familydoctor.com.cn/21222/schedule/
https://yyk.familydoctor.com.cn/21222/detail/