原標(biāo)題:微軟正構(gòu)建新工具 可防止AI算法出現(xiàn)偏見
【TechWeb報道】5月26日消息,據(jù)國外媒體報道,微軟正在構(gòu)建一個工具來自動識別各種不同AI算法中的偏差。將自動識別滲入機器學(xué)習(xí)可以幫助企業(yè)利用人工智能,而不會無意歧視某些人。
大型科技公司正在競相出售可通過云端訪問的現(xiàn)成機器學(xué)習(xí)技術(shù)。隨著越來越多的客戶使用這些算法來自動執(zhí)行重要的判斷和決策,偏見問題將變得至關(guān)重要。而且,由于偏見很容易蔓延到機器學(xué)習(xí)模型中,因此自動檢測不公平性的方法可能會成為AI工具包的重要組成部分。
“像透明度,可理解性和解釋這樣的東西對于這個領(lǐng)域來說已經(jīng)是足夠新的了,我們中很少有人有足夠的經(jīng)驗來知道我們應(yīng)該尋找的一切,以及偏見可能潛伏在我們模型中的所有方式,”高級研究員Rich Caruna說。
算法偏差是許多研究人員和技術(shù)專家日益關(guān)注的問題,由于算法被用來實現(xiàn)自動化中重要決策,所以存在偏見可能變得自動化,大規(guī)模部署并且受害者更難以發(fā)現(xiàn)的風(fēng)險。
Caruna表示,微軟有吸引力的產(chǎn)品將幫助人工智能研究人員捕獲更多不公平的事件,盡管不是全部。 “當(dāng)然,我們不能指望完美 - 總會有一些未被發(fā)現(xiàn)或者無法消除的偏見 - 目標(biāo)就是盡我們所能,”他說。
“公司現(xiàn)在可以做的最重要的事情是教育他們的員工,讓他們意識到偏差可能出現(xiàn)并表現(xiàn)出來的各種方式,并創(chuàng)建工具使模型更容易理解,偏見更易于檢測,”Caruna補充道。 。
Facebook于5月2日在其年度開發(fā)者大會上宣布了自己的工具,用于檢測偏見。其工具稱為Fairness Flow,它會自動警告某算法是否根據(jù)其種族,性別或年齡對某人作出不公正的判斷。 Facebook表示,它需要公平流量,因為該公司越來越多的人正在使用AI來做出重要決定。
加州大學(xué)伯克利分校的教授Bin Yu表示,來自Facebook和微軟的工具似乎是朝著正確方向邁出的一步,但可能還不夠。她建議大公司應(yīng)該讓外部專家審核他們的算法,以證明他們沒有偏見。 “其他人不得不調(diào)查Facebook的算法 - 他們不能成為秘密,”Yu說。
https://iask.sina.com.cn/b/OkpwIW0dj1F.html
https://iask.sina.com.cn/b/OnmJ34codbJ.html