目前,人臉識(shí)別系統(tǒng)在執(zhí)法、邊境控制和其他社會(huì)應(yīng)用領(lǐng)域的使用正在迅速增長。之前就有幾項(xiàng)學(xué)術(shù)研究表明,人臉識(shí)別算法在流行的商業(yè)體系存在種族和性別偏見。
最近,美國聯(lián)邦政府一項(xiàng)新的研究證實(shí)了這些早期結(jié)果。根據(jù)美國國家標(biāo)準(zhǔn)與技術(shù)研究院(NIST)的研究,世界上許多頂尖的面部識(shí)別算法都存在年齡、種族和民族偏見。研究顯示,目前市場(chǎng)上出售的算法識(shí)別某些特定人群的錯(cuò)誤率是識(shí)別其他人群的100倍。
圖 | 邊境警察檢查護(hù)照(來源:麻省理工科技評(píng)論)
NIST表示,他們的“實(shí)驗(yàn)數(shù)據(jù)”表明,年齡、性別和種族等特征會(huì)影響“大多數(shù)”算法的準(zhǔn)確性。該小組測(cè)試了來自99個(gè)組織的189種算法,這些算法為全球大多數(shù)面部識(shí)別系統(tǒng)提供支持。
據(jù)《華盛頓郵報(bào)》報(bào)道,立法者稱該研究結(jié)果“令人震驚”,并呼吁美國政府重新考慮使用該技術(shù)來保護(hù)邊境安全的計(jì)劃。
“令人震驚”的研究結(jié)果
NIST研究了目前在美國政府應(yīng)用中使用的四組面部數(shù)據(jù): 美國居民的面部照片;申請(qǐng)移民福利人士的申請(qǐng)照片;申請(qǐng)簽證人員的申請(qǐng)照片,以及穿越邊境進(jìn)入美國的申請(qǐng)照片。
總的來說,數(shù)據(jù)庫包括了 1827 萬張圖片,涉及 849 萬人,是迄今為止最全面的評(píng)估。
這項(xiàng)研究測(cè)試了“一對(duì)一”識(shí)別和“一對(duì)多”搜索?!耙粚?duì)一”就是把某人的照片與數(shù)據(jù)庫中同一個(gè)人的另一張照片進(jìn)行匹配,它一般是用于解鎖智能手機(jī)或執(zhí)法部門檢查護(hù)照;“一對(duì)多”則是將某個(gè)人與一個(gè)更大數(shù)據(jù)庫中的單個(gè)記錄匹配,這經(jīng)常被警察部門用來在調(diào)查中識(shí)別嫌疑犯。
在一對(duì)多的搜索中,非裔美國婦女最常被錯(cuò)誤地識(shí)別,而亞洲人、非裔美國人、印第安人和太平洋島民在一對(duì)一的搜索中經(jīng)常被錯(cuò)誤識(shí)別。兒童和老年人的錯(cuò)誤識(shí)別率也相對(duì)更高。在某些情況下,亞裔和非裔美國人被錯(cuò)誤識(shí)別的概率是白人的 100 倍。一般來說,中年白人男性的準(zhǔn)確率最高。
人臉識(shí)別還沒做好準(zhǔn)備
研究結(jié)果進(jìn)一步證明,世界上許多最先進(jìn)的面部識(shí)別算法仍不具備在執(zhí)法和國家安全等關(guān)鍵領(lǐng)域使用的條件。NIST 的研究是迄今為止最全面的評(píng)估,調(diào)查結(jié)果對(duì)這些系統(tǒng)是否應(yīng)該繼續(xù)如此廣泛地使用提出了疑問。
NIST 研究測(cè)試的算法是這些組織自愿提交的。但向當(dāng)?shù)鼐胶吐?lián)邦調(diào)查人員銷售Reko面部識(shí)別軟件的亞馬遜并沒有提交相關(guān)算法。此前就有研究對(duì)亞馬遜面部識(shí)別系統(tǒng)的準(zhǔn)確性提出了擔(dān)憂。
2018 年 7 月,美國公民自由聯(lián)盟(American Civil Liberties Union)測(cè)試了亞馬遜的面部識(shí)別系統(tǒng),結(jié)果系統(tǒng)將28名國會(huì)議員識(shí)別成了罪犯。人工智能研究人員呼吁亞馬遜停止銷售其“有缺陷”的系統(tǒng)。但亞馬遜聲稱,它的軟件不是 NIST 的測(cè)試可以輕易分析的(盡管擁有類似產(chǎn)品的科技公司提交算法是沒有問題的),其股東也抵制了要求限制Reko銷售的呼聲。
要尊重人們的安全和隱私
專家表示,這些算法中的偏差可以通過使用更多樣化的訓(xùn)練數(shù)據(jù)來減少。例如,研究人員發(fā)現(xiàn),亞洲國家開發(fā)的人臉識(shí)別算法表現(xiàn)更好,在亞洲人和白人之間的錯(cuò)誤率差別很小。
然而,即使解決了算法偏見,也不能解決面部識(shí)別的所有問題,因?yàn)檫@項(xiàng)技術(shù)的使用方式?jīng)]有尊重人們的安全和隱私。
Joy Buolamwini 是一名人工智能研究人員,他在去年接受采訪時(shí)表示,他一直在研究面部識(shí)別的偏見問題?!鞍l(fā)展面部識(shí)別技術(shù)并將其武器化有什么好處?技術(shù)應(yīng)用不能脫離其社會(huì)影響,”他說。
現(xiàn)在,需要政策制定者來找出監(jiān)管這些技術(shù)的最佳方式。NIST還敦促人臉識(shí)別的開發(fā)者進(jìn)行更多的研究,以減少這些偏見。