久久久18,天天躁夜夜躁狠狠躁婷婷,国产成人三级一区二区在线观看一,最近的2019中文字幕视频 ,最新免费av在线观看

a&s專業(yè)的自動化&安全生態(tài)服務平臺
公眾號
安全自動化

安全自動化

安防知識網(wǎng)

安防知識網(wǎng)

手機站
手機站

手機站

大安防供需平臺
大安防供需平臺

大安防供需平臺

資訊頻道橫幅A1
首頁 > 資訊 > 正文

1.4億張圖像!史上最大人臉識別數(shù)據(jù)研究顯示隱私泄露加劇

在深度學習對數(shù)據(jù)的爆炸式增長的驅(qū)動下,研究人員逐漸開始不征求人們同意,從而導致越來越多的人的個人照片在他們不知情的情況下被整合到監(jiān)視系統(tǒng)中。

  近日,Mozilla的伊尼盧瓦·德博拉·拉吉(Inioluwa Deborah Raji)和紐約大學跨學科研究機構(gòu)AI Now Institute的技術(shù)研究員吉納維芙·弗里德(Genevieve Fried)就人臉識別數(shù)據(jù)研究發(fā)表了一篇名為About Face: A Survey of Facial Recognition Evaluation的論文。

  論文就1976年至2019年之間的100多個臉部數(shù)據(jù)集進行研究,其研究范圍包括來自超過1700萬個調(diào)查對象的1.45億張圖像?!堵槭±砉W院技術(shù)評論》發(fā)文稱該論文是“有史以來規(guī)模最大的人臉識別數(shù)據(jù)研究,并且表明了深度學習的興起在多大程度上加劇了隱私的喪失”。

  論文研究發(fā)現(xiàn),在深度學習對數(shù)據(jù)的爆炸式增長的驅(qū)動下,研究人員逐漸開始不征求人們同意,從而導致越來越多的人的個人照片在他們不知情的情況下被整合到監(jiān)視系統(tǒng)中。

  論文主要確定了面部識別發(fā)展的四個歷史階段,分別為:第一階段(1964-1995)早期研究階段;第二階段(1996-2006)被稱為“新生物識別”的商業(yè)可行性階段;第三階段(2007-2013)不受限制設置的主流開發(fā)階段;第四階段(2014年-以后)深度學習的突破階段。

  人臉識別的四大階段:隨著研究人員對技術(shù)準確性要求的不斷提高,人臉識別數(shù)據(jù)集的規(guī)模呈指數(shù)增長。

  外媒就該論文對人臉識別的研究,總結(jié)出了9個令人恐懼又驚訝的結(jié)果:

  1.人臉識別在學術(shù)環(huán)境中的表現(xiàn)與實際應用之間有著巨大的鴻溝

  兩位作者研究該項目的最主要原因之一是,為什么人臉識別在系統(tǒng)測試準確率接近100%時,在現(xiàn)實世界中的應用依然存在嚴重缺陷。例如,人臉識別在識別黑人和棕色人種時準確性較差,最近也有報道顯示,有三名黑人因被該技術(shù)錯誤識別后被相繼逮捕,同時在這三起案件中,被技術(shù)錯誤識別的人都是黑人。

  2.美國國防部對該技術(shù)的最初發(fā)展負有責任

  盡管人臉識別技術(shù)的開發(fā)始于學術(shù)環(huán)境,但國防部和美國國家標準與技術(shù)研究院(NIST)于1996年將650萬美元撥款投入,創(chuàng)建了迄今為止最大的數(shù)據(jù)集,此后這項技術(shù)開始起步。政府對這一領域很感興趣,因為在用于監(jiān)視時,它與指紋識別不同,不需要人們積極主動參與。

  3.早期用于創(chuàng)建人臉識別數(shù)據(jù)的照片來自人像拍攝,這就產(chǎn)生了重大缺陷

  在2000年代中期之前,研究人員積累數(shù)據(jù)庫的方式是讓人們坐下來拍照。由于現(xiàn)在的一些基本面部識別技術(shù)數(shù)據(jù)正是來自于此,所以人臉肖像技術(shù)的缺陷也產(chǎn)生了共鳴,即參與者類型單一并且無法準確反映現(xiàn)實情況的階段設置。

  4.當人像拍攝不夠時,研究人員便開始抓取Google并不再征求被攝對象的同意

  2007年,一個名為“野生標簽的面孔(Labeled Faces in the Wild)(LFW)”數(shù)據(jù)集的出現(xiàn),使研究人員開始直接從Google,F(xiàn)lickr和Yahoo下載圖像,而無需擔心是否同意,其中還包括兒童的照片。其他研究人員隨后匯編的名為“LFW +”的數(shù)據(jù)集,也放寬了對未成年人的納入標準,使用帶有“嬰兒”,“少年”和“青少年”等搜索詞的照片來增加多樣性。雖然這使照片的類型更加豐富,但它也放棄了被攝對象的隱私權(quán)。

  5.人臉識別的下一次繁榮來自Facebook

  2014年,F(xiàn)acebook使用其用戶照片訓練了一種稱為DeepFace的深度學習模型。Facebook展示了數(shù)百萬張照片如何創(chuàng)建出更好地可以完成人臉識別任務的神經(jīng)網(wǎng)絡,從而使深度學習成為現(xiàn)代人臉識別的基石。

  6.Facebook的大規(guī)模人臉識別活動侵犯了用戶的隱私

  由于Facebook利用其用戶上傳的照片進行人臉識別,而未征得該用戶的同意,由此被聯(lián)邦貿(mào)易委員會(FTC)處以罰款,并向伊利諾伊州支付了一項和解金。

  7.僅在公共數(shù)據(jù)集中,人臉識別就已經(jīng)在1770萬人的人臉上進行了訓練

  事實上,我們不知道在人臉識別技術(shù)發(fā)展的過程中,使用了多少人的照片,和這些人的真實身份。

  8.人臉識別的自動化促生了令人反感的標簽系統(tǒng)以及不平等的代表性

  人臉識別系統(tǒng)已經(jīng)超越了識別面部或人物的范圍,它們還可以以令人反感的方式標記人物及其屬性,其中就包括一些諸如“胖子”、“雙下巴”、“大鼻子”、“大嘴唇”和“眼袋”等潛在侮辱性的標簽。而研究也表明,人工智能中的歧視會強化現(xiàn)實世界中的歧視。

  9.人臉識別技術(shù)的應用范圍從政府監(jiān)視延伸到廣告定位

  目前人臉識別技術(shù)不僅深耕于其本身的領域,其如今的發(fā)展也遠超過1970年代其創(chuàng)造者的想象。論文中表明,從歷史背景上可以看出,政府從一開始就促進和支持了這項技術(shù),以便于實現(xiàn)刑事調(diào)查和監(jiān)視。亞馬遜已經(jīng)將其有問題的Rekognition技術(shù)出售給了無數(shù)警察部門就是其中一個例子。

  論文在結(jié)論中闡明,人臉識別技術(shù)帶來了復雜的道德和技術(shù)挑戰(zhàn),忽視或者分解這種復雜性,對于那些部署不當?shù)娜?,也包括我們自己是不利的?/p>

  作者之一的拉吉希望這篇論文能夠激發(fā)研究人員思考深度學習帶來的性能提升、失去共識、細致的數(shù)據(jù)驗證和詳盡的文檔記錄之間的權(quán)衡,她同時敦促那些想要繼續(xù)建立人臉識別功能的人考慮開發(fā)不同的技術(shù):“要讓我們真正嘗試使用該工具而又不傷及人,則需要重新設想我們所知道的一切?!?/p>

參與評論
回復:
0/300
文明上網(wǎng)理性發(fā)言,評論區(qū)僅供其表達個人看法,并不表明a&s觀點。
0
關(guān)于我們

a&s傳媒是全球知名展覽公司法蘭克福展覽集團旗下的專業(yè)媒體平臺,自1994年品牌成立以來,一直專注于安全&自動化產(chǎn)業(yè)前沿產(chǎn)品、技術(shù)及市場趨勢的專業(yè)媒體傳播和品牌服務。從安全管理到產(chǎn)業(yè)數(shù)字化,a&s傳媒擁有首屈一指的國際行業(yè)展覽會資源以及豐富的媒體經(jīng)驗,提供媒體、活動、展會等整合營銷服務。

免責聲明:本站所使用的字體和圖片文字等素材部分來源于互聯(lián)網(wǎng)共享平臺。如使用任何字體和圖片文字有冒犯其版權(quán)所有方的,皆為無意。如您是字體廠商、圖片文字廠商等版權(quán)方,且不允許本站使用您的字體和圖片文字等素材,請聯(lián)系我們,本站核實后將立即刪除!任何版權(quán)方從未通知聯(lián)系本站管理者停止使用,并索要賠償或上訴法院的,均視為新型網(wǎng)絡碰瓷及敲詐勒索,將不予任何的法律和經(jīng)濟賠償!敬請諒解!
? 2024 - 2030 Messe Frankfurt (Shenzhen) Co., Ltd, All rights reserved.
法蘭克福展覽(深圳)有限公司版權(quán)所有 粵ICP備12072668號 粵公網(wǎng)安備 44030402000264號
用戶
反饋