來自芝加哥大學(xué)的最新研究:給照片加上一點(diǎn)肉眼看不出來的修改,就能讓你的臉成功「隱形」。如此一來,即使你在網(wǎng)絡(luò)上的照片被非法抓取,用這些數(shù)據(jù)訓(xùn)練出來的人臉模型,也無法真正成功識(shí)別你的臉。
給照片穿上「隱身衣」
這項(xiàng)研究的目的,是幫助網(wǎng)友們?cè)诜窒碜约旱恼掌耐瑫r(shí),還能有效保護(hù)自己的隱私。因此,「隱身衣」本身也得「隱形」,避免對(duì)照片的視覺效果產(chǎn)生影響。
也就是說,這件「隱身衣」,其實(shí)是對(duì)照片進(jìn)行像素級(jí)別的微小修改,以蒙蔽AI的審視。
其實(shí),對(duì)于深度神經(jīng)網(wǎng)絡(luò)而言,一些帶有特定標(biāo)簽的微小擾動(dòng),就能夠改變模型的「認(rèn)知」。Fawkes就是利用了這樣的特性。
用 x 指代原始圖片,xT為另一種類型/其他人臉照片,φ 則為人臉識(shí)別模型的特征提取器。
具體而言,F(xiàn)awkes是這樣設(shè)計(jì)的:
第一步:選擇目標(biāo)類型 T
指定用戶 U,F(xiàn)awkes的輸入為用戶 U 的照片集合,記為 XU。
從一個(gè)包含有許多特定分類標(biāo)簽的公開人臉數(shù)據(jù)集中,隨機(jī)選取 K 個(gè)候選目標(biāo)類型機(jī)器圖像。
使用特征提取器 φ 計(jì)算每個(gè)類 k=1…K 的特征空間的中心點(diǎn),記為 Ck。
而后,F(xiàn)awkes會(huì)在 K 個(gè)候選集合中,選取特征表示中心點(diǎn)與 XU 中所有圖像的特征表示差異最大的類,作為目標(biāo)類型 T。
第二步:計(jì)算每張圖像的「隱身衣」
隨機(jī)選取一幅 T 中的圖像,為 x 計(jì)算出「隱身衣」δ(x, xT) ,并按照公式進(jìn)行優(yōu)化。
其中 |δ(x, xT)| < ρ。
研究人員采用DDSIM(Structural Dis-Similarity Index)方法。在此基礎(chǔ)上進(jìn)行隱身衣的生成,能保證隱身后的圖像與原圖在視覺效果上高度一致。
實(shí)驗(yàn)結(jié)果表明,無論人臉識(shí)別模型被訓(xùn)練得多么刁鉆,F(xiàn)awkes都能提供95%以上有效防護(hù)率,保證用戶的臉不被識(shí)別。
即使有一些不小心泄露的未遮擋照片被加入人臉識(shí)別模型的訓(xùn)練集,通過進(jìn)一步的擴(kuò)展設(shè)計(jì),F(xiàn)awkes也可以提供80%以上的防識(shí)別成功率。
在Microsoft Azure Face API、Amazon Rekognition和曠視Face Search API這幾個(gè)最先進(jìn)的人臉識(shí)別服務(wù)面前,F(xiàn)awkes的「隱身」效果則達(dá)到了100%。
目前,F(xiàn)awkes已開源,Mac、Windows和Linux都可以使用。
據(jù)作者介紹說,生成一張「隱身衣」的速度平均在40秒左右,如果電腦配置夠好,應(yīng)該還能再快點(diǎn)。
據(jù)介紹。論文的一作是華人學(xué)生單思雄,高中畢業(yè)于北京十一學(xué)校,目前剛拿到了芝加哥大學(xué)的學(xué)士學(xué)位,將于9月份入學(xué)攻讀博士學(xué)位,師從趙燕斌教授和Heather Zheng教授。
作為芝加哥大學(xué)SAND Lab實(shí)驗(yàn)室的一員,他的研究主要側(cè)重于機(jī)器學(xué)習(xí)和安全的交互,像如何利用不被察覺的輕微數(shù)據(jù)擾動(dòng),去保護(hù)用戶的隱私。
從單同學(xué)的推特來看,他一直致力于在這個(gè)「透明」的世界中,為我們爭取一點(diǎn)僅存的隱私。
論文的共同一作Emily Wenger同樣來自芝加哥大學(xué)SAND Lab實(shí)驗(yàn)室,正在攻讀CS博士,研究方向是機(jī)器學(xué)習(xí)與隱私的交互,目前正在研究神經(jīng)網(wǎng)絡(luò)的弱點(diǎn)、局限性和可能對(duì)隱私造成的影響。