久久久18,天天躁夜夜躁狠狠躁婷婷,国产成人三级一区二区在线观看一,最近的2019中文字幕视频 ,最新免费av在线观看

a&s專業(yè)的自動化&安全生態(tài)服務(wù)平臺
公眾號
安全自動化

安全自動化

安防知識網(wǎng)

安防知識網(wǎng)

手機站
手機站

手機站

大安防供需平臺
大安防供需平臺

大安防供需平臺

資訊頻道橫幅A1
首頁 > 資訊 > 正文

如何用未標注樣本,解決單標注樣本下的行人重識別問題?

如何用未標注樣本,解決單標注樣本下的行人重識別問題?

  本文作者為悉尼科技大學(xué)博士生武宇(Yu Wu),他根據(jù) CVPR 2018 錄用論文 Exploit the Unknown Gradually: One-Shot Video-Based Person Re-Identification by Stepwise Learning 為 AI 科技評論撰寫了獨家解讀稿件。

  在這篇論文中,我們提出了通過逐漸利用未標注樣本,來解決單標注樣本(one-shot)情況下的視頻行人重識別問題(video-based person re-ID)。這個方法很簡單通用,在兩個大型的視頻行人重識別數(shù)據(jù)集上都達到了遠超 state-of-the art 的性能。

  1. 為什么需要單標注樣本問題?

  目前大多行人重識別方法都依賴于完全的數(shù)據(jù)標注,即需要對每個訓(xùn)練集里的人在不同攝像頭下的數(shù)據(jù)進行標注。然而對于實際的監(jiān)控場景,如一個城市的監(jiān)控視頻來說,從多個攝像頭里手工標注每段視頻的行人標簽的代價很大。因此我們嘗試去只用單標注樣本,讓網(wǎng)絡(luò)自己去學(xué)會利用那些未標注的樣本。也就是說對于每個行人,我們只需要標注其中一段視頻,其余的視頻通過算法自己去探索。

  對于這個任務(wù),典型的做法是為未標注數(shù)據(jù)估計一個標簽,然后用初始的標注數(shù)據(jù)和部分選定的帶有假定標簽 (pseudo-label) 的數(shù)據(jù)用來訓(xùn)練模型。

  然而因為只用初始標注數(shù)據(jù)訓(xùn)練出來的模型性能太弱,可信的 pseudo-labeled 數(shù)據(jù)是很少的,這樣選擇數(shù)據(jù)注定會引入很多錯誤的訓(xùn)練樣本。所以我們提出了 EUG(Exploit the Unknown Gradually)方法,迭代地去預(yù)測標簽和更新模型,這樣一步步地利用未標注數(shù)據(jù)。

  另外,我們發(fā)現(xiàn)直接用分類器預(yù)測出來的標簽是不可靠的,我們提出通過特征空間里面的最近鄰 (Nearest neighbor) 分類方式,去給每個未標注數(shù)據(jù)分配 pseudo label。

  2. 如何去利用未標注樣本

  如圖,我們一開始用有標注的數(shù)據(jù)來初始化訓(xùn)練 CNN 模型,之后在每一次循環(huán)中我們(1)挑選可信的 pseudo-labeled 數(shù)據(jù) 2. 用標注數(shù)據(jù)和 pseudo-labeled 數(shù)據(jù)一起來更新 CNN 模型。我們通過逐步增大每次加入訓(xùn)練的 pseudo-labeled 數(shù)據(jù)量,從而逐漸去利用更難識別的,包含更多信息多樣性的視頻片段。

  這里有兩個值得注意的點:

  (1)如何決定每次選取多少 pseudo-labeled 數(shù)據(jù)做訓(xùn)練

  我們用一種動態(tài)測量,逐漸增加選取的樣本。在開始的循環(huán)中,只有一小部分 pseudo-labeled 數(shù)據(jù)被選中,之后會有越來越多樣本被加進來。我們發(fā)現(xiàn)增加樣本容量的速度越慢,即每一步迭代比上一步增加的 pseudo-labeled 樣本越少(對應(yīng)需要的迭代次數(shù)更多),模型的性能越高。pseudo-labeled 樣本量的增長速度對模型最終性能的影響十分顯著。

  (2)如何去給一個未標注數(shù)據(jù)分配 pseudo label 并量化其可信程度?

  跟之前大部分 re-ID 的方法一樣,我們的訓(xùn)練時采用的也是一個行人分類網(wǎng)絡(luò),因此對于未標注樣本,網(wǎng)絡(luò)分類的預(yù)測值(Classification score)是可以用來預(yù)測標簽并判斷標簽置信度的。但是這樣的分類層在樣本量很少,特別是我們這種每個類只有一個樣本的情況下的情況下是不太可靠的。

  同時我們注意到行人重識別(re-ID)的測試過程是一個計算特征之間距離并進行檢索的過程,所以我們從這個角度出發(fā),也去計算未標注數(shù)據(jù)與標注數(shù)據(jù)之間的距離(Dissimilarity cost criterion)。對于每個未標注的樣本,我們把離它最近的有標注樣本的類別賦予它作為 pseudo label,并且將他們之間的距離作為標簽估計的置信度,如下圖所示。

  我們發(fā)現(xiàn),這種用距離度量的方式選出來的 pseudo-labeled 數(shù)據(jù)要比分類層的預(yù)測要可靠很多。

  3. 算法實際選出來的樣本如何?

  我們的方法在 MARS 和 DukeMTMC-VideoReID 這兩個大規(guī)模的視頻行人重識別數(shù)據(jù)集上都取得了極大的提高。下面我們展示一下算法選出來的 pseudo-labeled 樣本。

  這是一個算法運行時為左邊這個行人選出來的 pseudo-labeled 樣本,可以看到在第 0 次迭代時返回的樣本都是和初始化視頻很相似的正確數(shù)據(jù)。算法在第 1 次和第 2 次迭代時候開始返回了不同視角的正確數(shù)據(jù),在第 5 到 7 次迭代時候返回了更難以分辨的正確樣本(完全不同的視角、遮擋和嚴重攝像頭色差)以及部分錯誤樣本。沒有被找到的這個視頻片段幾乎是全黑的。

  Pytorch 代碼實現(xiàn)參見:

  https://github.com/Yu-Wu/Exploit-Unknown-Gradually

  DukeMTMC-VideoReID 數(shù)據(jù)集介紹和 Baseline 代碼:

  https://github.com/Yu-Wu/DukeMTMC-VideoReID

參與評論
回復(fù):
0/300
文明上網(wǎng)理性發(fā)言,評論區(qū)僅供其表達個人看法,并不表明a&s觀點。
0
關(guān)于我們

a&s傳媒是全球知名展覽公司法蘭克福展覽集團旗下的專業(yè)媒體平臺,自1994年品牌成立以來,一直專注于安全&自動化產(chǎn)業(yè)前沿產(chǎn)品、技術(shù)及市場趨勢的專業(yè)媒體傳播和品牌服務(wù)。從安全管理到產(chǎn)業(yè)數(shù)字化,a&s傳媒擁有首屈一指的國際行業(yè)展覽會資源以及豐富的媒體經(jīng)驗,提供媒體、活動、展會等整合營銷服務(wù)。

免責(zé)聲明:本站所使用的字體和圖片文字等素材部分來源于互聯(lián)網(wǎng)共享平臺。如使用任何字體和圖片文字有冒犯其版權(quán)所有方的,皆為無意。如您是字體廠商、圖片文字廠商等版權(quán)方,且不允許本站使用您的字體和圖片文字等素材,請聯(lián)系我們,本站核實后將立即刪除!任何版權(quán)方從未通知聯(lián)系本站管理者停止使用,并索要賠償或上訴法院的,均視為新型網(wǎng)絡(luò)碰瓷及敲詐勒索,將不予任何的法律和經(jīng)濟賠償!敬請諒解!
? 2024 - 2030 Messe Frankfurt (Shenzhen) Co., Ltd, All rights reserved.
法蘭克福展覽(深圳)有限公司版權(quán)所有 粵ICP備12072668號 粵公網(wǎng)安備 44030402000264號
用戶
反饋