久久久18,天天躁夜夜躁狠狠躁婷婷,国产成人三级一区二区在线观看一,最近的2019中文字幕视频 ,最新免费av在线观看

a&s專業(yè)的自動化&安全生態(tài)服務(wù)平臺
公眾號
安全自動化

安全自動化

安防知識網(wǎng)

安防知識網(wǎng)

手機(jī)站
手機(jī)站

手機(jī)站

大安防供需平臺
大安防供需平臺

大安防供需平臺

資訊頻道橫幅A1
首頁 > 資訊 > 正文

深度學(xué)習(xí)下的智能技術(shù)應(yīng)用及存在的問題

憑借在目標(biāo)檢測與識別方面出色的算法能力,以智能安防為首的多個(gè)行業(yè)正在掀起一場基于深度學(xué)習(xí)算法的應(yīng)用浪潮,而在這個(gè)過程中,深度學(xué)習(xí)在算法優(yōu)化和技術(shù)應(yīng)用上依舊存在一些待解決的問題。
  過去幾年中,得益于高速計(jì)算芯片(GPU)及大量的標(biāo)注數(shù)據(jù),作為當(dāng)下最流行的機(jī)器學(xué)習(xí)方法,深度學(xué)習(xí)在醫(yī)療領(lǐng)域、制造業(yè)領(lǐng)域及商業(yè)等各個(gè)應(yīng)用領(lǐng)域中都取得了突破性的成績,隨著人工智能技術(shù)的不斷革新,未來, AI將會以各種不同的應(yīng)用形態(tài)出現(xiàn)在我們身邊,未來的AI發(fā)展速度也將超越摩爾定律。

  文/毛敏   浙江大華技術(shù)股份有限公司智能算法工程師

  深度學(xué)習(xí)算法與傳統(tǒng)機(jī)器算法的比較

  由于幾乎所有的人工智能領(lǐng)域的問題都可以轉(zhuǎn)化為分類問題,因此機(jī)器學(xué)習(xí)的基本步驟可分為如下形式:目標(biāo)預(yù)處理-特征提取-目標(biāo)分類,機(jī)器學(xué)習(xí)是一個(gè)級聯(lián)串行結(jié)構(gòu),因此每一環(huán)節(jié)的處理結(jié)果都會影響到最后的分類效果,在傳統(tǒng)的機(jī)器學(xué)習(xí)中針對其中的各個(gè)環(huán)節(jié)都有其各自獨(dú)立的算法:

  目標(biāo)預(yù)處理:直方圖歸一化,傾斜矯正,形態(tài)學(xué)處理等;

  特征提?。篖BP,Haar,SIFT,SURF(Handcrafted Feature Extractor),Cluster,BOW(bag of word), Fisher vector,PCA,LDA(Unsupervised features);

  分類器:SVM,Decision tree, Ensample(集成分類器);

  由于上述方法具有各自獨(dú)立性,因此傳統(tǒng)機(jī)器學(xué)習(xí)算法在處理問題時(shí)需要對各個(gè)環(huán)節(jié)進(jìn)行優(yōu)化,并通過組合優(yōu)化方法在各個(gè)模塊中選取最優(yōu)的組合方式。

  與傳統(tǒng)機(jī)器學(xué)習(xí)相比深度學(xué)習(xí)可以把機(jī)器學(xué)習(xí)中的各個(gè)部分合成為一個(gè)整體結(jié)構(gòu),通過統(tǒng)一的訓(xùn)練方法(Backpropagation)對其中所有的參數(shù)進(jìn)行調(diào)節(jié)。當(dāng)前人們所指的深度學(xué)習(xí)主要是以CNN(卷積網(wǎng)絡(luò))為核心的一系列應(yīng)用算法,其算法結(jié)構(gòu)如下圖所示:

  PT1:CNN(卷積網(wǎng)絡(luò))算法結(jié)構(gòu)

  上圖中的每一層都是采用卷積方式與某一卷積核進(jìn)行卷積所得到的結(jié)果,每一結(jié)果代表了從原始圖像所提取的特征,通過級聯(lián)方式對圖像或信號進(jìn)行特征提取,最后得到人們想要的分類結(jié)果。

  2000年以前,深層網(wǎng)絡(luò)較難收斂,其原因是傳統(tǒng)的網(wǎng)絡(luò)采用的激勵函數(shù)為sigmoid/tanh函數(shù),其受初始化影響較大且會產(chǎn)生梯度消失的情況。直到2006年Hitton提出了RBM方法對網(wǎng)絡(luò)進(jìn)行預(yù)訓(xùn)練,之后采用了ReLU作為激活函數(shù)使得深度學(xué)習(xí)在數(shù)據(jù)量相對較小的任務(wù)中無需采用預(yù)訓(xùn)練模型的方式來訓(xùn)練網(wǎng)絡(luò)。

  到2000中期,卷積神經(jīng)網(wǎng)絡(luò)盡管已經(jīng)在物體分類方面取得了較好的成績,但其效果還是比傳統(tǒng)方法略差。其原因主要有兩方面,一是帶標(biāo)簽的訓(xùn)練樣本太少;二是計(jì)算機(jī)的計(jì)算效率太低。直到2012年,F(xiàn)ei-Fei Li推出多達(dá)120萬張標(biāo)注樣本的ImageNet訓(xùn)練數(shù)據(jù)集,NVIDIA提供了高效并行計(jì)算工具,極大的提升了卷積神經(jīng)網(wǎng)絡(luò)在物體分類方面的速度和準(zhǔn)確性。

  CNN應(yīng)用舉例:

  PT2:目標(biāo)檢測

  PT3:姿態(tài)估計(jì)

  PT4:圖像描述

  PT5:場景解析及標(biāo)注

  上述基于圖像或視頻的應(yīng)用特別是基于深度學(xué)習(xí)目標(biāo)檢測與識別方法可應(yīng)用于城市監(jiān)控、智能交通及行為分析等。

  深度學(xué)習(xí)算法優(yōu)化及技術(shù)應(yīng)用存在的問題

  憑借在目標(biāo)檢測與識別方面出色的算法能力,以智能安防為首的多個(gè)行業(yè)正在掀起一場基于深度學(xué)習(xí)算法的應(yīng)用浪潮,而在這個(gè)過程中,深度學(xué)習(xí)在算法優(yōu)化和技術(shù)應(yīng)用上依舊存在一些待解決的問題。

  首先,深度學(xué)習(xí)開發(fā)平臺尚未統(tǒng)一,當(dāng)前深度學(xué)習(xí)的平臺主要包括:Caffe、Torch、Theano、TensorFlow等,各個(gè)平臺間的數(shù)據(jù)接口仍未統(tǒng)一,因此同一套算法需要根據(jù)不同平臺提供不同的版本,算法移植成本較大,且給不同算法間的評估帶來了一定難度;

  其次,算法優(yōu)化方向尚不明確,與傳統(tǒng)算法相比深度學(xué)習(xí)可以看成是一個(gè)黑箱模型,因此當(dāng)算法效果較差時(shí)很難評估具體是其中的哪個(gè)部分出了問題,當(dāng)前的經(jīng)驗(yàn)方法是采用更深的網(wǎng)絡(luò)結(jié)構(gòu),增大樣本量,此外尚無較明確的算法優(yōu)化方法;

  最后,在理論研究方面,目前從理論角度理解深度學(xué)習(xí)主要有這樣幾大方向:1、深度網(wǎng)絡(luò)中的目標(biāo)函數(shù)的幾何特征是怎樣的?2、從理論角度來解釋卷積網(wǎng)絡(luò)的有效性?3、如何將機(jī)器學(xué)習(xí)中的:監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)以及增強(qiáng)學(xué)習(xí)進(jìn)行融合,使其成為一種單一的算法?4、如何有效的設(shè)計(jì)一種類似于人類的無監(jiān)督學(xué)習(xí)方法?

  當(dāng)前對于問題1與2尚無較好的解釋及解決方法,對于問題3目前仍在探索階段(對波爾玆曼機(jī)及自動編碼器是當(dāng)前該方向的研究熱點(diǎn)),關(guān)于問題4,尚處于探索階段,但已有一些初步成果,即GAN(生成對抗網(wǎng)絡(luò))。

  安防領(lǐng)域深度學(xué)習(xí)應(yīng)用需要關(guān)注的問題

  依賴于大數(shù)據(jù)應(yīng)用方面的突破,安防領(lǐng)域人工智能的應(yīng)用正呈現(xiàn)出燎原之勢,當(dāng)前的發(fā)展水平下,人工智能融合到安防領(lǐng)域所要解決的主要問題是算法的計(jì)算性能問題,由于安防領(lǐng)域的大量產(chǎn)品都屬于前端產(chǎn)品,因此,深度學(xué)習(xí)需要運(yùn)行在ARM等芯片上,如何把GPU上運(yùn)行的算法移植到前端去運(yùn)行是目前急需解決的問題。

  另外,針對現(xiàn)階段深度學(xué)習(xí)開發(fā)平臺尚未統(tǒng)一的問題,由于目前深度學(xué)習(xí)對樣本的數(shù)量及質(zhì)量具有較大的依賴性,因此需要建立起一個(gè)統(tǒng)一的管理樣本的平臺,該平臺應(yīng)具有管理樣本的能力,包括:去除重復(fù)樣本,排除錯(cuò)誤樣本及自動生成訓(xùn)練所需的隨機(jī)樣本的能力。

  而在芯片和算法方面,目前各廠商采用的芯片及算法相似,由于在芯片上運(yùn)行的是根據(jù)實(shí)際應(yīng)用所設(shè)計(jì)的算法,因此不同公司產(chǎn)品的優(yōu)劣取決于其所提供算法的正確率及速度,在深度學(xué)習(xí)中這兩部分對樣本的質(zhì)量具有較強(qiáng)的依賴性,因此公司的核心競爭力取決于對樣本的管理能力。

參與評論
回復(fù):
0/300
文明上網(wǎng)理性發(fā)言,評論區(qū)僅供其表達(dá)個(gè)人看法,并不表明a&s觀點(diǎn)。
0
關(guān)于我們

a&s傳媒是全球知名展覽公司法蘭克福展覽集團(tuán)旗下的專業(yè)媒體平臺,自1994年品牌成立以來,一直專注于安全&自動化產(chǎn)業(yè)前沿產(chǎn)品、技術(shù)及市場趨勢的專業(yè)媒體傳播和品牌服務(wù)。從安全管理到產(chǎn)業(yè)數(shù)字化,a&s傳媒擁有首屈一指的國際行業(yè)展覽會資源以及豐富的媒體經(jīng)驗(yàn),提供媒體、活動、展會等整合營銷服務(wù)。

免責(zé)聲明:本站所使用的字體和圖片文字等素材部分來源于互聯(lián)網(wǎng)共享平臺。如使用任何字體和圖片文字有冒犯其版權(quán)所有方的,皆為無意。如您是字體廠商、圖片文字廠商等版權(quán)方,且不允許本站使用您的字體和圖片文字等素材,請聯(lián)系我們,本站核實(shí)后將立即刪除!任何版權(quán)方從未通知聯(lián)系本站管理者停止使用,并索要賠償或上訴法院的,均視為新型網(wǎng)絡(luò)碰瓷及敲詐勒索,將不予任何的法律和經(jīng)濟(jì)賠償!敬請諒解!
? 2024 - 2030 Messe Frankfurt (Shenzhen) Co., Ltd, All rights reserved.
法蘭克福展覽(深圳)有限公司版權(quán)所有 粵ICP備12072668號 粵公網(wǎng)安備 44030402000264號
用戶
反饋