<fieldset id="6wgag"></fieldset>

  • <strike id="6wgag"></strike><samp id="6wgag"><tbody id="6wgag"></tbody></samp>
    
  • <strike id="6wgag"></strike>
  • 首頁(yè) » 合作信息 » 正文
    合作信息
    復(fù)雜場(chǎng)景下的運(yùn)動(dòng)目標(biāo)分割和識(shí)別技術(shù)的研究
    發(fā)布單位:蘇州大學(xué)科學(xué)技術(shù)與產(chǎn)業(yè)部
    所屬行業(yè):其他
    合作信息類型:意向合作
    機(jī)構(gòu)類型:高等院校
    供求關(guān)系:供應(yīng)
    合作信息期限:2016-4
    參考價(jià)格:面議
    0
    收藏?cái)?shù)
    合作信息簡(jiǎn)介
    成果名稱:復(fù)雜場(chǎng)景下的運(yùn)動(dòng)目標(biāo)分割和識(shí)別技術(shù)的研究

      成果簡(jiǎn)介:

      運(yùn)動(dòng)目標(biāo)的分割和識(shí)別技術(shù)一直是圖像處理和計(jì)算機(jī)視覺(jué)領(lǐng)域的重要研究課題。圖像序列中運(yùn)動(dòng)目標(biāo)的分割和識(shí)別技術(shù)日益受到人們的青睞和廣泛的應(yīng)用。例如,在智能交通系統(tǒng)中,要求對(duì)運(yùn)動(dòng)中的車輛進(jìn)行監(jiān)控;在銀行、倉(cāng)庫(kù)等重要部門的保安系統(tǒng)中,要對(duì)運(yùn)動(dòng)目標(biāo)進(jìn)行跟蹤與識(shí)別;在軍事領(lǐng)域中,需要對(duì)運(yùn)動(dòng)的重要軍事目標(biāo)(如飛機(jī)、軍艦、坦克等)進(jìn)行識(shí)別及搜索跟蹤等。因此,該成果具有廣泛的應(yīng)用領(lǐng)域和重要的理論價(jià)值。

      該項(xiàng)目的研究采用現(xiàn)代圖像處理和識(shí)別技術(shù):

      首先,建立運(yùn)動(dòng)序列圖像的時(shí)空域馬爾可夫隨機(jī)場(chǎng)模型。即利用Gibbs隨機(jī)場(chǎng)分布來(lái)描述Markov隨機(jī)場(chǎng)分布。針對(duì)運(yùn)動(dòng)序列圖像的特點(diǎn),用高斯混合分布描述序列圖像的觀察場(chǎng),建立了運(yùn)動(dòng)序列圖像的高斯時(shí)空馬爾可夫隨機(jī)場(chǎng)模型,并構(gòu)造了其相應(yīng)的能量函數(shù)。對(duì)標(biāo)準(zhǔn)Expectation-Maximization算法進(jìn)行了改進(jìn),提出了快速Expectation-Maximization算法,估計(jì)出了模型中的參數(shù),在保證分割結(jié)果的精度下,提高了運(yùn)行的速度。在分析和研究傳統(tǒng)時(shí)空馬爾可夫隨機(jī)場(chǎng)的基礎(chǔ)上,提出了一種新的時(shí)空馬爾可夫隨機(jī)場(chǎng)模型。該模型以原始圖像的彩色聚類圖像作為先驗(yàn)知識(shí),獲得了初始標(biāo)記場(chǎng),并重新定義了Gibbs能量函數(shù)。在定義能量函數(shù)時(shí)考慮了彩色聚類結(jié)果對(duì)基團(tuán)勢(shì)能的影響。該模型克服了因運(yùn)動(dòng)目標(biāo)與背景間的運(yùn)動(dòng)而產(chǎn)生的顯露遮擋現(xiàn)象,提高了運(yùn)動(dòng)目標(biāo)分割的精度。

      其次,求解Markov隨機(jī)場(chǎng)模型,使標(biāo)記場(chǎng)的后驗(yàn)概率分布最大化,即使系統(tǒng)的能量函數(shù)最小化。其實(shí)現(xiàn)的方法是改進(jìn)的ICM(Iterated Conditional Modes)優(yōu)化算法。因此在該改進(jìn)的ICM方法能根據(jù)彩色信息得到較為精確的初始標(biāo)記場(chǎng),使算法收斂到全局最小值。這樣在保證精度的同時(shí)提高了收斂的速度。

      最后,針對(duì)已經(jīng)分割出的圖像進(jìn)行規(guī)格化處理和Zernike矩的特征值提取,并進(jìn)行識(shí)別。

      本方法克服了由于圖像的形變而使識(shí)別率降低的問(wèn)題

      方法首先計(jì)算給定模式的協(xié)方差矩陣,根據(jù)矩陣的特征向量旋轉(zhuǎn)圖像,得到一個(gè)與新坐標(biāo)無(wú)關(guān)的圖像;然后,根據(jù)特征值進(jìn)行圖像長(zhǎng)寬比例調(diào)整,得到一個(gè)規(guī)格化圖像。最后計(jì)算規(guī)格化后圖像輪廓的8個(gè)高階矩作為特征值進(jìn)行識(shí)別。在得到運(yùn)動(dòng)目標(biāo)的特征值后,采用c均值聚類方法進(jìn)行目標(biāo)識(shí)別。

      本項(xiàng)目目標(biāo)識(shí)別率為95.5%,大于合同規(guī)定的識(shí)別率95%。

      合作方式:面議。

      聯(lián)系方式:

      蘇州大學(xué)科學(xué)技術(shù)與產(chǎn)業(yè)部 0512-67165732
    促進(jìn)會(huì)會(huì)員征集
    設(shè)為首頁(yè)  |  關(guān)于我們  |  會(huì)員服務(wù)  |  友情鏈接  |  聯(lián)系我們
    中國(guó)·廣西工業(yè)創(chuàng)新促進(jìn)會(huì) ©版權(quán)所有  桂ICP備14000625號(hào)-2
    91精品国产麻豆国产自产在线| 国产啪精品视频网站| 国产精品无码亚洲一区二区三区| 91久久精品国产91久久性色tv | 日韩精品国产自在久久现线拍| 亚洲国产成人综合精品| 精品无码成人片一区二区98| 无码人妻精品一区二区三区东京热 | 亚洲乱码精品久久久久..| 亚洲乱码日产精品a级毛片久久| 日韩精品久久久久久久电影蜜臀| 国产精品国产免费无码专区不卡| 国产乱人伦精品一区二区在线观看| 国产私拍福利精品视频推出| 91精品国产免费久久国语麻豆| 人人妻人人澡人人爽精品日本| 亚洲国产精品高清久久久| 精品视频一区二区三区在线观看 | 国产精品福利区一区二区三区四区| 日韩精品福利在线| 日韩精品无码中文字幕一区二区| 国产农村妇女精品一二区| 国产精品成人一区二区三区| 精品久久久中文字幕二区| 大香视频伊人精品75| 国产成人无码精品久久久小说| 色婷婷精品大在线视频| 亚洲国产精品无码中文lv| 亚洲中文字幕一区精品自拍| 中文人妻熟妇乱又伦精品| 中文字幕久久久久久精品| 精品国产乱码久久久久久鸭王1| 欧美日韩精品一区二区在线观看| 精品一区二区三区| 精品国产电影久久九九| 国产精品视频久久久久| 国产区精品福利在线社区| 亚洲av日韩av高潮潮喷无码| 日韩视频在线观看| 无码乱码观看精品久久| 国产精品福利在线观看免费不卡 |