<fieldset id="6wgag"></fieldset>

  • <strike id="6wgag"></strike><samp id="6wgag"><tbody id="6wgag"></tbody></samp>
    
  • <strike id="6wgag"></strike>
  • 首頁(yè) » 合作信息 » 正文
    合作信息
    復(fù)雜場(chǎng)景下的運(yùn)動(dòng)目標(biāo)分割和識(shí)別技術(shù)的研究
    發(fā)布單位:蘇州大學(xué)科學(xué)技術(shù)與產(chǎn)業(yè)部
    所屬行業(yè):其他
    合作信息類型:意向合作
    機(jī)構(gòu)類型:高等院校
    供求關(guān)系:供應(yīng)
    合作信息期限:2016-4
    參考價(jià)格:面議
    0
    收藏?cái)?shù)
    合作信息簡(jiǎn)介
    成果名稱:復(fù)雜場(chǎng)景下的運(yùn)動(dòng)目標(biāo)分割和識(shí)別技術(shù)的研究

      成果簡(jiǎn)介:

      運(yùn)動(dòng)目標(biāo)的分割和識(shí)別技術(shù)一直是圖像處理和計(jì)算機(jī)視覺(jué)領(lǐng)域的重要研究課題。圖像序列中運(yùn)動(dòng)目標(biāo)的分割和識(shí)別技術(shù)日益受到人們的青睞和廣泛的應(yīng)用。例如,在智能交通系統(tǒng)中,要求對(duì)運(yùn)動(dòng)中的車輛進(jìn)行監(jiān)控;在銀行、倉(cāng)庫(kù)等重要部門的保安系統(tǒng)中,要對(duì)運(yùn)動(dòng)目標(biāo)進(jìn)行跟蹤與識(shí)別;在軍事領(lǐng)域中,需要對(duì)運(yùn)動(dòng)的重要軍事目標(biāo)(如飛機(jī)、軍艦、坦克等)進(jìn)行識(shí)別及搜索跟蹤等。因此,該成果具有廣泛的應(yīng)用領(lǐng)域和重要的理論價(jià)值。

      該項(xiàng)目的研究采用現(xiàn)代圖像處理和識(shí)別技術(shù):

      首先,建立運(yùn)動(dòng)序列圖像的時(shí)空域馬爾可夫隨機(jī)場(chǎng)模型。即利用Gibbs隨機(jī)場(chǎng)分布來(lái)描述Markov隨機(jī)場(chǎng)分布。針對(duì)運(yùn)動(dòng)序列圖像的特點(diǎn),用高斯混合分布描述序列圖像的觀察場(chǎng),建立了運(yùn)動(dòng)序列圖像的高斯時(shí)空馬爾可夫隨機(jī)場(chǎng)模型,并構(gòu)造了其相應(yīng)的能量函數(shù)。對(duì)標(biāo)準(zhǔn)Expectation-Maximization算法進(jìn)行了改進(jìn),提出了快速Expectation-Maximization算法,估計(jì)出了模型中的參數(shù),在保證分割結(jié)果的精度下,提高了運(yùn)行的速度。在分析和研究傳統(tǒng)時(shí)空馬爾可夫隨機(jī)場(chǎng)的基礎(chǔ)上,提出了一種新的時(shí)空馬爾可夫隨機(jī)場(chǎng)模型。該模型以原始圖像的彩色聚類圖像作為先驗(yàn)知識(shí),獲得了初始標(biāo)記場(chǎng),并重新定義了Gibbs能量函數(shù)。在定義能量函數(shù)時(shí)考慮了彩色聚類結(jié)果對(duì)基團(tuán)勢(shì)能的影響。該模型克服了因運(yùn)動(dòng)目標(biāo)與背景間的運(yùn)動(dòng)而產(chǎn)生的顯露遮擋現(xiàn)象,提高了運(yùn)動(dòng)目標(biāo)分割的精度。

      其次,求解Markov隨機(jī)場(chǎng)模型,使標(biāo)記場(chǎng)的后驗(yàn)概率分布最大化,即使系統(tǒng)的能量函數(shù)最小化。其實(shí)現(xiàn)的方法是改進(jìn)的ICM(Iterated Conditional Modes)優(yōu)化算法。因此在該改進(jìn)的ICM方法能根據(jù)彩色信息得到較為精確的初始標(biāo)記場(chǎng),使算法收斂到全局最小值。這樣在保證精度的同時(shí)提高了收斂的速度。

      最后,針對(duì)已經(jīng)分割出的圖像進(jìn)行規(guī)格化處理和Zernike矩的特征值提取,并進(jìn)行識(shí)別。

      本方法克服了由于圖像的形變而使識(shí)別率降低的問(wèn)題

      方法首先計(jì)算給定模式的協(xié)方差矩陣,根據(jù)矩陣的特征向量旋轉(zhuǎn)圖像,得到一個(gè)與新坐標(biāo)無(wú)關(guān)的圖像;然后,根據(jù)特征值進(jìn)行圖像長(zhǎng)寬比例調(diào)整,得到一個(gè)規(guī)格化圖像。最后計(jì)算規(guī)格化后圖像輪廓的8個(gè)高階矩作為特征值進(jìn)行識(shí)別。在得到運(yùn)動(dòng)目標(biāo)的特征值后,采用c均值聚類方法進(jìn)行目標(biāo)識(shí)別。

      本項(xiàng)目目標(biāo)識(shí)別率為95.5%,大于合同規(guī)定的識(shí)別率95%。

      合作方式:面議。

      聯(lián)系方式:

      蘇州大學(xué)科學(xué)技術(shù)與產(chǎn)業(yè)部 0512-67165732
    促進(jìn)會(huì)會(huì)員征集
    設(shè)為首頁(yè)  |  關(guān)于我們  |  會(huì)員服務(wù)  |  友情鏈接  |  聯(lián)系我們
    中國(guó)·廣西工業(yè)創(chuàng)新促進(jìn)會(huì) ©版權(quán)所有  桂ICP備14000625號(hào)-2
    久久久久国产精品熟女影院| 久久精品国产72国产精福利| 亚洲精品GV天堂无码男同| 亚洲AV日韩精品久久久久久久| 精品国产国产综合精品| 四虎成人精品国产永久免费无码| 国产成人精品视频午夜| 久久亚洲精品无码网站| 国产成人精品亚洲2020| 97精品国产91久久久久久久| 国产AV午夜精品一区二区入口 | 久久国产精品免费一区二区三区| 亚洲国产日韩在线成人蜜芽| 国产精品四虎在线观看免费| 国产日产欧产精品精品浪潮| 精品久久久久久无码不卡| 精品国内在视频线2019| 91精品国产一区| 久久国产精品77777| 99久久99久久精品免费观看| 日韩精品系列产品| 久久国产精品范冰啊| 久久午夜精品视频| 亚洲Av永久无码精品三区在线| 国产精品无码AV一区二区三区| 日韩精品无码一区二区视频 | 久久久久久亚洲精品影院| 四虎永久在线观看视频精品| 亚洲国产精品专区| 18精品久久久无码午夜福利| 久久99精品久久久久子伦| 久久精品国产亚洲精品2020| 精品无码AV一区二区三区不卡| 精品无码AV一区二区三区不卡| 91成人精品视频| 91精品国产麻豆国产自产在线| 亚洲理论精品午夜电影| 国产精品大白天新婚身材| 国产精品分类视频分类一区| 四虎必出精品亚洲高清| 国产欧美精品123区发布|