国产精品成人网站,日韩视频二区,亚洲成人手机电影,怡红院国产

快速發(fā)布求購 登錄 注冊
行業(yè)資訊行業(yè)財(cái)報(bào)市場標(biāo)準(zhǔn)研發(fā)新品會(huì)議盤點(diǎn)政策本站速遞

上海微系統(tǒng)所在機(jī)器視覺領(lǐng)域提出不依賴雙目校正的立體深度估計(jì)方法

研發(fā)快訊 2025年02月28日 11:39:02來源:中國科學(xué)院上海微系統(tǒng)與信息技術(shù)研究所 921
摘要團(tuán)隊(duì)提出了一種基于頻率濾波的立體匹配方法F2R2。該方法從頻域?qū)W習(xí)的角度出發(fā),通過設(shè)計(jì)敏感頻率濾波策略與匹配特征重構(gòu)模塊,增強(qiáng)模型對于校正誤差的魯棒性,同時(shí)有效保證了視差預(yù)測精度。

  【儀表網(wǎng) 研發(fā)快訊】近日,中國科學(xué)院上海微系統(tǒng)與信息技術(shù)研究所仿生視覺系統(tǒng)實(shí)驗(yàn)室李嘉茂研究員團(tuán)隊(duì)在雙目立體視覺深度估計(jì)領(lǐng)域取得重要進(jìn)展。題目為“F2R2: Frequency Filtering-based Rectification Robustness Method for Stereo Matching”的成果被機(jī)器人領(lǐng)域頂級國際學(xué)術(shù)會(huì)議2025 IEEE International Conference on Robotics and Automation(ICRA)錄用。
 
  雙目立體視覺通過模擬人類雙眼原理,基于兩個(gè)相機(jī)從不同視角拍攝同一場景圖像,通過計(jì)算對應(yīng)像素點(diǎn)的視差(Disparity)進(jìn)而恢復(fù)空間深度(Depth)信息,這一過程即為立體匹配(Stereo Matching)。該技術(shù)是自主智能機(jī)器人、智能駕駛、元宇宙、工業(yè)檢測、醫(yī)療自動(dòng)化等眾多領(lǐng)域的基礎(chǔ)關(guān)鍵技術(shù)。
 
  經(jīng)典立體匹配問題中,要求雙目圖像滿足嚴(yán)格的極線約束前提。主流的做法是借助標(biāo)定板對雙目系統(tǒng)進(jìn)行高精度的離線預(yù)標(biāo)定與立體校正,并假設(shè)在后續(xù)使用過程中相機(jī)系統(tǒng)參數(shù)保持穩(wěn)定。然而,在實(shí)際應(yīng)用環(huán)境中,雙目系統(tǒng)往往會(huì)受到諸如碰撞、長期機(jī)械振動(dòng)和溫度變化等因素的影響,從而導(dǎo)致雙目系統(tǒng)的外部參數(shù)發(fā)生偏移,從而顯著降低深度估計(jì)精度,甚至導(dǎo)致算法的崩潰。為應(yīng)對這一問題,眾多研究者提出了基于場景特征的在線自標(biāo)定與校準(zhǔn)技術(shù),旨在實(shí)時(shí)估計(jì)雙目系統(tǒng)的姿態(tài)變化并進(jìn)行修正。盡管如此,校正后的圖像仍可能存在分布不均的校正誤差,且此類方法在視覺特征稀疏場景下易失效,難以保證應(yīng)用的穩(wěn)定性。
 
  為此,團(tuán)隊(duì)另辟蹊徑,聚焦弱約束雙目立體視覺深度估計(jì)研究,直接對未經(jīng)過嚴(yán)格極線校正的雙目圖像進(jìn)行深度估計(jì)。具體地,團(tuán)隊(duì)提出了一種基于頻率濾波的立體匹配方法F2R2。該方法從頻域?qū)W習(xí)的角度出發(fā),通過設(shè)計(jì)敏感頻率濾波策略與匹配特征重構(gòu)模塊,增強(qiáng)模型對于校正誤差的魯棒性,同時(shí)有效保證了視差預(yù)測精度。該方法具有即插即用的特性,可適用于不同的立體匹配基礎(chǔ)模型。團(tuán)隊(duì)基于PSMNet 、Gwc-Net等經(jīng)典模型,在多個(gè)添加合成誤差的公開數(shù)據(jù)集KITTI2015(KT15),KITTI2012(KT12),Middlebury(MB),ETH3D(ET)和帶有真實(shí)誤差的自采集數(shù)據(jù)上完成了驗(yàn)證,改進(jìn)后的模型在不同程度的外參擾動(dòng)下均表現(xiàn)出良好的性能。
 
在多個(gè)權(quán)威雙目數(shù)據(jù)集上,團(tuán)隊(duì)算法F2R2在外參擾動(dòng)下顯著提升模型魯棒性(表中為立體匹配EPE(End Point Error)誤差,數(shù)值越小,性能越高)
 
在自采集數(shù)據(jù)集上,團(tuán)隊(duì)算法F2R2在外參擾動(dòng)下顯著提升模型魯棒性(表中為立體匹配EPE(End Point Error)誤差,數(shù)值越小,性能越高)
 
  本研究成果得到了科技部科技創(chuàng)新2030、國家自然科學(xué)基金、上海市自然基金、中國科學(xué)院青促會(huì)、上海市優(yōu)秀學(xué)術(shù)帶頭人等項(xiàng)目支持。上海微系統(tǒng)所仿生視覺系統(tǒng)實(shí)驗(yàn)室周昊龍博士研究生、朱冬晨研究員為論文共同一作,李嘉茂研究員為通訊作者。

我要評論
文明上網(wǎng),理性發(fā)言。(您還可以輸入200個(gè)字符)

所有評論僅代表網(wǎng)友意見,與本站立場無關(guān)。

版權(quán)與免責(zé)聲明
  • 凡本網(wǎng)注明"來源:儀表網(wǎng)"的所有作品,版權(quán)均屬于儀表網(wǎng),未經(jīng)本網(wǎng)授權(quán)不得轉(zhuǎn)載、摘編或利用其它方式使用上述作品。已經(jīng)本網(wǎng)授權(quán)使用作品的,應(yīng)在授權(quán)范圍內(nèi)使用,并注明"來源:儀表網(wǎng)"。違反上述聲明者,本網(wǎng)將追究其相關(guān)法律責(zé)任。
  • 本網(wǎng)轉(zhuǎn)載并注明自其它來源的作品,目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點(diǎn)或證實(shí)其內(nèi)容的真實(shí)性,不承擔(dān)此類作品侵權(quán)行為的直接責(zé)任及連帶責(zé)任。其他媒體、網(wǎng)站或個(gè)人從本網(wǎng)轉(zhuǎn)載時(shí),必須保留本網(wǎng)注明的作品來源,并自負(fù)版權(quán)等法律責(zé)任。
  • 如涉及作品內(nèi)容、版權(quán)等問題,請?jiān)谧髌钒l(fā)表之日起一周內(nèi)與本網(wǎng)聯(lián)系,否則視為放棄相關(guān)權(quán)利。
  • 合作、投稿、轉(zhuǎn)載授權(quán)等相關(guān)事宜,請聯(lián)系本網(wǎng)。聯(lián)系電話:0571-87759945,QQ:1103027433。
廣告招商
今日換一換
新發(fā)產(chǎn)品更多+

客服熱線:0571-87759942

采購熱線:0571-87759942

媒體合作:0571-87759945

  • 儀表站APP
  • 微信公眾號
  • 儀表網(wǎng)小程序
  • 儀表網(wǎng)抖音號
Copyright ybzhan.cn    All Rights Reserved   法律顧問:浙江天冊律師事務(wù)所 賈熙明律師   儀表網(wǎng)-儀器儀表行業(yè)“互聯(lián)網(wǎng)+”服務(wù)平臺
意見反饋
我知道了