學(xué)術(shù)講座公告:Depth estimation from single image基于單幅圖像的深度估計(jì)

講座題目:Depth estimation from single image基于單幅圖像的深度估計(jì)

講座時(shí)間:2016年3月29日(周二)13:30

講座地點(diǎn):科研樓322室

主講人:戴玉超博士

戴玉超博士現(xiàn)為澳大利亞國(guó)立大學(xué)工程研究院ARC DECRA(澳大利亞研究委員會(huì)卓越青年研究獎(jiǎng))學(xué)者。師從西北工業(yè)大學(xué)何明一教授,他分別于2005、2008和2012年獲得信號(hào)與信息處理專業(yè)學(xué)士、碩士和博士學(xué)位。2008年至2009年受國(guó)家留學(xué)基金委資助赴澳大利亞國(guó)立大學(xué)聯(lián)合培養(yǎng),對(duì)方導(dǎo)師為幾何計(jì)算機(jī)視覺(jué)的奠基者Richard Hartley教授。他的研究方向包括結(jié)構(gòu)與運(yùn)動(dòng)恢復(fù)、多視角幾何、深度學(xué)習(xí)、人機(jī)交互、壓縮感知和最優(yōu)化等。他先后在計(jì)算機(jī)視覺(jué)領(lǐng)域的頂級(jí)期刊和會(huì)議如IEEE模式分析與機(jī)器智能(TPAMI)、國(guó)際計(jì)算機(jī)視覺(jué)期刊(IJCV)、國(guó)際計(jì)算機(jī)視覺(jué)大會(huì)(ICCV)、IEEE計(jì)算機(jī)視覺(jué)與模式識(shí)別會(huì)議(CVPR)和歐洲計(jì)算機(jī)視覺(jué)會(huì)議(ECCV)等發(fā)表論文多篇。他與何明一教授和澳大利亞國(guó)立大學(xué)Hongdong Li副教授合作完成在非剛性結(jié)構(gòu)與運(yùn)動(dòng)恢復(fù)方面的研究工作獲得CVPR 2012最佳論文獎(jiǎng)(大陸高校28年來(lái)首次獲得該獎(jiǎng)項(xiàng))。近期他的研究工作致力于通過(guò)單目視頻序列進(jìn)行復(fù)雜動(dòng)態(tài)場(chǎng)景的分析和理解。

內(nèi)容摘要:

Predicting the depth of a scene from a single image is a challenging and essentially under-determined task. In this talk, I will present how to tackle the problem by using deep convolutional neural network (DCNN) and continuous conditional random fields (CRFs). In this way, the number of training images required has been greatly reduced. Our framework works at two levels, the super-pixel level and the pixel level. First, we design a DCNN to learn the mapping from multi-scale image patches to absolute depth value at the super-pixel level. Second, the estimated depth at the super-pixel level is refined to the pixel level by using hierarchical CRFs. Experiments on the Make3D, NYU Depth V2 and KITTI datasets show competitive if not superior performance compared with current state-of-the-art methods.

從單幅圖像預(yù)測(cè)場(chǎng)景的深度是一項(xiàng)本質(zhì)上欠約束的具有挑戰(zhàn)性的問(wèn)題。針對(duì)此問(wèn)題,提出一種采用深度卷積神經(jīng)網(wǎng)絡(luò)和連續(xù)條件隨機(jī)場(chǎng)的方法,極大的減少了所需訓(xùn)練樣本的數(shù)量。提出的方法在兩個(gè)層次上工作,即超像素級(jí)別和像素級(jí)別。首先,深度卷積神經(jīng)網(wǎng)絡(luò)在超像素級(jí)別上從多尺度圖像塊學(xué)習(xí)絕對(duì)的深度信息;其次,超像素級(jí)別的深度值通過(guò)分層條件隨機(jī)場(chǎng)提升到像素級(jí)別。 Make3D, NYU Depth V2和KITTI數(shù)據(jù)上的實(shí)驗(yàn)表明提出的方法取得當(dāng)前最好性能。

( 講座具體信息以數(shù)字平臺(tái)通知為準(zhǔn)!)

掃碼分享本頁(yè)面
掃碼分享本頁(yè)面