天天看點

深度相機---(1)TOF總結2 深度相機比較

1.1 TOF初探

TOF是Time of flight的簡寫,直譯為飛行時間的意思。所謂飛行時間法3D成像,是通過給目标連續發送光脈沖,然後用傳感器接收從物體傳回的光,通過探測光脈沖的飛行(往返)時間來得到目标物距離。這種技術跟3D雷射傳感器原理基本類似,隻不過3D雷射傳感器是逐點掃描,而TOF相機則是同時得到整幅圖像的深度資訊。TOF相機與普通機器視覺成像過程也有類似之處,都是由光源、光學部件、傳感器、控制電路以及處理電路等幾部單元組成。與同屬于非侵入式三維探測、适用領域非常類似的雙目測量系統相比,TOF相機具有根本不同3D成像機理。雙目立體測量通過左右立體像對比對後,再經過三角測量法來進行立體探測,而TOF相機是通過入、反射光探測來擷取的目标距離擷取。

TOF技術采用主動光探測方式,與一般光照需求不一樣的是,TOF照射單元的目的不是照明,而是利用入射光信号與反射光信号的變化來進行距離測量,是以,TOF的照射單元都是對光進行高頻調制之後再進行發射,比如下圖所示的采用LED或雷射二極管發射的脈沖光,脈沖可達到100MHz。與普通相機類似,TOF相機晶片前端需要一個搜集光線的鏡頭。不過與普通光學鏡頭不同的是這裡需要加一個帶通濾光片來保證隻有與照明光源波長相同的光才能進入。同時由于光學成像系統具有透視效果,不同距離的場景為各個不同直徑的同心球面,而非平行平面,是以在實際使用時,需要後續處理單元對這個誤差進行校正。作為TOF的相機的核心,TOF晶片每一個像元對入射光往返相機與物體之間的相位分别進行紀錄。該傳感器結構與普通圖像傳感器類似,但比圖像傳感器更複雜,它包含2個或者更多快門,用來在不同時間采樣反射光線。因為這種原因,TOF晶片像素比一般圖像傳感器像素尺寸要大得多,一般100um左右。照射單元和TOF傳感器都需要高速信号控制,這樣才能達到高的深度測量精度。比如,照射光與TOF傳感器之間同步信号發生10ps的偏移,就相當于1.5mm的位移。而目前的CPU 可到3GHz,相應得時鐘周期是300ps,則相應得深度分辨率為45mm。運算單元主要是完成資料校正和計算工作,通過計算入射光與反射光相對相移關系,即可求取距離資訊。

TOF的優勢:與立體相機或三角測量系統比,TOF相機體積小巧,跟一般相機大小相去無幾,非常适合于一些需要輕便、小體積相機的場合。TOF相機能夠實時快速的計算深度資訊,達到幾十到100fps。TOF的深度資訊。而雙目立體相機需要用到複雜的相關性算法,處理速度較慢。TOF的深度計算不受物體表面灰階和特征影響,可以非常準确的進行三維探測。而雙目立體相機則需要目标具有良好的特征變化,否則會無法進行深度計算。TOF的深度計算精度不随距離改變而變化,基本能穩定在cm級,這對于一些大範圍運動的應用場合非常有意義。

1.2 TOF研究機構

<1> Dynamic 3D Vision (2006-2010):

研究領域:多晶片2D/3D傳感器, 動态場景重建, 目标位置識别和光場計算

官網:www.zess.uni-siegen.de/pmd-home/dyn3d

<2>ARTTS (2007-2010):

全稱:“Action Recognition and Tracking based on Time-of-Flight Sensors”

官網:http://www.artts.eu

研究領域:開發更加小型更加便宜的新一代TOF相機;将HDTV與TOF技術相結合(iii) 基于動作跟蹤和識别算法的多模式接口和互動系統

<3>Lynkeus (2006-2009):

官網:www.lynkeus-3d.de

研究領域:緻力于工業應用領域的高分辨率和魯棒性的TOF傳感器,例如自動化和機器人導航

<4>3D4YOU(2008-2010):

官網:www.3d4you.eu

研究領域: 建構3D-TV産品線,從3電影中實時擷取點雲資料并且轉換為3D顯示到家庭電視中3D4YOU 應用ToF range cameras初始化估計多個高清晰度相機的深度以及初始化計算3D場景圖像的深度。

<5>MOSES(2008-2012):

全稱:“Multi-Modal Sensor Systems for Environmental Ex-ploration (MOSES)”

研究領域:基于傳感器的多方面的應用,包括基于TOF的人機接口和多傳感器融合

官網:www.zess.uni-siegen.de/ipp_home/moses

1.3 TOF之應用領域

TOF 相機目前的主要應用領域包括:

<1> 物流行業:通過 TOF 相機迅速獲得包裹的抛重(即體積),來優化裝箱和進行運費評估;

<2> 安防和監控:

                進行 Peoplecounting 确定進入人數不超過上限;

                通過對人流或複雜交通系統的counting,實作對安防系統的統計分析設計;

                敏感地區的檢測對象監視;

<3> 機器視覺:工業定位、工業引導和體積預估;

                替代工位上占用大量空間的、基于紅外光進行安全生産控制的裝置;

<4> 機器人:

                在自動駕駛領域提供更好的避障資訊;

                機器人在安裝、品質控制、原料揀選應用上的引導;

<5>醫療和生物:足部矯形模組化、病人活動/狀态監控、手術輔助、面部3D 識别;

<6>互動娛樂:動作姿勢探測、表情識别、娛樂廣告

1.4TOF相機特點

<1>優點:

1.相對二維圖像,可通過距離資訊擷取物體之間更加豐富的位置關系,即

區分前景與後景;

2.深度資訊依舊可以完成對目标圖像的分割、标記、識别、跟蹤等傳統應用;

3.經過進一步深化處理,可以完成三維模組化等應用;

4.能夠快速完成對目标的識别與追蹤;

5.主要配件成本相對低廉,包括CCD和普通 LED 等,對今後的普及化生産及使用有利;

6.借助 CMOS 的特性,可擷取大量資料及資訊,對複雜物體的姿态判斷極為有效;

7.無需掃描裝置輔助工作

<2>缺點:

1.相對于普通數位相機,其造價仍然偏高,影響該産品目前的普及使用率;

2.相機本身仍然受到硬體發展的限制,更新換代速度較快;

3.測量距離較正常測量儀器短,一般不超過 10 米;

4.測量結果受被測物性質的影響;

5.大多數機器的測量結果受外界環境幹擾較為明顯,尤其是受外界光源幹擾;

6.分辨率相對較低,本文研究的 PMD Camcube 2.0 型号相機,為目前分辨率最高的 3D 相機,其分辨率僅為 204×204像素(這個資訊比較老了。沒有實際意義);

7. 系統誤差及随機誤差對結果影響明顯,需要進行後期資料處理。

2 深度相機比較

目前的深度相機有TOF、結構光、雷射掃描等幾種。主要用于機器人、互動遊戲等應用。其中較多的是指TOF相機。目前主流的有TOF相機廠商有PMD、MESA、Optrima、微軟等幾家,其中MESA在科研領域使用較大,相機緊湊性好,而PMD是唯一一款能夠在戶内、戶外均能使用的TOF相機,并且能夠具有多種探測距離,可用于科研、工業等各種場合。而Optrima、微軟(還不是真正的TOF技術)的相機主要面向家庭、娛樂應用,價位較低。

<1>MESA公司:SR4000

官網:www.mesa-imaging.ch

<2>PMD公司:CamCube3.0

官網:www.pmdtec.com

<3> Canesta公司:XZ422

官網:www.canesta.com

<4> Fotonic公司

官網:http://www.fotonic.com/content/Company/Default.aspx

2.1 MESA系列介紹

MESA Imaging AG成立于2006年7月,緻力于生産銷售世界領先的3D 飛行時間(TOF)深度測繪相機。該相機采用的圖像晶片技術,能夠實時采集三維資料列(通常稱之為深度圖像),并內建于一個緊湊的固件内。MESA 在此領域榮獲過SwissRanger技術創新獎,衆多的成功經驗可以為客戶帶來定制相機解決方案。MESA的産品能夠進行單相機3D成像。它采用飛行時間法(Time of flight),通過給目标連續發送光脈沖,然後用傳感器接收從物體傳回的光、探測光脈沖的飛行(往返)時間來得到目标物距離。相比于其它立體成像方式,這種方式具有實時性好、無死區等特點。MESA的晶片由專門的廠家生産,并引進了CCD/CMOS生産工序,保證了光電功能子產品的獨立性以及優化配置。由此保證了MESA使用的晶片的底層噪聲和随後的距離測量能力大大優于基于标準CMOS工藝制造的晶片。其型号是SR4000

SR4000 3D測距相機能以視訊幀速率實時輸出3維距離值和振幅值。基于時間飛行原理(time-of-flight TOF),相機包括一個内置的雷射光源,發射光經場景中的物體反射後傳回相機,每個圖像傳感器中的像素點都分别精确測量該時間間隔,并獨立算出距離值。設計用于戶内環境,SR4000可輕易經USB2.0或者以太網(Ethernet)接口連接配接到電腦或者網絡中,快速生成實時深度圖。代表着MESA公司第4代時間飛行原理相機,它可輸出穩定的距離值,外形美觀、堅固,體積小(65 X 65 X 68mm)(USB版)。 SR4000随機包括驅動和軟體接口程式,使用者可以通過接口程式建立更多的應用。

2.2 PMD Tec系列

Camcube3.0是全球第一款可應用于室外環境的高精度深度相機,這為汽車輔助駕駛、移動機器人等應用帶來了便利。在汽車等交通工具中,停車、開車運作等都一直通過駕駛員的直接觀測和經驗來完成,由于人的經驗誤差或精神狀态影響,在實際過程中,難免會出現各種狀況。而通過TOF相機3D探測,可以很友善的對外界環境進行探測,并對駕駛員起到提醒和輔助駕駛的作用。

PMDTec公司是一家德國公司,其原身是德國錫根大學一個研究傳感器系統(ZESS)的中心實驗室,2002年從德國錫根大學分離出來組建了公司,後被另一家公司收購組建了現在的PMDTec公司。該公司研究3D TOF Imaging(時間飛行技術)超過了10年。2011年,Omek Interactive和PMDTechnologies宣布達成了戰略合作夥伴關系,以提供姿态識别和身體跟蹤解決方案,這為今後的商業應用打下了堅實的基礎。該公司的産品已經開發到了第三代 - CamCube3.0。3D攝像頭的分辨率為200*200,可以以每秒40幀的速度擷取場景的深度資訊和灰階圖像。CamCube3.0具有非常高的靈敏度,它可以在較短的快門時間内獲得更高精度和更遠的探測距離。由于其獨家的SBI技術,TOF是少有的既可以用于室内,又可以用于室外的TOF相機,并可以探測快速運動目标。不過缺點就是價格不菲,不含稅的話,要12000美元。是以隻适合搞科研,對于民用還有很長的路要走。

PMDTec 公司網址:http://www.pmdtec.com/

PMDTec Wiki:http://en.wikipedia.org/wiki/PMDTechnologies

2.3 NATAL

Natal并不是基于ToF的原理,PrimeSense為微軟提供了其三維測量技術,并應用于Project Natal。在PrimeSense公司的首頁上提到其使用的是一種光編碼(light coding)技術。不同于傳統的ToF或者結構光測量技術,light coding使用的是連續的照明(而非脈沖),也不需要特制的感光晶片,而隻需要普通的CMOS感光晶片,這讓方案的成本大大降低。Light coding,顧名思義就是用光源照明給需要測量的空間編上碼,說到底還是結構光技術。但與傳統的結構光方法不同的是,他的光源打出去的并不是一副周期性變化的二維的圖像編碼,而是一個具有三維縱深的“體編碼”。這種光源叫做雷射散斑(laser speckle),是當雷射照射到粗糙物體或穿透毛玻璃後形成的随機衍射斑點。這些散斑具有高度的随機性,而且會随着距離的不同變換圖案。也就是說空間中任意兩處的散斑圖案都是不同的。隻要在空間中打上這樣的結構光,整個空間就都被做了标記,把一個物體放進這個空間,隻要看看物體上面的散斑圖案,就可以知道這個物體在什麼位置了。當然,在這之前要把整個空間的散斑圖案都記錄下來,是以要先做一次光源的标定。在PrimeSense的專利上,标定的方法是這樣的:每隔一段距離,取一個參考平面,把參考平面上的散斑圖案記錄下來。假設Natal規定的使用者活動空間是距離電視機1米到4米的範圍,每隔10cm取一個參考平面,那麼标定下來我們就已經儲存了30幅散斑圖像。需要進行測量的時候,拍攝一副待測場景的散斑圖像,将這幅圖像和我們儲存下來的30幅參考圖像依次做互相關運算,這樣我們會得到30幅相關度圖像,而空間中有物體存在的位置,在相關度圖像上就會顯示出峰值。把這些峰值一層層疊在一起,再經過一些插值,就會得到整個場景的三維形狀了。

2.4 primeSense

  今天最常見的影像捕捉裝置是數位相機。數位相機輸出一個像素矩陣,每個像素代表一個色值。這是一種二維(2D)視覺技術。3D 視覺是指除了捕捉目标的空間位置(x 軸和 y 軸)和顔色之外,還能捕捉目标的深度(又稱 Z 軸、範圍、距離)及其周圍環境。一個 3D 視覺系統同時輸出每個場景的地形視圖和色彩視圖。PrimeSense是一家無廠半導體公司。他們的技術賦予電視、機頂盒、客廳電腦等消費電子産品自然互動能力。他最得意的兩個字就是:深度。他們的 PrimeSensor 産品包含 Reference Design 和 NITE 中間件。PrimeSensor Reference Design 是一款成本低廉、即插即用、靠 USB 供電的裝置,可以放在電視機或顯示器的頂部或旁邊,也可以嵌入其中。ReferenceDesign 能夠實時生成客廳場景的深度、色彩和音頻資料。它能在各種室内照明條件下工作(包括一片漆黑和非常明亮的房間)。它不需要使用者佩戴或手持任何東西,無需校準,也不需要主機處理器做任何運算。PrimeSensor 的設計中包含一個先進的視覺資料進行中間件,它針對面向大衆市場的 CE 産品——NITE進行了優化。NITE 為開發豐富的自然互動應用程式提供了算法架構。NITE SDK(軟體開發工具包)提供了一個文檔詳細的 API 和架構,既能完成 GUI(圖形使用者界面)的設計開發,又能完成遊戲開發。

http://labs.manctl.com/rgbdemo/index.php/Main/Download RGBD标定 ,必看!!

http://www.ee.oulu.fi/~dherrera/kinect/ 最重要!!!

http://nicolas.burrus.name/index.php/Research/KinectCalibration ToF 标定

http://www.rgbdtoolkit.com/

下面摘自:

http://www.cnblogs.com/TracePlus/p/4136297.html

Kinect v1是采用結構光方案,Kinect v2采用TOF方案。

Kinect v1和Kinect v2預覽版的傳感器的配置比較在表1顯示。

Kinect v1 Kinect v2預覽版            
顔色(Color) 分辨率(Resolution) 640×480 1920×1080
fps 30fps 30fps
深度(Depth) 分辨率(Resolution) 320×240 512×424
fps 30fps 30fps
人物數量(Player) 6人 6人
人物姿勢(Skeleton) 2人 6人
関節(Joint) 20関節/人 25関節/人
手的開閉狀態(Hand State) △(Developer Toolkit) ○(SDK)
檢測範囲(Range of Detection) 0.8~4.0m 0.5~4.5m
角度(Angle)(Depth) 水準(Horizontal) 57度 70度
垂直(Vertical) 43度 60度
(Tilt Motor) ×(手動)
複數的App ×(単一的App)

 表1是Kinect v1和Kinect v2預覽版的傳感器的配置比較

繼續閱讀