飛行時間型カメラ

対象物から反射した光パルスの飛行時間

飛行時間型カメラ(ToFカメラ)は、飛行時間型センサーToFセンサー)とも呼ばれ、レーザーやLEDによって提供される人工光信号の往復時間(飛行時間)に基づいて、画像の各点におけるカメラと被写体間の距離を測定する距離画像カメラシステムです。レーザーベースの飛行時間型カメラは、スキャナーレスLIDARのより広いクラスの一部であり、スキャン型LIDARシステムのようにレーザービームで点ごとに撮影するのではなく、各レーザーパルスでシーン全体を撮影します。[ 1 ] 民生用途向けの飛行時間型カメラ製品は、半導体プロセスによってこのようなデバイスに十分な速度で部品を製造できるようになったため、2000年頃に登場し始めました。 [ 2 ]このシステムは、数センチメートルから数キロメートルまでの範囲をカバーします

デバイスの種類

飛行時間型カメラには、いくつかの異なる技術が開発されています

位相検出器を備えたRF変調光源

フォトニックミキサーデバイス(PMD)[ 3 ] 、 Swiss Ranger、およびCanestaVision [ 4 ]は、送信ビームをRFキャリアで変調し、受信機側でそのキャリアの位相シフトを測定することによって機能します。このアプローチには、モジュール誤差の課題があります。測定された距離は、RFキャリア波長を法とします。Swiss Rangerはコンパクトな短距離デバイスで、距離は5メートルまたは10メートル、解像度は176 x 144ピクセルです。位相アンラッピングアルゴリズムを使用すると、最大一意の範囲を拡大できます。PMDは最大60メートルの距離を提供できます。照明はレーザーではなくパルスLEDです。[ 5 ]最近のCW-ToFカメラシステムは、高周波変調LED光でシーンを照らし、各ピクセルで返される信号の位相シフトを分析して深度を計算します。たとえば、交通取り締まりアプリケーションでは、ナンバープレートや車両リフレクターなどの再帰反射面が強い戻り信号を発生させ、それを使用して経時的に深度画像を構築します。これらの画像により、3D 空間で車両の位置を追跡し、位置時間データに回帰分析を適用して速度を計算することができます。従来のレーダーとは異なり、この方法では車両の実際の移動方向に沿って速度を測定し、カメラに対する車両の距離と角度に依存しません。[ 6 ]一部の連続波 ToF システムでは、連続した時間間隔でキャプチャされた深度画像を使用して、車両などの移動体の 3D 位置を推定します。このシステムは、連続するフレームにわたって複数の再帰反射点を追跡し、3D 空間での物体の軌跡を再構築します。時間の経過に伴う位置の変化に回帰分析を適用することにより、システムは移動経路に沿った物体の速度を正確に決定します。従来のレーダーとは異なり、このアプローチでは、ターゲットまでの距離と角度に関連する誤差が最小限に抑えられます。[ 7 ] CanestaVision の開発元であるCanesta は、2010 年に Microsoft に買収されました。Xbox OneKinect2 は、Canesta の ToF 技術に基づいていました。

レンジゲートイメージャー

これらのデバイスは、イメージセンサー内にシャッターを内蔵しており、光パルスの送出と同じ速度で開閉します。ほとんどの飛行時間型3Dセンサーは、メディナが発明したこの原理に基づいています。[ 8 ]戻ってくるパルスの一部は、到着時間に応じてシャッターによって遮断されるため、受信する光の量はパルスの移動距離に関係します。理想的なカメラの場合、距離はz = R ( S 2S 1 ) / 2( S 1 + S 2 ) + R / 2という式で計算できます。Rカメラの範囲で、光パルスの往復によって決まります。S 1は受信する光パルスの量、S 2は遮断される光パルスの量です。[ 8 ] [ 9 ]

3DV SystemsのZCam [ 1 ]レンジゲート型システムです。マイクロソフトは2009年に3DVを買収しました。マイクロソフトの第2世代Kinectセンサーは、Canestaと3DV Systemsから得られた知識を活用して開発されました。[ 10 ]

フラウンホーファーマイクロ電子回路・システム研究所とTriDiCamが開発したToFカメラシリーズにも同様の原理が採用されています。これらのカメラは、高速電子シャッターを備えた光検出器を採用しています。

ToFカメラの深度分解能は、超高速ゲート増幅CCDカメラによって向上させることができます。これらのカメラは200psまでのゲート時間を実現し、サブミリメートルの深度分解能でToFをセットアップできます。[ 11 ]

レンジゲート型イメージング装置は、霧を通して見通すなど、特定の距離範囲外のものを抑制したい2Dイメージングにも使用できます。パルスレーザーで照明し、光ゲートによって必要な時間だけ光がイメージング装置に到達します。[ 12 ]

直接飛行時間型イメージング装置

これらの装置は、単一のレーザーパルスがカメラから出て焦点面アレイに反射するまでの飛行時間(TOF)を直接測定します。「トリガーモード」とも呼ばれるこの手法で撮影された3D画像は、完全な空間的および時間的データを画像化し、単一のレーザーパルスで完全な3Dシーンを記録します。これにより、シーン情報の迅速な取得とリアルタイム処理が可能になります。時間的制約のある自律運用において、このアプローチは自律宇宙試験[ 13 ]や、 OSIRIS-RExベンヌ小惑星サンプルリターンミッション[ 14 ] 、自律ヘリコプター着陸などで実証されています。[ 15 ] [ 16 ]

Advanced Scientific Concepts, Inc.は、航空、自動車、宇宙など特定用途向けのダイレクトTOFビジョンシステム[ 17 ] (3DフラッシュLIDARカメラ)を提供しています。同社のアプローチでは、980nmから1600nmの波長のレーザーパルスを撮像できる InGaAsアバランシェフォトダイオード(APD)またはPIN光検出器アレイが用いられています。

コンポーネント

TOFカメラは以下のコンポーネントで構成されています。

  • 照明ユニット:シーンを照らします。位相検出器イメージング装置を備えたRF変調光源の場合、光は最大100MHzの高速で変調する必要があり、LEDまたはレーザーダイオードのみが使用可能です。直接TOFイメージング装置の場合、フレームごとに1つのパルス(例:30Hz)が使用されます。照明は通常、目立たないように赤外光を使用します
  • 光学系:レンズは反射光を集め、周囲の環境をイメージセンサー(焦点面アレイ)に結像させます。光学バンドパスフィルターは、照明ユニットと同じ波長の光のみを通過させます。これにより、不要な光が抑制され、ノイズが低減されます。
  • イメージセンサー TOFカメラの心臓部です。各ピクセルは、光が照明ユニット(レーザーまたはLED)から物体まで移動し、再び焦点面アレイに戻るまでの時間を測定します。時間計測にはいくつかの異なる手法が用いられます。上記のデバイスの種類を参照してください。
  • 駆動回路:照明ユニットとイメージセンサーはどちらも高速信号で制御され、同期される必要があります。高解像度を得るには、これらの信号は非常に正確でなければなりません。例えば、照明ユニットとセンサー間の信号がわずか10ピコ秒ずれるだけで、距離は1.5mm変化します。比較のために言うと、現在のCPUは最大3GHzの周波数に達し これは約300psのクロックサイクルに相当します。つまり、それに相当する「解像度」はわずか45mmです。
  • 計算/インターフェース:距離はカメラ内で直接計算されます。良好な性能を得るために、キャリブレーションデータも使用されます。その後、カメラはUSBイーサネットなどのインターフェースを介して距離画像を提供します。

原理

飛行時間型カメラの動作原理:パルス方式(1)では、距離d = ct/2q2/q1 + q2ここで、c は光速、t はパルスの長さ、q1 は光が放射されたときのピクセルに蓄積された電荷、q2 は光が放射されていないときの蓄積された電荷です。連続波法 (2) では、d = ct/アークタンジェント q3 - q4/q1 - q2 . [ 18 ]
アナログタイミングを備えた飛行時間型カメラの原理を示す図

最もシンプルな飛行時間型カメラは、光パルスまたは単一の光パルスを使用します。照明は非常に短時間点灯し、その結果生じた光パルスがシーンを照らし、視野内の物体で反射します。カメラのレンズは反射光を集め、センサーまたは焦点面アレイに結像させます。距離に応じて、入射光には遅延が生じます。光の速度は約c = 300,000,000メートル/秒であるため、この遅延は非常に短く、2.5メートル離れた物体は光を以下の時間だけ遅延させます。[ 19 ]

tD2Dc22.5メートル300000000メートル0.0000000166616.66n{\displaystyle t_{D}=2\cdot {\frac {D}{c}}=2\cdot {\frac {2.5\;\mathrm {m} }{300\;000\;000\;{\frac {\mathrm {m} }{\mathrm {s} }}}}=0.000\;000\;016\;66\;\mathrm {s} =16.66\;\mathrm {ns} }

振幅変調アレイの場合、照明のパルス幅によってカメラが処理できる最大距離が決まります。例えばパルス幅が50nsの場合、距離は

Dメートル×12ct012300000000メートル0.00000005 7.5メートル{\displaystyle D_{\mathrm {max} }={\frac {1}{2}}\cdot c\cdot t_{0}={\frac {1}{2}}\cdot 300\;000\;000\;{\frac {\mathrm {m} }{\mathrm {s} }}\cdot 0.000\;000\;05\;\mathrm {s} =\!\ 7.5\;\mathrm {m} }

この短い時間は、照明ユニットがシステムの重要な部分であることを示しています。このような短いパルスを生成できるのは、特殊なLEDやレーザーだけです。

単一のピクセルは、光感知素子(例:フォトダイオード)で構成されています。この素子は入射光を電流に変換します。アナログタイミングイメージャーでは、フォトダイオードに高速スイッチが接続され、電流を2つ(または複数)のメモリ素子(例:コンデンサ)の1つに送ります。メモリ素子は加算素子として機能します。デジタルタイミングイメージャーでは、数GHzで動作可能な時間カウンタが各光検出器ピクセルに接続され、光が検知されるとカウントを停止します。

振幅変調アレイアナログタイマーの図では、ピクセルは2つのスイッチ(G1とG2)と2つのメモリ要素(S1とS2)を使用しています。スイッチは光パルスと同じ長さのパルスによって制御され、スイッチG2の制御信号は正確にパルス幅だけ遅延されます。遅延に応じて、光パルスの一部のみがG1を介してS1にサンプリングされ、他の部分はS2に格納されます。距離に応じて、S1とS2の比率は図に示すように変化します。[ 4 ] 50ns以内にセンサーに当たる光量はわずかであるため、1つだけでなく数千のパルスが送信され(繰り返しレートtR)、収集されるため、信号対雑音比が向上します。

露光後、ピクセルが読み出され、後続のステージで信号S1とS2が測定されます。光パルスの長さが定義されているため、距離は次の式で計算できます。

D12ct0S2S1+S2{\displaystyle D={\frac {1}{2}}\cdot c\cdot t_{0}\cdot {\frac {S2}{S1+S2}}}

この例では、信号の値は次のようになります:S1 = 0.66、S2 = 0.33。したがって、距離は次のようになります。

D7.5メートル0.330.33+0.662.5メートル{\displaystyle D=7.5\;\mathrm {m} \cdot {\frac {0.33}{0.33+0.66}}=2.5\;\mathrm {m} }

背景光が存在する場合、メモリ素子は信号の追加部分を受信します。これは距離測定に悪影響を及ぼします。信号の背景部分を除去するには、照明をオフにした状態で再度測定全体を実行します。対象物が距離範囲よりも遠い場合も、結果は不正確になります。この場合、制御信号をパルス幅だけ遅延させて2回目の測定を行うことで、このような対象物の影響を抑制できます。他のシステムでは、パルス光源の代わりに正弦波変調光源を使用します。

3DフラッシュLIDARなどの直接TOFイメージャーでは、レーザーから5~10ナノ秒の短いパルスが1つ発射されます。Tゼロイベント(パルスがカメラから発射される時間)は、パルスを直接捕捉し、そのタイミングを焦点面アレイにルーティングすることで確立されます。Tゼロイベントは、焦点面アレイの各ピクセルで反射パルスの戻り時間を比較するために使用されます。Tゼロと捕捉された戻りパルスの時間差を比較することで、各ピクセルは正確な直接飛行時間測定値を出力します。単一パルスの100メートル往復時間は660ナノ秒です。10ナノ秒のパルスでは、シーンが照らされ、距離と強度が1マイクロ秒未満で捕捉されます。

利点

シンプルさ

ステレオビジョン三角測量システムとは対照的に、システム全体は非常にコンパクトです。照明はレンズのすぐ隣に配置されますが、他のシステムでは最低限のベースラインが必要です。レーザースキャンシステムとは対照的に、機械的な可動部品は必要ありません

効率的な距離アルゴリズム

TOFセンサーの出力信号から距離情報を直接抽出するプロセスです。そのため、複雑な相関アルゴリズムが実装されているステレオビジョンとは対照的に、このタスクに必要な処理能力はわずかです。距離データが抽出された後、例えば物体検出も、物体上のパターンにアルゴリズムが影響されないため、非常に簡単に実行できます。精度は通常、測定距離の1%と推定されます。[ 20 ]

速度

Time-of-Flightカメラは、1回の撮影でシーン全体の距離を測定できます。最大160フレーム/秒の速度を実現しているため、リアルタイムアプリケーションに最適です

デメリット

背景光

可視光または近赤外光(400 nm~700 nm)を使用するCMOSまたはその他の積分型検出器またはセンサーを使用する場合、人工照明または太陽からの背景光の大部分は抑制されますが、ピクセルは依然として高いダイナミックレンジを提供する必要があります。背景光はまた、電子を生成するため、それを蓄積する必要があります。例えば、今日の多くのTOFカメラの照明ユニットは、約1ワットの照明レベルを提供できます。太陽の照明電力は1平方メートルあたり約1050ワットで、光学バンドパスフィルタ通過後は50ワットです。したがって、照明されたシーンのサイズが1平方メートルの場合、太陽からの光は変調信号の50倍の強さになります非積分型TOFセンサーは、光を時間的に積分せず、近赤外線検出器(InGaAs)を用いて短いレーザーパルスを捕捉します。このセンサーでは、画像が時間的に積分されず、通常1マイクロ秒未満の短い取得サイクルで取得されるため、太陽を直接観測しても問題ありません。このようなTOFセンサーは、宇宙用途[ 14 ]や自動車用途への利用が検討されています。[ 21 ]

干渉

特定の種類のTOFデバイス(すべてではありません)では、複数の飛行時間型カメラが同時に動作している場合、TOFカメラが互いの測定を妨害する可能性があります。この問題に対処するにはいくつかの方法があります

  • 時間多重化:制御システムは個々のカメラの測定を連続的に開始するため、一度にアクティブになる照明ユニットは 1 つだけです。
  • 異なる変調周波数:カメラが異なる変調周波数で光を変調する場合、その光は他のシステムでは背景照明としてのみ収集されますが、距離測定を妨げることはありません。

単一のレーザーパルスを照明として使用するダイレクトTOF型カメラの場合、単一のレーザーパルスが短い(例:10ナノ秒)ため、視野内の物体との往復TOFもそれに応じて短くなります(例:100メートル = 往復TOF 660ナノ秒)。30Hzで撮影するイメージャーの場合、干渉相互作用の確率は、カメラの取得ゲートが開いている時間をレーザーパルス間の時間で割った値、つまり約50,000分の1(0.66マイクロ秒を33ミリ秒で割った値)となります。

多重反射

一点を照射するレーザースキャンシステムとは対照的に、飛行時間型カメラはシーン全体を照射します。位相差デバイス(振幅変調アレイ)の場合、多重反射により、光は複数の経路を通って物体に到達する可能性があります。そのため、測定された距離は実際の距離よりも長くなる可能性があります。直接TOFイメージング装置は、光が鏡面から反射している場合に脆弱です。さまざまなTOFデバイスとアプローチの長所と短所を概説した論文が公開されています。[ 22 ]

応用

Time-of-Flightカメラで撮影した人間の顔の距離画像(想像図)

Time-of-Flightカメラは、ロボット工学や非接触型ユーザーインターフェースなど、幅広い用途に使用されています。

交通取り締まりにおいて

連続波ToFシステムは、ナンバープレートや車両リフレクターなどの再帰反射面を検出するために使用されます。これらのシステムは、一連の奥行き画像をキャプチャし、3D空間における車両の位置を時間の経過とともに追跡します。これらの点の軌跡を分析することで、車両とカメラ間の距離や角度に関係なく、車両の速度を正確に計算できます。[ 23 ]

自動車用途

Time-of-Flightカメラは、アクティブ歩行者安全、衝突前検知、アウトオブポジション(OOP)検知などの屋内用途など、高度な自動車用途の支援機能および安全機能に使用されています。[ 24 ] [ 25 ]

ヒューマンマシンインターフェースとゲーム

Time-of-Flightカメラは距離画像をリアルタイムで提供するため、人間の動きを追跡することが容易である。これにより、テレビなどの消費者向けデバイスとの新しいインタラクションが可能になる。もう1つのトピックは、このタイプのカメラを使用してビデオゲームコンソールのゲームと対話することです。[ 26 ] Xbox Oneコンソールに最初に含まれていた第2世代Kinectセンサーは、距離画像化にTime-of-Flightカメラを使用しており、[ 27 ]コンピュータービジョンジェスチャー認識技術を使用して、自然なユーザーインターフェイスとゲームアプリケーションを可能にしました。CreativeIntelも、 SoftkineticのDepthSense 325カメラをベースにしたSenz3Dという、同様のタイプのゲーム用のインタラクティブジェスチャーTime-of-Flightカメラを提供しています。[ 28 ] InfineonPMD Technologiesは、オールインワンPCやラップトップなどの消費者向けデバイスの近距離ジェスチャーコントロール用の小型の統合3D深度カメラを実現しています(Picco flexxおよびPicco monstarカメラ)。[ 29

スマートフォンのカメラ

Samsung Galaxy S20 Ultraには、3つの背面カメラレンズとToFカメラが搭載されています

多くのスマートフォンには、飛行時間型カメラが搭載されています。これは主に、カメラソフトウェアに前景と背景の情報を提供することで、写真の画質を向上させるために使用されます。[ 30 ]

この技術を搭載して発売された最初の携帯電話は、2014年初頭のLG G3でした。 [ 31 ] BlackBerry PassportLG G Flex 2もToFセンサーを搭載して発売されました。[ 32 ]

計測とマシンビジョン

高さ測定付き距離画像

その他の用途としては、サイロ内の充填高さなどの測定作業があります。産業用マシンビジョンでは、飛行時間型カメラは、コンベア上を通過する物体など、ロボットが使用する物体の分類と位置特定に役立ちます。ドア開閉装置は、ドアに近づく動物と人間を容易に区別できます。

ロボット工学

これらのカメラのもう一つの用途はロボット工学の分野です。移動ロボットは周囲の地図を非常に速く構築できるため、障害物を回避したり、先導者を追跡したりすることができます。距離計算は簡単なので、必要な計算能力はわずかです。これらのカメラは距離測定にも使用できるため、FIRSTロボティクスコンペティションのチームは自律走行にこれらのデバイスを使用していることが知られています

地球の地形

ToFカメラは地形学の研究のために地球の表面地形数値標高モデルを取得するために使用されてきた[ 33 ]

ブランド

活動ブランド(2011年現在)

  • Orbbec -物流、ロボット工学、ヘルスケア、小売、フィットネス、3Dコンテンツ作成およびアニメーションの分野で世界中で利用されている、MicrosoftのiTOFテクノロジーに基づく高性能FemtoシリーズiTOF RGB深度カメラ
  • ESPROS - 自動車、ロボット、産業、IoTアプリケーション向け3D TOFイメージャーチップ、TOFカメラ、モジュール
  • Advanced Scientific Concepts, Inc. による航空、自動車、宇宙アプリケーション向け 3D フラッシュ LIDAR カメラおよびビジョン システム
  • DepthSense - SoftKineticの RGB センサーとマイクを含む TOF カメラとモジュール
  • IRMA MATRIX - TOFカメラ、 iris-GmbHのモバイルおよび固定アプリケーションでの自動乗客カウント用
  • Kinect -マイクロソフトがビデオゲーム機とPC向けに開発したハンズフリーユーザーインターフェースプラットフォーム。同社の第2世代センサーデバイスに飛行時間型カメラを採用している。[ 27 ]
  • Azure Kinect DK 深度カメラ - Azure Kinect DK 深度カメラは、振幅変調連続波 (AMCW) の飛行時間 (ToF) 原理を実装しています。Azure Kinect DK
  • pmd - PMD Technologiesのカメラリファレンスデザインとソフトウェア (pmd[vision]、TOF モジュール [CamBoard] を含む) および TOF イメージャー (PhotonIC)
  • real.IZ 2+3D -スタートアップ企業odos imagingが開発した高解像度SXGA(1280×1024)TOFカメラ。従来の画像撮影とTOF測距を同一センサーに統合。シーメンスで開発された技術を基盤としています。
  • Senz3D - CreativeとIntelが開発したTOFカメラ。SoftkineticのDepthSense 325カメラをベースにしており、ゲーム用に使用される。[ 28 ]
  • SICK - 産業用アプリケーションおよびソフトウェア向け3D産業用TOFカメラ(Visionary-T)[ 34 ]
  • 3D MLIセンサー - IEE(International Electronics & Engineering)による、変調光強度(MLI)に基づくTOFイメージャー、モジュール、カメラ、ソフトウェア
  • TOFCam Stanley - Stanley ElectricのTOFカメラ
  • TriDiCam - TOFモジュールとソフトウェア。元々はフラウンホーファーマイクロエレクトロニクス回路システム研究所によって開発され、現在はスピンアウト企業TriDiCamによって開発されているTOFイメージャー。
  • Hakvision - TOFステレオカメラ
  • Cube eye - ToF カメラおよびモジュール、VGA 解像度、ウェブサイト: www.cube-eye.co.kr
  • Basler AG - 産業用アプリケーション向け3Dイメージング[1]
  • LILIN - ToF監視カメラ[2]

廃止ブランド

  • CanestaVision [ 35 ] - Canesta(2010年にMicrosoftに買収された企業)によるTOFモジュールとソフトウェア
  • D-IMager -パナソニック電工製TOFカメラ
  • OptriCam - Optrima の TOF カメラとモジュール (2011 年の SoftKinetic との合併前に DepthSense にブランド変更)
  • ZCam - 3DV Systems の TOF カメラ製品。フルカラー ビデオと深度情報を統合します (2009 年に Microsoft に売却された資産)
  • SwissRanger - 元々はCentre Suisse d'Electronique et Microtechnique, SA ( CSEM )が開発した産業用TOF専用カメラライン。現在はMesa Imagingが開発している(Mesa Imagingは2014年にHeptagonに買収された)。
  • Fotonic - パナソニックのCMOSチップを搭載したTOFカメラとソフトウェア(Fotonicは2018年にオートリブに買収された)
  • S.Cube - Cube eyeのToFカメラとモジュール

参照

参考文献

  1. ^ a b Iddan, Gavriel J. ; Yahav, Giora (2001-01-24). 「スタジオ(およびその他)における3Dイメージング…」(PDF) . Proceedings of SPIE . Vol. 4298. San Jose, CA: SPIE (2003-04-29発行). p. 48. doi : 10.1117/12.424913 . 2009-06-12にオリジナル (PDF) からアーカイブ。2009-08-17取得[飛行時間型] カメラは、スキャナーレス LIDAR(つまり、機械式スキャナーを持たないレーザーレーダー)として知られる、より広範なセンサーグループに属します。初期の [1990年] の例としては、サンディア国立研究所の [Marion W.] Scott と彼の追随者たちが挙げられます
  2. ^ 「製品の進化」。3DV Systems。2009年2月28日時点のオリジナル記事よりアーカイブ2009年2月19日閲覧。世界初の深度ビデオカメラであるZ-Camは2000年に発売され、主に放送局向けに開発されました。
  3. ^ Christoph Heckenkamp: Das magische Auge - Grundlagen der Bildverarbeitung: Das PMD Prinzipで:検査します。 No. 1、2008、S. 25–28。
  4. ^ a b Gokturk, Salih Burak; Yalcin, Hakan; Bamji, Cyrus (2005年1月24日). 「Time-Of-Flight Depth Sensor - System Description, Issues and Solutions」(PDF) . 2004 Conference on Computer Vision and Pattern Recognition Workshop . pp.  35– 45. doi : 10.1109/CVPR.2004.291 . S2CID 1203932.オリジナル(PDF)から2007年6月23日にアーカイブ。 2009年7月31日閲覧差動構造は、2つの変調ゲートを用いて、光生成電荷を2つの収集ノードに蓄積する。ゲート変調信号は光源と同期しているため、入射光の位相に応じて、一方のノードが他方よりも多くの電荷を収集する。積分が終了すると、2 つのノード間の電圧差が反射光の位相の尺度として読み取られます。 
  5. ^ 「Mesa Imaging - 製品」 2009年8月17日。
  6. ^フラウンホーファーIMS。「飛行時間型カメラ」。2025年4月29日アクセス。https://www.ims.fraunhofer.de/en/Business_units/ASIC/ASIC_Solutions/TIME_OF_FLIGHT.html
  7. ^フラウンホーファーIMS。「飛行時間型カメラ」。2025年4月29日アクセス。https://www.ims.fraunhofer.de/en/Business_units/ASIC/ASIC_Solutions/TIME_OF_FLIGHT.html
  8. ^ a b米国特許5081530、メディナ、アントニオ、「3次元カメラおよび距離計」、1992年1月14日発行、メディナ、アントニオに譲渡 
  9. ^ Medina A, Gayá F, Pozo F (2006). 「コンパクトレーザーレーダーと3次元カメラ」. J. Opt. Soc. Am. A . 23 (4): 800– 805. Bibcode : 2006JOSAA..23..800M . doi : 10.1364/JOSAA.23.000800 . PMID 16604759 . 
  10. ^ 「Kinect for Windows 開発キット、11月にリリース予定、『グリーンスクリーン』テクノロジーを追加」 PCWorld 2013年6月26日
  11. ^ 「スペースシャトルのタイルの検査のためのサブミリ波 3D レーザーレーダー.pdf」(PDF)
  12. ^ 「Sea-Lynx Gated Camera - アクティブレーザーカメラシステム」(PDF) 。2010年8月13日時点のオリジナル(PDF)からアーカイブ
  13. ^ Reisse, Robert; Amzajerdian, Farzin; Bulyshev, Alexander; Roback, Vincent (2013年6月4日). Turner, Monte D; Kamerman, Gary W (編). 「安全、自律的、かつ正確な惑星着陸のための3DイメージングフラッシュLIDAR技術のヘリコプター飛行試験」(PDF) . Laser Radar Technology and Applications XVIII . 8731 : 87310H. Bibcode : 2013SPIE.8731E..0HR . doi : 10.1117/12.2015961 . hdl : 2060/20130013472 . S2CID 15432289 . 
  14. ^ a b「ASCの3DフラッシュLIDARカメラがOSIRIS-REx小惑星ミッションに選定」 NASASpaceFlight.com 2012年5月13日
  15. ^ 「注目すべき無人システムのイノベーション」(PDF) . e-vmi.com . 2012年8月. 2024年8月10日閲覧
  16. ^ 「自律型航空貨物/ユーティリティシステムプログラム」海軍研究局。2014年4月6日時点のオリジナルよりアーカイブ
  17. ^ 「製品」。Advanced Scientific Concepts
  18. ^ 「Time-of-Flightカメラ - 入門」。Mouser Electronics
  19. ^「レンジイメージングのためのCCD/CMOSロックインピクセル:課題、限界、そして最先端技術」 - CSEM
  20. ^ Hansard, Miles; Lee, Seungkyu; Choi, Ouk; Horaud, Radu (2012-10-31). Time of Flightカメラ:原理、手法、および応用. Springer. p. 20.
  21. ^ 「自動車」高度な科学概念
  22. ^アウエ、ジャン;ダーク・ランガー。ミュラー・ベスラー、ベルンハルト。フンケ、ブルクハルト (2011-06-09)。 「2011 IEEE インテリジェントビークルシンポジウム (IV)」。2011 IEEE インテリジェント車両シンポジウム (IV)。バーデンバーデン、ドイツ: IEEE。 pp.  423–428土井10.1109/ivs.2011.5940442ISBN 978-1-4577-0890-9
  23. ^フラウンホーファーIMS。「飛行時間型カメラ」。2025年4月29日アクセス。https://www.ims.fraunhofer.de/en/Business_units/ASIC/ASIC_Solutions/TIME_OF_FLIGHT.html
  24. ^ Hsu, Stephen; Acharya, Sunil; Rafii, Abbas; New, Richard (2006年4月25日). 「インテリジェント車両安全アプリケーション向けTime-of-Flight測距カメラの性能」. Advanced Microsystems for Automotive Applications 2006 (PDF) . VDI-Buch. Springer . pp.  205– 219. CiteSeerX 10.1.1.112.6869 . doi : 10.1007/3-540-33410-6_16 . ISBN  978-3-540-33410-12006年12月6日にオリジナル(PDF)からアーカイブ。2018年6月25日閲覧
  25. ^ Elkhalili, Omar; Schrey, Olaf M.; Ulfig, Wiebke; Brockherde, Werner; Hosticka, Bedrich J. (2006年9月). 「自動車安全用途向け64×8ピクセル3D CMOSタイムオブフライトイメージセンサー」. 2006 Proceedings of the 32nd European Solid-State Circuits Conference . pp.  568– 571. doi : 10.1109/ESSCIR.2006.307488 . ISBN 978-1-4244-0302-8. S2CID  24652659 . 2010年3月5日閲覧
  26. ^キャプテン・ショーン (2008年5月1日). 「制御不能なゲーム」 . PopSci.com . ポピュラーサイエンス. 2009年6月15日閲覧。
  27. ^ a b Rubin, Peter (2013年5月21日). 「Xbox One独占初公開」 . Wired . Wired Magazine . 2013年5月22日閲覧。
  28. ^ a b Sterling, Bruce (2013年6月4日). 「拡張現実:Intelデバイス向けSoftKinetic 3D深度カメラとCreative Senz3D周辺カメラ」 . Wired Magazine . 2013年7月2日閲覧。
  29. ^ Lai, Richard (2013年6月6日). 「PMDとInfineonが超小型統合型3D深度カメラを実現(ハンズオン)」 Engadget . 2013年10月9日閲覧
  30. ^ Heinzman, Andrew (2019-04-04). 「Time of Flight (ToF) カメラとは何か?なぜ私のスマートフォンにはToFカメラが搭載されているのか?」 How -To Geek .
  31. ^ James, Dick (2016年10月17日). 「STMicroelectronicsのTime-of-FlightセンサーとStarship EnterpriseがiPhone 7シリーズに登場」 . TechInsights .オリジナルより2022年12月25日アーカイブ. 2023年5月21日閲覧
  32. ^ Frank, Randy (2014年10月17日). 「スマートフォンに搭載されたTime-of-flight技術」 . Sensor Tips . WTWH Media LLC. 2023年4月19日時点のオリジナルよりアーカイブ。 2023年5月21日閲覧
  33. ^ Nitsche, M.; Turowski, JM; Badoux, A.; Rickenmann, D.; Kohoutek, TK; Pauli, M.; Kirchner, JW (2013). 「レンジイメージング:小規模・中規模フィールドサイトにおける高解像度地形測定のための新たな手法」地球表面プロセスと土地形態. 38 ( 8): 810. Bibcode : 2013ESPL...38..810N . doi : 10.1002/esp.3322 . S2CID 55282788 . 
  34. ^ TBA. 「SICK - Visionary-T y Visionary-B: 3D de un vistazo - Handling&Storage」 . www.handling-storage.com (スペイン語). 2017年4月19日時点のオリジナルよりアーカイブ。 2017年4月18日閲覧
  35. ^ 「Canesta社、コンシューマー向け3DイメージセンサーにTowerJazzのCIS技術を採用」 Business Wire 2010年6月21日閲覧2013年10月29日Canesta Inc.は、革新的なCanestaVision 3Dイメージセンサーの製造にTowerJazzのCMOSイメージセンサー(CIS)技術を採用しています。

参考文献