ホーム > セミナー > 3Dセンシング技術の基礎と応用

3Dセンシング技術の基礎と応用

~デプスカメラの基本動作原理と活用するための使いこなし方~

セミナー概要

略称
3Dセンシング
セミナーNo.
開催日時
2018年08月30日(木)10:30~16:30
主催
(株)R&D支援センター
問い合わせ
Tel:03-5857-4811 E-mail:info@rdsc.co.jp 問い合わせフォーム
開催場所
商工情報センター(カメリアプラザ) 9F 会議室
講師
(株)フォスメガ 代表取締役社長 上田 智章 氏
価格
非会員: 49,980円(税込)
会員: 47,250円(税込)
学校関係者: 10,800円(税込)
価格関連備考
会員(案内)登録していただいた場合、通常1名様申込で49,980円(税込)から
 ★1名で申込の場合、47,250円(税込)へ割引になります。
 ★2名同時申込で両名とも会員登録をしていただいた場合、計49,980円(2人目無料)です。
学校関係者価格は、企業に在籍されている研究員の方には適用されません。
■ 会員登録とは? ⇒ よくある質問
定員
30名 ※現在、お申込み可能です。満席になり次第、募集を終了させていただきます。
備考
昼食・資料付

講座の内容

受講対象・レベル
・デプスカメラの動作原理について興味をお持ちの方
・デプスカメラを用いたアプリ開発について興味をお持ちの方
・デプスカメラあるいは3Dスキャナーを開発されようとお考えの方
・非接触バイタルセンシングについて興味をお持ちの方
必要な予備知識
・高校卒業程度の数学知識
・Visual C#の基礎的な記述と文法に関する知識
習得できる知識
・デプスカメラを開発する際の必要な基礎知識と各方式の問題点
・デプスカメラのアプリケーション分野の把握
・デプスカメラの開発動向
・デプスカメラを使いこなす上で必要な数学知識
趣旨
 ToF(Time of Flight)方式、LiDAR方式、Structured Light方式、Infrared Depth方式などのデプスカメラの基本動作原理の理解と、そのメリット、デメリット、想定される応用分野などについて理解し、新しい情報処理によって可能になった技術についても紹介する。特に、測距系の応用に留まらず、非接触生体センシングについても原理とともに説明を行う。
プログラム
【はじめに】
 2017年8月末、Intel社がSR-300, R-200の生産を終了。
 2017年10月25日、Microsoft社がKinectの生産を終了。
 ASUS Xtion2 (ToF方式) 640x480画素
 D415、D435(Structured Light方式)1280x720画素
 
【イントロダクション編】

第1章【3Dセンサに要求される機能概要】
【基本機能】
 1.1 Color  フルHDカラーカメラのキャプチャ
 1.2 Depth ToF(Time of Flight)方式デプスデータの画像化
 1.3 BodyIndex 人検出(人物のいる領域を示すデータ)
 1.4 Infrared  アクティブ赤外線画像データ
 1.5 Body  骨格トラッキング(25点の関節3次元座標、手のグー、チョキ、パー検出)
 1.6 Audio  音声データ(音源方向検出とビームフォーミング、音声認識)
 1.7 Face  5つ(両眼、鼻、口角)の特徴点の3次元座標と数種類の表情や状態を検出
 1.8 HD Face  2,000点の顔モデルと多数の特徴点のキャプチャー
 1.9 Kinect Fusion  3Dスキャナ
【拡張機能】
●PC間通信
 1.10 WebSocket  サーバー⇔クライアント
 1.11 UDP  一方的送信
●FIFO利用(ノイズ抑制、残像等)
 1.12 DepthFIFO  フレームFIFOを用いた時系列方向の移動平均
 1.13 InfraredFIFO  フレームFIFOを用いた時系列方向の移動平均
 1.14 AfterImage  骨格トラッキングされた関節の軌跡(残像)
 1.15 Gesture(Circle)   軌跡(点群データ)から円の中心座標を推定
●法線ベクトル推定
 1.16 DepthFusion  デプスの放物曲面推定で法線ベクトルを推定し、
            光源計算(Lighting)により立体感のある表示法
●非接触バイタルセンシング
 1.17 Acceleration  骨格トラッキングで加速度検出(速度も可)
 1.18 FaceHeartBeat  顔の観測(Color or Infrared)で心拍を観測
 1.19 Breathing  胸部観測(Depth)で呼吸・心拍を観測
 1.20 PointCloud 点群データの活用により観察方向を任意変更
          沈水、転倒、うずくまり、横たわり
 1.21 BodyBalance 平衡感覚の老化測定
【応用】
 1.22 HandGesture  NUI(Natural User Interface)
 1.23 AR Sensing  1チャンネルのセンサで空間に分布状態を可視化
 1.24 CyberEye  距離を音に変換する視覚障碍者向けデバイス
                      聴覚で視覚を代替する知覚コンバータ
 1.25 EyeTracking  瞳孔輪郭を検出し、視線ベクトルを算出
 1.26 RobotEyeContact  前に立った人を見つめるロボット制御
 1.27 VirtualMusicalInstrument  仮想楽器
 1.28 HomeControl  家電制御
■ToFデプス精度の検証
 1.29 DepthPrecision  デプスのノイズ原因の検証用
【その他のアプリケーション】
 1.30 残像表示
   骨格トラッキングにより取得した関節3次元座標の時間履歴をFIFOメモリ保持
 1.31 非接触加速度センシング
 1.32 平衡感覚の衰えをセンシング
 1.33 ハンド・モーション判定
 1.34 円運動推定
 1.35 ハンドジェスチャーによる家電制御
 1.36 エア楽器
 1.37 赤外線近接NUIによる指先トラッキング
 1.38 ロボット視線トラッキング
 1.39 非接触バイタルセンシング
   在宅介護見守りシステムなど
 

【構造と動作原理概要説明編】


第2章【3Dセンサの概要】
 2.1 光源と観測位置の座標の違いを利用する(光三角法)
  2.1.1 光切断法
  2.1.2 モアレ法
  2.1.3 Structured Light法
   2.1.3.1 固定パターン法
   ・ランダムドットパターンを用いた相関方法
   (iPhone X, KinectV1, Carmine, RealSense D415,D435)
   ・高速高分解能カメラで各ドットを追尾するHyper Depth
   2.1.3.2 時分割パターン法(RealSense F-200, SR-300)
 2.2 光パルスの往復時間または位相遅れを利用する(Time of Flight)
  2.2.1 ToFカメラ
  2.2.2 LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)
 2.3 カメラ位置の違いから特徴点/テクスチャのマッチングを利用
  2.3.1 PTAM(Point Tracking and Mapping)
  2.3.2 ステレオ・マッチング
  2.3.3 SLAM(Simultaneous Localization and Mapping)
      自己位置推定と環境地図作成を同時に行う
  2.3.4 マルチカメラ
  2.3.5 自己位置推定用シートマーカーを用いる方法(Qlone)
 2.4 機械学習から静止画から3D顔モデルを再構成する 
  cvl-demos.cs.nott.ac.uk/vrn/
 2.5 拡散反射光の性質を利用する(Infrared Depth)
 2.6 拡散反射光を仮定して法線ベクトルを求めデプスを推定する
 2.7 Make3D(視覚処理の模倣)
 2.8 カラー開口フィルタ(東芝)

【動作原理説明上級編】

第3章【ToF方式デプスカメラの動作原理】
  ~Kinect for Windows V2のTime of Flight方式~ 
 3.1 ToF方式デプスカメラのジッターノイズ
 3.2 ジッターノイズの大きくなる条件
  ビーム指向性、赤外線吸光度、法線ベクトル、距離減衰(距離の2乗に反比例)
 3.3 ToF方式デプスカメラの基本動作原理
 3.4 ToF方式デプスカメラの測定ステップ
 3.5 ToF方式デプスカメラの演算動作
  環境光オフセット除去、アクティブ赤外線、デプス値の演算
 3.6 Microsoft社の米国特許出願内容
 3.7 C.E.Shannonのチャンネル容量の法則
 3.8 フレーム移動平均処理(チャンネル容量の法則)
 3.9 法線ベクトルセンシング
 3.10 Depth Fusion
  光源計算(Lighting)による陰影付け(Shading)
 3.11 床面法線ベクトル学習によるポイント・クラウドの活用
  3.11.1 見守りシステム(病院、介護施設、在宅)
  3.11.2 浴室見守り
 3.12 非接触バイタルセンシングへの応用
  矩形領域内加算平均処理と時間履歴データの
   最小二乗法放物線補間処理(チャンネル容量の法則)
   呼吸・心拍センシング
 3.13 補足説明

第4章【 Light Coding方式の動作原理】
 デプスカメラの動作原理
  ~デプスカメラを1から作り、機能を再現する~
  ~乱数パターンの相互相関で距離を演算~
 4.1 光切断法による測距(レーザーポインタ)
 4.2 光切断法による測距の多重化(ラインレーザー)
 4.3 Light Codingとは 
  ランダム・ドット・パターンの自己相関特性による個別ドットの識別方法
 4.4 イスラエルのPrime Sense社の米国特許出願内容 
 4.5 乱数投影パターンの数学的性質と相互相関
 4.6 可視光プロジェクタとWebカメラによる検証
 4.7 pre-convoluted patter法(高速アルゴリズム)
 4.8 ランダムドットプロジェクタの製作方法
  レーザーダイオード+コリメートレンズ+回折格子

第5章【InfraredDepth方式の動作原理】
 ~学習で普通のWebカメラをデプスカメラにしてしまう~
 5.1 Microsoft社のSIGGRAPH2014発表内容
 5.2 Webカメラを赤外線カメラに改造
 5.3 InverseSquare法とは
 5.4 InverseSquare法の検証結果
 5.5 InverseSquare法の問題点
 5.6 InverseSquare法の改善策
 5.7 NeoTechLabのオリジナル・アルゴリズム

第6章【次世代 情報濃縮アルゴリズム】
 ~圧縮ノイズや量子化ノイズに埋もれた情報を抽出する技術~
 6.1 JPEG圧縮された画像データからの血管分布や表面凹凸を抽出
 6.2 アルゴリズム
  6.2.1 周囲画素を使った空間フィルタで高解像度化
  6.2.2 観測波長の差異で深さ別に情報抽出
 6.3 将来の可能性

【非接触生体センシング編】

第7章【非接触生体センシングの基礎知識】 
【心拍・呼吸に関する基礎知識】 
 7.1 心臓の構造と心電図
 7.2 呼吸動作と酸素供給の関係
 7.3 呼吸と心拍揺らぎの関係
 7.4 入浴中の心拍揺らぎと年齢
【心拍・呼吸センシングの原理】
 7.5 カラー画像または赤外線画像からの心拍センシング
 7.6 デプスデータからの呼吸・心拍センシング
 7.7 KinectV1での非接触呼吸・心拍センシング
 7.8 スポット光方式
  反射光強度分布を放物面関数で近似して精密測距
 7.9 マーカー方式
  濃度分布関数または円形マーカーを用いた精密測距

【その他の関連アルゴリズム説明編】

第8章【アルゴリズムの原理】
 8.1 FIFOアルゴリズム
  8.1.1 FIFO
  8.1.2 高速移動平均
  8.1.3 矩形波相関法
 8.2 基底遷移アルゴリズム
  8.2.1 放物線補間と3軸加速度検出 や ノイズ除去
  8.2.2 放物面補間(輝度分布中心の推定)
  8.2.3 線スペクトルとDCオフセットノイズ除去
  8.2.4 適応フィルタ
  8.2.5 デコンボリューション(逆畳み込み演算)
  8.2.6 2次元ポイントクラウド⇒円の中心座標⇒半径
  8.2.7 3次元ポイントクラウド⇒円の中心座標⇒半径
  8.2.8 3次元ポイントクラウド⇒球の中心座標⇒半径
 8.3 最小2乗法
  8.3.1 放物線補間
  8.3.2 放物面補間
  8.4 ジェスチャ
  8.4.1 Air Tap
  8.4.2 Bloom

【まとめ】

Appendix A【3Dセンサの動向】
 A.1 ストラクチャ光照明方式
   A.1.1 固定パターン投影型
   Kinect V1, Carmine
   A.1.2 時分割パターン投影型
   Intel RealSense F-200, SR-300 / R-200 / D415, D435
 A.2 ToF(Time of Flight)方式
      Kinect V2, Senz3D, Xtion2
 A.3 InfraredDepth方式(SIGGRAPH2014:Microsoft)
 A.4 Stereoカメラ方式
 A.5 Leap Motion(魚眼レンズステレオカメラ+赤外線照明)
 A.6 PTAM方式(単眼カメラ)
 A.7 Make3D方式(単眼カメラ)Cornell大学
 A.8 3Dセンサの現状
 A.9 日本の3Dセンサの開発動向

Appendix B【Kinect V2】
 Microsoft社Kinect V2の実機デモによる概要説明(Kinect for Windows SDK 2.0の基本機能)を行います。
 B.1【推奨ハードウェア条件とPCの適合性診断方法】
 B.2【ハードウェア編】 
  B.2.1 接続構成と接続台数の制約
  B.2.2 フルHDカラーカメラ
  B.2.3 赤外線カメラ
  B.2.4 赤外線レーザー
  B.2.5 3軸直交加速度
  B.2.6 マイクロフォン・アレイ
 B.3【ソフトウェア編】(SDK2.0 Build1409版) 
  B.3.1 Color  フルHDカラーカメラのキャプチャ
  B.3.2 Depth  ToF(Time of Flight)方式デプスデータの画像化
  B.3.3 BodyIndex  人検出(人物のいる領域を示すデータ)
  B.3.4 Infrared  アクティブ赤外線画像データ
  B.3.5 Body  骨格トラッキング
         (25点の関節3次元座標、手のグー、チョキ、パー検出)
  B.3.6 Audio  音声データ
         (音源方向検出とビームフォーミング、音声認識)
  B.3.7 Face  5つ(両眼、鼻、口角)の特徴点の3次元座標と数種類の表情や状態を検出
  B.3.8 HD Face  2,000点の顔モデルと多数の特徴点のキャプチャー
  B.3.9 Kinect Fusion  3Dスキャナ
  B.3.10 補足事項

Appendix C【3次元グラフィックスの基礎知識】
 C.1 3D-CGモデル
 C.2 ポリゴン描画
 C.3 透視変換と光源計算
 C.4 Kinect Fusionと光源計算
 C.5 光源計算
 C.6 Bone
 C.7 Boneと物理演算センサ

Appendix D【RealSense SR-300 / R-200イントロダクション】
 Intel社RealSense SR-300 / R-200の実機デモによる概要説明(RealSense SDKの基本機能)を行います。
 D.1【推奨ハードウェア条件とPCの適合性診断方法】
 D.2【ハードウェア編】
  D.2.1 SR-300(F-200の後継機)
  D.2.2 R-200
 D.3【ソフトウェア編】
  D.3.1 Color
  D.3.2 Depth
  D.3.3 Infrared
  D.3.4 Hand Tracking
  D.3.5 Face Tracking
  D.3.6 3Dスキャン
  D.3.7 補足事項

Appendix E【Kinect V1イントロダクション】
 ~Kinect for Windows [V1]の概略構造~
 E.1 拡張現実とは?
 E.2 拡張現実関連の時代の流れ
 E.3 Kinectとは?
 E.4 Kinectの差異
 E.5 【推奨ハードウェア条件】
  本体形状、USB2.0 I/Fと電源、スティックPCでも動作
 E.6 【Kinectの概略構成】
  ・RGBカメラ ・赤外線プロジェクタ ・赤外線カメラ ・3軸直交加速度センサ
  ・仰角制御モーター ・4つのマイクロフォン
 E.7 【Kinectの内部構造】
 E.8 【Kinectの赤外線プロジェクタ】
 E.9 【デプスカメラ】
 E.10 【Kinectの機能概要】
 E.11【Kinect V1ソフトウェア編】 
   ~Kinect for Windows SDK Ver.1.8の基本機能紹介とデモ~
  E.11.1 カラー画像キャプチャ
  E.11.2 デプスイメージ (カラールックアップテーブル方式を例示)
  E.11.3 赤外線カメラ
  E.11.4 骨格トラッキング
  E.11.5 人物検出
      E.11.6 カメラ位置補正の方法
  E.11.7 3軸加速度センサと仰角制御
  E.11.8 オーディオ
   ・音声認識と音声合成
   ・音源方向検出とビームフォーミング
  E.11.9 アバターアニメーション
  E.11.10 顔トラッキング
  E.11.11 手の状態検出(手のGrab/Pan検出)
  E.11.12 Kinect Fusion
  B.11.13 動画作成フリーウェアMikuMikuDance

【質疑応答・名刺交換】

関連するセミナー

関連する書籍・DVD

関連するタグ