課金決済手段スレ Part2

このエントリーをはてなブックマークに追加
706名無し@お腹いっぱい。
産業技術総合研究所(以下,産総研)のヒューマンライフテクノロジー研究部門 ユビキタスインタラクション研究グループは2010年8月25日,
3次元(3D)映像に直接触れたような感覚が得られるシステム「i3Space(アイ・キューブ・スペース)」を発表した。
指先に専用の装置を取り付けることで,ディスプレイに表示した3D映像に触れたり,操作したりする感覚が得られる。
手術のシミュレーションや,外観デザインの設計,ゲーム用のインタフェースといった応用先を想定する。

 i3Spaceは,ユーザーの指の動きを認識し,それに合わせて触覚や力覚(手ごたえ)をリアルタイムで制御して3D映像に触力覚を与えるもの。
産総研では,「リアルタイムVR空間生成システム」と「錯触力覚インターフェース」,「マルチ・ポジション・トラッカーシステム」
の三つを開発することで実現したとする。

 リアルタイムVR空間生成システムは,ユーザーの動作や指の位置から対象となる物理モデルに働く力を計算し,
それに合わせた反力や3D映像を生成するもの。ユーザーの動作に対する応答を生成する一連の処理をリアルタイムで実施する。

 錯触力覚インタフェースは,触力覚を提示する「錯触力覚デバイス」とその制御回路である「錯触力覚コントローラー」から成る。
錯触力覚デバイスには,産総研が2005年に開発した「GyroCubeSensuous」を採用した。

 マルチ・ポジション・トラッカーシステムは,ユーザーを複数台のカメラで取り囲み,
指先に装着したマーカーの位置を測定するもの。複数台のカメラを使用することで死角のない測定が可能という。