【ロボット】レゴブロックの凹凸面程の荒さまで触覚フィードバック可能な遠隔作業用分身ロボット「TELESAR V」―慶應義塾大学

このエントリーをはてなブックマークに追加
1pureφ ★
触覚フィードバック可能な遠隔作業用分身ロボット

http://www.youtube.com/watch?feature=player_embedded&v=heXQfgEC3kk

「TELESAR V」は、慶應義塾大学 舘教授のグループが研究しているテレイグジスタンスロボット
システムです。テレイグジスタンスとは、舘教授が1980年代に提唱した概念で、遠隔地に配置した
ロボットを自分の分身として利用することで、人間を時空の制約から開放しようとする技術です。

"この分身ロボットを使うと何ができるかというと、普段我々が見ているものがそのまま、遠隔地でも
普段見えているように見えるようになります。お医者さんだったら例えば、患者さんの様子を診るため
に、手を伸ばして様子を観察する必要が出てきます。その時に自分の手と同じように動かせる手を
持っている。そして自分が聴けるように周りの音を聴くことができる。まず、そういったことができるよう
にはなっているのですが、今回、TELESAR Vの特徴として、指先に触った感覚を伝えられるセン
サーと、操作する人に、その触った感覚を返す装置を付けています。そうすることによって、遠くに居
ながらにして、そこに居るかのように自分の分身ロボットを操り、触った感覚を感じることができる、
そういう技術になっています。"

操縦者は、視界を完全に覆うヘッドマウントディスプレイを通して提示される3D映像により、ロボット
の周りの環境や距離感を把握しています。触覚に関しては、ロボットのセンサーで取得した力ベク
トルと温度情報を伝送することで、物の感触や形、温度を感じる事ができます。現在のところ、レ
ゴブロックの凹凸面程の荒さまで認識できるようになっています。

"ロボットの体の部分と、それから腕の部分と、手の部分に分かれていまして、体の部分は7自由度、
頭も入れると8自由度です。腕の部分は人間と同じ7自由度の関節を持つアームを使っています。
手も人間の自由度には及びませんけれども、15自由度の非常に人間の手に近い構造を持った、
ロボットハンドを使っています。"

"本当に自分が、その場に居ながら、自分の体と見分けの付かないような感覚になること、そして
自分の体できることをその場でできること、そういったことを目指したいなと思っています。"

関連リンク :
- Virtual Reality and Telexistence - Tachi Lab
http://tachilab.org/
- HAPTIC MEDIA 2011
http://ec2011.entcomp.org/

DigInfo- 7 November 2011
http://jp.diginfo.tv/2011/11/07/11-0225-r-jp.php

関連ニュース
「あっ!」「あっ!」「痛いです」本番さながらのリアル体験ができる美形女性ロボ登場!粘膜の柔らかさまでリアルに再現
http://toki.2ch.net/test/read.cgi/dqnplus/1321191304/-100
【ロボット】今度は周囲の動きに合わせます-。ホンダがロボット「ASIMO」の新型を発表 画像あり
http://toki.2ch.net/test/read.cgi/scienceplus/1320848728/-100
【医学】脳波を計測して意思を読み取り、ロボットハンドを意思通りに動かすことに成功/大阪大など
http://toki.2ch.net/test/read.cgi/scienceplus/1320327168/-100
【ロボット】軍用四脚ロボ BigDog のヒューマノイド版 PETMAN 両腕がついて腕立て伏せまでできる(動画) 画像あり
http://toki.2ch.net/test/read.cgi/scienceplus/1320128187/-100
【脳神経】脳だけで「仮想の腕」動かし「仮想物体」感じるサル/米デューク大学
http://toki.2ch.net/test/read.cgi/scienceplus/1318259738/-100
【ロボット工学】離れた物体の触感伝達する装置開発、医療・介護ロボに応用へ/慶大 画像あり
http://toki.2ch.net/test/read.cgi/scienceplus/1297081707/-100
【科学・技術】何でもつかめて操作できる、新発想のロボット
http://kamome.2ch.net/test/read.cgi/newsplus/1288167106/-100
【技術】一人でポッキーゲームができるシステム 「ウフフフッ 甘い!」 咀嚼コミュニケーションとは?(動画ニュース)
http://toki.2ch.net/test/read.cgi/scienceplus/1319073725/
【ロボット】自分をハグできる大発明?電通大の「センスロイド」
http://toki.2ch.net/test/read.cgi/scienceplus/1308921776/
【手術支援】手術ロボット:遠隔操作で触覚も伝わる 慶応大が開発 画像あり
http://toki.2ch.net/test/read.cgi/scienceplus/1280918375/-100
2名無しのひみつ:2011/11/17(木) 17:35:22.46 ID:VFzV/VvU
さっさとエロいの作ってくれ
3名無しのひみつ:2011/11/17(木) 17:37:22.64 ID:sOUpTCEx
麻雀最強ロボ?
4名無しのひみつ:2011/11/17(木) 17:38:20.33 ID:fSTIBLe9
>レゴブロックの凹凸面程の荒さまで認識
まだまだ、キューティクルまでがんばれ
5 忍法帖【Lv=2,xxxP】 :2011/11/17(木) 17:39:44.34 ID:W6f+CYyb
タイムラグと バックラッシュがどんなもんなんだろ
6名無しのひみつ:2011/11/17(木) 17:39:55.60 ID:uio9pFdC
以下、テコンV禁止
7名無しのひみつ:2011/11/17(木) 17:43:44.76 ID:CObq9z06
火星や月に基地を作る場合、
まず遠隔操作ロボットと資材を先に送って基地を建設し、
それから人間を送った方が確実でコストも安い。
人間は酸素や食料が要るが、
遠隔操作ロボットは電源さえあれば良い。
8名無しのひみつ:2011/11/17(木) 17:49:47.29 ID:8YFPBpAE
何言ってるかわからんわ
触覚フィードバックなんか人間の俺もできへんわ
9名無しのひみつ:2011/11/17(木) 17:51:29.81 ID:OHiuKbrG
自分の2倍のサイズのロボットを動かすことも可能だろうか?
10名無しのひみつ:2011/11/17(木) 18:19:12.72 ID:Pt9/OguD

さすが大学頭いいな、

役に立たない原発放射能利権www
11 忍法帖【Lv=2,xxxP】 :2011/11/17(木) 18:26:21.50 ID:W6f+CYyb
>>7
どこで操作する気?
12名無しのひみつ:2011/11/17(木) 20:36:44.17 ID:l1F+oKRj
>>8 
何言ってるかわかんないや
おめえは、触覚の神経が無いのか、それとも手が無いのかどっちだ?
13名無しのひみつ:2011/11/17(木) 21:22:53.99 ID:CP6RsCiK
>>11
月や火星の軌道上からなら遅れは気にならないんじゃない?
14名無しのひみつ:2011/11/17(木) 22:14:36.38 ID:bXCwegzq
月なら地球からタイムラグはちょっとだし、慣れれば何とかなりそう
15名無しのひみつ:2011/11/17(木) 23:39:51.63 ID:CP6RsCiK
>>14
操作した結果が見えるまで2秒ちょっとだろ
真人間には無理だろ
16名無しのひみつ
ダッチワイフに実装されてリアルな感触が味わえるのはいつですか?