1 :
デフォルトの名無しさん :
2010/11/27(土) 03:22:13
Kinect を買う権利がない
面白そうなんだけどネタで買うにはちょっと高いのが難点
ノーパソのディスプレイの上にクリップで挟んで置けるくらい小型のが出れば、 いろいろ遊んでみたいがな・・・
このスレッドは天才チンパンジー「アイちゃん」が 言語訓練のために立てたものです。 アイと研究員とのやり取りに利用するスレッドなので、 関係者以外は書きこまないで下さい。 京都大学霊長類研究所
7 :
デフォルトの名無しさん :2010/11/28(日) 23:35:06
>>4 Kinect買ってきたが想像してたよりでかいwww
とりあえずmacにドライバ(libusb)とOpenKinect入れてサンプルのカメラは写った。
が、ハンドトラッキングとか、どうやるのかさっぱりわかんね。
8 :
デフォルトの名無しさん :2010/11/28(日) 23:36:10
とりあえず日本語のAPIリファレンスほしいな
これ持ってたら朝鮮キムチボックソユーザーと勘違いされそうで恥ずかしい
11 :
デフォルトの名無しさん :2010/11/28(日) 23:54:12
ゲームは一切やっていないソフト会社だが、Kinect解析チームができて、どうみても遊んでやがる。
>>12 うち、主要取引先が林檎屋だから、まず日の目をみないだろう・・・
14 :
デフォルトの名無しさん :2010/11/29(月) 00:43:49
kinect単品で買わないとUSBケーブル付いていないから注意。
16 :
デフォルトの名無しさん :2010/11/29(月) 19:22:17
>>11 キネクトとは関係ないがうちの会社にもいるわ。仕事してるフリして
遊んでたりネットしてるだけの奴が。
17 :
デフォルトの名無しさん :2010/11/29(月) 23:24:10
19 :
デフォルトの名無しさん :2010/11/30(火) 11:15:40
20 :
デフォルトの名無しさん :2010/11/30(火) 11:18:36
うざいから巣に帰ってね
22 :
デフォルトの名無しさん :2010/11/30(火) 14:54:55
23 :
デフォルトの名無しさん :2010/11/30(火) 14:57:00
24 :
デフォルトの名無しさん :2010/11/30(火) 14:58:35
25 :
デフォルトの名無しさん :2010/11/30(火) 15:01:04
26 :
デフォルトの名無しさん :2010/11/30(火) 15:19:25
2台のKinect で3Dビデオ撮影、視点変更も自在
http://japanese.engadget.com/2010/11/29/2-kinect-3d/ Kinect を3Dカメラ化するハックで注目を集めた作者が、今度は Kinect を2台使う
バージョンを公開しました。
Oliver Kreylos 氏のハックは Kinect の奥行きセンサーで得た3D空間情報に、カメラで
撮影した映像をマッピングする手法。一般的な3Dカメラは左右の目の分だけずれた
2枚の2D画像から奥行き感を得るのに対して、この手法では3D座標上に色を「配置」
することで、視点を上下にも左右にも自在に動かせるのがポイントです (3Dビデオ撮影
というより、3Dのジオメトリとテクスチャの同時キャプチャ&再合成といったほうが近い)。
ただしカメラもセンサーもひとつの視点から撮影しているため、Kinect から見えていない
部分は黒い影になってしまいます。
新たに公開された" 2 Kinect 1 Box " デモは、2台のKinect を互いに90度の角度で
配置して、2視点から得られたデータを合成して表示する内容。続きに掲載した動画では、
2台のカメラしか使っていないにもかかわらず、映画 Matrix のあれ ( Bullet Time)
ばりに視点を左右にぐりぐりと動かしたり、さらに上から見たりといった処理をリアル
タイムで実行しています。2つのカメラ映像が干渉していたり微妙にキャリブレーションが
ずれている ( 本来はない境界線が見えている ) などの点もあるものの、作者いわく
「最初の実験にしては上出来」。
映像をみると分かりますが、上の写真は左右斜め45度に置かれた Kinect の映像から
合成した、本来は存在しない「正面カメラ」視点。Kreylos 氏は自作の VRツールキット
Vrui の一部としてこのハックを実現しており、Kinect を使った3DキャプチャやCGと重ね
合わせる VR / AR アプリでの応用が期待できます。実際のコードを読んでみたいかたは
リンク先の作者 Kinect Hackページへ。
わざわざハックしなくてもそのうちXNA向けにAPIが提供される予定
28 :
デフォルトの名無しさん :2010/11/30(火) 15:40:19
29 :
デフォルトの名無しさん :2010/11/30(火) 15:48:22
俺には見える SEXしたり おっぱいを揉みしだくエロゲが登場する
3Dとキネクトって相性抜群だな
32 :
デフォルトの名無しさん :2010/11/30(火) 17:17:04
>>27 XNAだとゲームでしかまともに使えん。
Direct2DとかみたいにWindows API Code Packで出せ。
openkinectで自分をジョイパッドに出来る汎用的なツールを公開している人はまだいないですかね?
俺には見える 玉の発射がオナニーのストロークという 画期的シューティングゲームが
今日は 3 発大きいのが打てそうだな。。
>>19 ビバップのエドのやってた
空中キーボードとかできそうだなw
37 :
デフォルトの名無しさん :2010/12/01(水) 12:11:05
for macって言っても今んとこlibusb動く環境ならいいわけで
ちんこを勃起させる事で入力できる装置と聞いて
DOA Paradice のポールダンス練習できる ビッチ育成ソフトとか売れそうじゃね?
42 :
デフォルトの名無しさん :2010/12/02(木) 15:20:10
XNAで使いたいんだが、C#で書かれたライブラリはないか?
43 :
デフォルトの名無しさん :2010/12/02(木) 15:34:42
44 :
デフォルトの名無しさん :2010/12/04(土) 22:30:44
>>44 エロゲの未来の為に2ch各所でひげねこのブログに
要望コメントを書いてくれるように頼んだら
もしかしてもしかするかもな。
多数の要望がないと動かないことで有名だから。
箱○では審査通らないからWindowsだな。
やっとXNAの時代が来るか?
ねこじゃないけどXNAスタッフが検討中とか言ってた記事があったな
47 :
デフォルトの名無しさん :2010/12/04(土) 23:56:44
どうせ今の調子だと1年後とか2年後とかだろ XNAteamの腰の重さは嫌と言うほど思い知らされてるからな あと早くXNAでDirectX11使いたいわ Xbox360なんて切っていいから
48 :
デフォルトの名無しさん :2010/12/05(日) 21:29:27
WPFで使いたいからXNAではなくAPI Power Packで頼む
とりあえず、アニメーションデータ切り捨てずに読み込むほうが先だ。 シェーダー自作しないとアニメーション再生できないとかありえん。
50 :
デフォルトの名無しさん :2010/12/06(月) 10:25:34
C#で書いてる途中である程度動くようになってきたが、
>>43 へ投稿する方法がわからない。
github からフォークして変更加えたものをpullリクエストすればいいだけ リリースアナウンス用に GoogleGroup にディスカッション作って通知しないと無視されるかもね
ロードマップ作ってみた 人体3Dマーカレストラッキング技術 (活動中の人体をカバン等に隠したkinekt一式で舐め回して取り込む、ついでに肉声録音) ↓ ボディライン推定と被服認識 ↓ 肉声解析から音声合成 ↓ 憧れのあの子のボーカロイド完成
「何してるんですか警察呼びますよ」発語のみで音声キャリブレーション 怯えた表情のみで他の表情を推測 未踏だなw
54 :
デフォルトの名無しさん :2010/12/06(月) 12:28:43
エロゲだと音声認識もあついなw
55 :
デフォルトの名無しさん :2010/12/06(月) 12:30:13
ここから先はマルコフの出番だな
音声認識で語尾が勝手に「ゲソ」とか「イカ」に変わるアプリケーションを作ってくれなイカ
俺と真希のアバターが仮想世界で交合する日が来るのか
次のWindowsで標準対応してくるのかな
61 :
デフォルトの名無しさん :2010/12/08(水) 19:36:20
まぁ逮捕されるにしても年あけてからだろ
62 :
デフォルトの名無しさん :2010/12/08(水) 19:38:26
誤爆した スマン
OpenNI 公開おめ
64 :
デフォルトの名無しさん :2010/12/13(月) 16:29:55
OpenNIのおかげで姿勢推定がタダでできるようになったのはうれしい反面 OpenKINECTで完全フリーの認識ライブラリが育たなくなるのはデメリットかもな
へ?OpenNIのライセンスGPLみたいだけど?
あ、GPLは間違い。ドキュメント見たらGPLじゃなくてLGPLって書いてあった。 GPLよりも緩いな。
パターン認識とか学習メソッドなどのプロプライエタリな部分は すっぽりバイナリに隠れてるだろ
お前は一体何を言っているんだ
70 :
デフォルトの名無しさん :2010/12/15(水) 09:49:07
公式のOpenNIがいいのか、非公式のOpenKINECTがいいのか 難しい問題だな
姿勢推定するならOpenNI一択だろ常考
ですわな。libfreenectでがんばりたいなら止めはしないけどw
>>76 キネクト始まりすぎだろww
エロゲーメーカー超ガンバレ。未来はすぐそこにある!!
そろそろ買おうかな
81 :
デフォルトの名無しさん :2010/12/18(土) 11:59:38
OpenNIのMacのサンプルがOgre3D使ってたから Ogreちょっと弄ってみたんだけど、トラブルが多すぎて サンプルすらCocoa上で動かす事ができなかった
kinectで出来ること、出来ないことの一覧と 開発用セットアップの完全な手順を解説したHPない?
>>84 停止させるためにPCの方へ移動するところが妙におっさんくさいw
PC専用に、USB3.0でフルHD仕様の高精度高性能版出してくれんかな 海外記事見ると、どうもコストの問題つーより転送帯域の問題で性能にリミッターかけてるみたいだから
87 :
デフォルトの名無しさん :2010/12/20(月) 11:39:18
XBOXはとっとと撤退して完全にPCに移行してほしいw
88 :
デフォルトの名無しさん :2010/12/20(月) 12:33:44
開発元からモーター無しでUSB給電の開発キット発売予定だったような
たしかにこれで60fps出れば死角無しなんだがな
OpenNIの完全な仕様書ってもしかして存在しないの? OpenNI User Guideとかいう38ページの紙ぺらしかダウンロードできない。
RFS
フルHDとか60fpsとか人体認識向けにはどう見てもオーバースペックです。 本当にありがとうございました。 そんなビットレートを処理できると思ってんのかと、本当に、もうね……
>>91 ソースとDoxygen出力ついててこれ以上何が必要なんだよ
明日から本気出す組か?
95 :
デフォルトの名無しさん :2010/12/22(水) 01:51:18
予言しよう半年以内にマウスが完璧にいらなくなる
96 :
デフォルトの名無しさん :2010/12/22(水) 02:14:44
キーボードもいらなくして下さい
98 :
デフォルトの名無しさん :2010/12/22(水) 02:35:41
____ / \ /\ キリッ . / (ー) (ー)\ <「予言しよう半年以内にマウスが完璧にいらなくなる」 / ⌒(__人__)⌒ \ | |r┬-| | \ `ー’´ / ノ \ /´ ヽ | l \ ヽ -一””””~~``’ー?、 -一”””’ー-、. ヽ ____(⌒)(⌒)⌒) ) (⌒_(⌒)⌒)⌒)) ____ /_ノ ヽ、_\ ミ ミ ミ o゚((●)) ((●))゚o ミ ミ ミ <だっておwww /⌒)⌒)⌒. ::::::⌒(__人__)⌒:::\ /⌒)⌒)⌒) | / / / |r┬-| | (⌒)/ / / // | :::::::::::(⌒) | | | / ゝ :::::::::::/ | ノ | | | \ / ) / ヽ / `ー’´ ヽ / / | | l||l 从人 l||l l||l 从人 l||l バンバン ヽ -一””””~~``’ー?、 -一”””’ー-、 ヽ ____(⌒)(⌒)⌒) ) (⌒_(⌒)⌒)⌒)) お前Kinect触ったことあるのか? たかだか半年で技術ハードル幾つ飛び越えさせる気だよ。
100 :
デフォルトの名無しさん :2010/12/22(水) 11:47:16
kinectでスカートめくりゲーム作ろうぜ。 パンツ神経衰弱(仮) 10x10m四方をランダムに動き回る女性のスカートをめくって 2回連続でパンツの種類が一致していたら+10点。
そんな頭使う面倒なルール入れなくても めくり番長みたいに単純でバカバカしい方がいいんじゃない
102 :
デフォルトの名無しさん :2010/12/22(水) 15:57:07
誰かSSE3がないCPUでNITE(スケルトントラッキング)動かした人いる? うちのCPU、SSE2までしかないんだけどSSE_GENERATION=2を指定して全てSSE2用にコンパイルしたけど、 それでも実行すると illegal hardware instructionsで落ちる。 予想ではバイナリ配布のNITEがSSE3を使ってしまってるんだと思う。 環境はUbuntu10.10 amd64 です。
このビッグウェーブに乗るためなら、この際、CPUも買っちゃいなよ
>>100 そういうのは板違い。
作り始めて、わからないことが出てきたら、またおいで。
106 :
102 :2010/12/23(木) 15:45:33
>>103 乗るしかないでしょう、このビッグウェーブに。
というわけでSSE3(pni)に対応したCPUを買ってきて載せ替えました。
でもやっぱり illegal hardware instruction で落ちます。
Athron X2 5000+ じゃダメなのか??? Intel入ってないとダメポ?
まだまだ続く。
SSE3が無いCPUからSSE3があるCPUにしたらプロセッサドライバが入ってなくね? Linuxは知らんが
108 :
102 :2010/12/23(木) 18:19:21
動いたー \(^o^)/
Ubuntu 10.10 amd64 ではどうやっても動かなかった(SSE3に対応したCPUまで買ったのに)ので、
あきらめてUbuntu 10.10 32bit版をインストールして最初から全部やり直したら、うまく動くようになりました。
NITEのサンプルにあったボーントラッキングも出来ています。
長い道のりだった…
環境はML115, Athlon X2 5000+, Kubuntu 10.10 x86(32bit)
インストールしたのは
- OpenNI 1.0 Alpha build 23 binaries for Ubuntu 10.10 32bit
- avin2-SensorKinect-b7cd39d.tar.gz
- PrimeSense NITE version 1.3 Beta Build 17 for Linux x86
の3つをこの順で。NITEはインストールする前にDataの下のxmlファイルを書き換える必要あり。
これを忘れるとサンプルが起動しない。詳しくはここを。
http://www.keyboardmods.com/2010/12/howto-kinect-openninite-skeleton.html 基本的には3つも./install.shを叩くだけだがavin2とNITEはその前に少し作業が必要。
詳しくはREADMEに書いてある。
そしてデフォルトでSSE3を使うので手持ちCPUの確認を。
/proc/cpuinfo に "pni" の文字があればOK (sse3ではない!)
動画うpしてスゲー、付属のサンプル動かしてスゲーだけじゃなくて、ちゃんとプログラミングに ついて語るスレ無いの? サンプルソースとAPI Referenceと海外の掲示板読んである程度使えるようになったけど、 API多すぎレファレンス説明簡略化しすぎで一人で網羅するの辛い。
depth.GetAlternativeViewPointCap().SetViewPoint(image); でRGB画像に合うように調整された形で深度イメージが出力されるようになるけど、 この調整済み深度イメージ上の座標を、元の調整される前の座標に戻す方法ってない? 例えば関数にポンっとx,y座標投げれば元のx,y座標が返ってくる的なの キャリブレーションデータから計算すればいいんだろうけど、面倒くせぇ APIあるだろうとリファレンス見て探してるけど見つからない
ここだろ。プログラム板だし。 俺はやっとサンプルが動いた所なのでもう少し待て
112 :
デフォルトの名無しさん :2010/12/24(金) 11:04:45
NITE
113 :
デフォルトの名無しさん :2010/12/24(金) 11:05:27
NITEなぞすぎる
>>110 「Open〜」系のライブラリで提供されるのは基本的にハードウェアを使えるようになるAPIだけだから
その辺のアルゴリズムは自前で実装が基本
これ操作中の自分を1.8m以上離れて写すようにkinectを設置するのが難しいな。 付属のケーブルは3.3mあるけど結構きつい。 USB延長ケーブルを使って+1mまでなら何とか動作する。 +3m足してやるとデータ取りこぼしまくりで正常動作しなくなる。 基本的に延長しない方がいい。 NITEサンプル楽しい。
Kinect使うときのよくある失敗はOpenNIだけ入れてドライバー入れ忘れることだな。 俺はavin2/SensorKinectドライバーを使っている。
Miku ファック動画マダー
118 :
デフォルトの名無しさん :2010/12/24(金) 14:40:24
とりあえず一番簡単そうなSample-SingleControlは理解した。 自分でプログラミングするときはインクルードパスを /usr/include/ni /usr/include/nite に通してlibOpenNI.soとlibXnVNite.soをリンクする。 main.cppでは最低次の2つをインクルードする。 #include <XnOpenNI.h> #include <XnVSessionManager.h> あとは検出したいゼスチャーに相当するクラス。このサンプルではWaveDetector.hを使っているので #include <XnVWaveDetector.h>
基本的なフローは 1. コンテキスト(xn::Context)を作る 2. セッションマネージャー(XnVSessionManager)を作る 3. 検出したいゼスチャーのコントロール(ここではXnVWaveDetector)を作る 4. 2-3にコールバック関数を登録する メインループはこんな感じ。 while (!g_bQuit) { context.WaitAndUpdateAll (); pSessionManager->Update (&context); } ドキュメントは次の3つ。 NITE Controls 1.3 - Programmer's Guide.pdf NITE Algorithms 1.3.pdf NITE 1.3.0 - API Reference.chm とりあえずProgrammer's Guideだけ読んでおけばプログラミングの基礎としては十分。
いくつかの重要な概念。 セッション: トラッキングが動作中の状態が「in Session」 フォーカス・ゼスチャー: 特定の動作を行うとトラッキングが有効になり「in Session」状態に変わる "Wave": 手を左右に移動する動作 "Click": 手を前後に移動する動作 コンテキスト: そのままの意味 セッションマネージャー: そのままの意味 コントロール: ゼスチャーの検出器。PushDetectorとかWaveDetectorとか多数。 検出したい動作のコントロールをセッションマネージャーを頂点とするツリーでつなぐ。 イメージ的にはキャプチャーされたデータはセッションマネージャーから流れ出して各コントロールに流れ込み、 一致していればそこに設定されたコールバック関数を呼び出す。
122 :
デフォルトの名無しさん :2010/12/24(金) 18:07:06
VIPからきますたwwwww
なんぞこれw
>>119-121 はNITEミドルウェアを使った場合ね。
OpenNIのみでKinectから生データ(RGB, Z, 加速度)を取得するのとは別の話。
そっちは今調査中。NITE使いつつ生データにアクセスってできるのだろうか。
windows7 64bitでは動かないの?
C言語からOpenNIを使う場合 #include <XnOpenNI.h> C++からOpenNIを使う場合 #include <XnCppWrapper.h> (この名前はどうかと思う) コンテキストを作る場合XMLファイルを読み込んで作るのが簡単。 画像とデプスを取りたい場合は該当するNodeを作る。 <ProductionNodes> <Node type="Depth"> <Configuration> <MapOutputMode xRes="640" yRes="480" FPS="30"/> <Mirror on="true"/> </Configuration> </Node> <Node type="Image"> <Configuration> <MapOutputMode xRes="640" yRes="480" FPS="30"/> <Mirror on="true"/> </Configuration> </Node> </ProductionNodes> rc = context.InitFromXmlFile (SAMPLE_XML_FILE);
これでコンテキストにNodeが登録されているので、あとはFindExistingNodeするだけ。 rc = context.FindExistingNode (XN_NODE_TYPE_IMAGE, imageGenerator); rc = context.FindExistingNode (XN_NODE_TYPE_DEPTH, depthGenerator); データの作成を開始して、 context.StartGeneratingAll (); 新しいデータが来るまでブロック。 while (!g_bQuit) { context.WaitAnyUpdateAll (); // ここで画像、デプスデータの取り出し } 非常に簡単。
取得したデータをどうやって表示するか? サンプルでは全てOpenGL、glutを使っている。 カメラを平行投影、視野領域が(0,0)-(WIDTH,HEIGHT)に設定して画面全体を覆う四角型ポリゴンを1枚書く。 データはすべてテクスチャーにしてglTexImage2Dで毎フレームGPUに転送。 ちなみにデプス値は自分でヒストグラムを作って手前が1で奥が0になるように描画している。
2DならOpenCV、3DならOpenGLが一番楽だな 最近OpenCV使い出したけど、凄すぎてワロタ いちいち数学勉強して理解してやっと使えるようになる処理が、関数に変数突っ込むだけで ポンっとできるとかアルゴリズムの勉強する気なくなるな
130 :
デフォルトの名無しさん :2010/12/25(土) 03:44:54
WindowsXPで、デバイスマネージャに、KinectMotorは出るけど、KinectCameraが出てこない。 サンプル実行すると、「InitFromXML failed:Unknown USB device speed!」と出て実行できない。 困ったなー
>130 KinectのケーブルにACアダプタを刺せ
132 :
デフォルトの名無しさん :2010/12/25(土) 15:59:59
>131 ありがとう。解決した。
フレームレートが低くて画像データの表示がガクガクになる原因がようやくわかった。 GetMetaData()は毎フレーム呼ばないとダメなのな。つまり例えばglutのidleループはこうなる。 void idle () { context.WaitAnyUpdateAll (); depthGenerator.GetMetaData(depthMetaData); // これ大事 imageGenerator.GetMetaData(imageMetaData); // これ大事 glutPostRedisplay(); } メタ情報を取得するだけだから最初に1回やればいいだろうと思ったら、 毎フレームきちんと呼ばないと表示がガクガクになる。 なまじ動いている分たちが悪い。
ときどきcontext.StartGeneratingAll()を予備忘れているサンプルあるな。 それでもちゃん動く。実は飾りか。
g_DepthGenerator.ConvertRealWorldToProjectiive()の座標系がわからない。 これはワールド座標をカメラ座標に変換する関数と見ていいのか? サンプルでは結果をそのままOpenGLのglVertex()に渡している。 調べた限りワールド座標はカメラを(0,0,0)としてカメラの向きがZ軸正の方向。1単位が1mm。 したがってカメラの前2mにいる人間はだいたい(0,0,2000)になる。 OpenGLでは通常カメラはz軸負の方向を向いているのでConvertRealWorldToProjective()を通すと これが(0,0,-2000)になる? この関数を通すよりカメラを180度回転してz軸正の方向を向けた方が早くないか?
Kinectはモーター内蔵で首が振れるんだっけ。 必ずしも(0,0,1)方向ぴったりを向いていると限らない。 ConvertRealWorldToProjective()で一発変換してくれると楽ではある。 個人的には(リアル)Kinectカメラの方向を取得して、(仮想)カメラの方向を同じにセットして そのままワールド座標で計算した方が楽かな。
>>115 発想を転換して、モニター・キーボード・マウスを延長して
本体&キネクトを遠くに置くってのはどうだ?
>>137 今日もずっと探してたけど無いっぽい。
仕方ないのでソースからピクセル座標変換の計算どうしてるか見て、それを逆算しよう
とOpenNIのソース落としてきて深度イメージデータ取得の所を辿っていってるんだけど、
全く分からん。クラスの中のm_ppDataに書きこまれてるっぽいんだけど、いつどこで
m_ppDataに書きこまれているのか分からん。XnOpenNI.cppも流し見してみたが分からん
だれか助けて
OpenNIのサンプルをデバッガー(kdbg)から起動すると、 rc = context.InitFromXmlFile (SAMPLE_XML_FILE); の所で warning: GDB: Failed to set controlling terminal: 許可されていない操作です Couldn't initialize context: Xiron OS failed to wait on event! と言われてエラーになります。普通に起動すれば問題なく初期化できるのに。 デバッガー通す時と通さない時で何が違うのでしょうか?
>>141 参考にならないかもしれないけれど、Code::Blocks + gdb 7.2 ではステップ実行できた
InitFromXmlFile() 実行前に
「warning: GDB: Failed to set controlling terminal: 許可されていない操作です」が出力されて、
InitFromXmlFile() 実行後に
「Setting resolution to VGA」が出力されたよ
143 :
デフォルトの名無しさん :2010/12/27(月) 15:55:23
.NET(XNA)で動くようにしてくれ
有効なジョイントって何番? joint1,2,3,6,7,9,12,13,15,17,18,20,21,22,23 しかまともなデータが返ってこない。 特によくわからないのは左足はANKLE(19)が無効なのに、右足はFOOT(24)が無効になってること。 左足:17,18,(19),20 右足:21,22,23,(24) なんでやねん。もらった座標はすべてワールド座標なので、モデリング座標に直すのが難しいです。 キャラクターはボーン階層をすべてローカル座標で動かすので。
ミス。1番HEADは× joint 2,3,6,7,9,12,13,15,17,18,20,21,22,23 しかまともなデータが返ってこない。
1:HEADに有効なデータが返ってこないのが痛い
HEADとれてるよ?
>>148 まじで!?
プロファイルは全身ですか?
あとついでに右足と左足でANKLE、KNEEのどちらが取れてるか教えてください。
ネイティヴ64bitのサンプルは動かんな。 見た感じ、足りないのは64bitのNITE系ファイル?
OpenNIの方は64bitで動いた。NITEの方は俺は無理だったけどCPUがAthronだったからな気がする。
152 :
デフォルトの名無しさん :2010/12/28(火) 22:07:48
NITEの類似ライブラリってないの?
ない。OpenNIに互換性の有るのは現在NITEのみ。 OpenKinectと一緒に使うスケルトントラッキング・ライブラリも考えている人は居るみたいだが、 まだ公開されていない。
Kinectの想定しているスケルトンの図ありませんか? ボーンの数とか位置とかはすぐわかるのですが、各ボーンのローカル座標(回転)がどうなってるのか ドキュメントが見つからなくて困っています。これがわからないと動かせない…
The NITE 1.3 Algorithms.pdf に取れるボーンとボーン座標系がのっている。 (基本が絶対座標なのでボーン同士の接続はない) ボーン座標系はワールド座標を平行移動しただけ。 Tポーズの時に回転成分がすべて0になる。 詳しくは図を参照。 ただ左足はFOOTではなくANKLEが返ってきたような気がしたのだが、何かの間違えか?? これとまったく同じスケルトンをモデラーで作って渡してやると、 NITEで取れたボーンのT,Rをローカル座標に直すだけですぐ動かせる。 うちのMilkShape3Dさんでこのスケルトンが作れるかどうか調査中。 まあ来年。
ミラーモードのとき、右手を上げるとXN_SKEL_RIGHT_HANDが上がる。ワールド座標系は右。 ノーマルモードのとき、右手を上げるとXN_SKEL_LEFT_HANDが上がる。ワールド座標系は左。 特に理由がなければミラーモードがいい。 ミラーモードの時はカメラが(0,0,0)で+Xが右、+Yが上、+Zがカメラからユーザーに向かう方向。 各ボーンのオリエンテーションはTポーズの時、ワールド座標系と一致する(回転0)。 回転行列は3x3で、配列[0-15]が下に相当する。 012 345 678
下書き保存のつもりで途中で書き込んでしまった。 下は左手を45度ぐらい斜めに上げたところ。 大筋で良いのだが何かをバグっている気がする。
問題点はだいたいわかった。ジョイントの回転で上を向くはずが下を向いている。 基本的には座標系の取り扱いがkinectが想定しているのと違うためと思われる。 あとジョイントのT,Rを個別に取得してモデルに適応するのはどうしてもきれいに表示できない。 Rだけ取得してボーン階層をきちんとたどったほうがいい。 どのみちHANDは回転が取れないので、親の回転を適応しないっとおかしなことになる。 やってみるといろいろ簡単ではないね。MMDの人とかやっぱりレベル高い。
もうOpenKinectは終わった感じなのかこれ
サポートベクターマシーンとか本気でやるとなると相当力入れないとな。。。 おもしろそうではあるが工程が膨大なわりにゴールがOpenNIと同程度だと報われない結果になりそうで二の足踏んでる人が多いんじゃないかしら ここから先はOpenNIのミドルウェアが先に出てOpenKinectはそのオコボレに授かる形になるんじゃね?
テーマとしては結構面白いと思うけどね。 (今までZが取れる実用的なカメラはなかったと思う)。 日本の大学でも画像認識をやっている所は多いはずなので、 どこかの学生さん、ちゃちゃっと作って公開してください><
Macで遊んでる人はOpenKinectだと思う。 どの道NITEは使えないし、dylibの依存がなくすっきり作れる OpenKinectの方が手軽
167 :
デフォルトの名無しさん :2011/01/02(日) 19:38:51
苦節1週間ちょっと、ようやくアバターを動かせるようになったので動画をキャプチャーしてみた。
http://www.youtube.com/watch?v=ixScjx87uu8 まあ何だ。MMDは遠いな!
これKinectから各ジョイントの回転のみを取得して適応してるのだが、
やはりドキュメントに書かれている通り回転検出は精度が低い。
動きがどう見ても「人形劇」にしか見えない。
あと致命的なのはTポーズの時に単位行列が帰ってくるはずが、
そうではなくX軸を中心に90度回転していることがあること。
NITEライブラリの誤検出だろう。
sinbadとかきれいに動かしているが、どうやってるのだろうか。
Macでもできるのか 面白そうだな
KinectとMMDは連携してるようなんだけど そのデータをつかってロボット動かせないかしら? さらにロボットにカメラとかついてたら面白そうなんだけど。
理想形態まで進化したとして、kinectはどこまで認識してくれるんだろう? 逆に何ができないんだろう? どっかでやってたみたいに、例えばkinect2台使って最適なソフト組めば市販のモーキャプ並の精度誇る様な代物なんだろうか?
>>169 余裕でできる。kinect(NITE)から関節の位置と回転が取れるので、
それをロボットに送ってやればいい。原理的に3Dキャラクターを動かすのと同じ。
kinectの応用はアメリカの大学だといろいろやってるみたいだけど、日本だとどうだろうね。 MMDだけというのはちと情けない。
kinectから取得した各ジョイントの回転をただ単に当てはめただけではMMDみたいにならないね。
どうしても
>>167 みたいになる。試行錯誤してみたけどあれが限界。
IKを実装しないとMMDみたいなスムーズな動きは不可能?
それとも位置情報を元に回転角度を求めるしかないのか?
謎が謎を呼ぶぜ。
平滑化すればいいだけ
それも考えましたがデータを見る限り平滑化で何とかなりそうなレベルではないです。 Tポーズの時に単位行列ではなく90度ひねった行列が返ってきたりするので。 というわけでジョイントの位置から自分で回転角度を求める方法を実装してみます。 回転角度ベースでないと人間の取ったポーズと「ひねり」が違くなるのはしょうがない。
Depthだけだと自由度3の関節に対して 一意に決定できるだけのパラメータが足りないからなぁ 大昔はバトンをもって肘から手首のひねりをキャプチャしてたっけ
MMDは頂点座標だけつかって、腕などの各パーツの行列は その頂点に追従するようIKで求めているんじゃないの?
2つの関節位置を結ぶベクトルは求めることは出来るけど、三次元で姿勢 を確定させるにはさらにそのベクトルに直交するベクトルが必要になる これは深度情報からは求める事ができない 腕をまっすぐ伸ばした状態のままで捻るような動きはKinectでは拾えないということ
xn::HandsGeneratorで手の平だけを別撮りすればいいだけだろ リップシンクはどうしようも無いが
現在のkinectではHANDの回転は取れない仕様。あと回転情報を一切使わなくても SOULDER --> ELBOW --> HAND の位置情報からだけでも十分動かせると思う。 さすがにこの軸を中心にした回転は計算できないけど、それはkinectから取得した回転情報でも無理な気がする。 ともかく位置情報から腕の角度を求めてやってみようぜ。
183 :
デフォルトの名無しさん :2011/01/04(火) 22:28:34
A(肩) --> B(ひじ) --> C(手首) とジョイントがある場合(骨は(1,0,0)方向に伸びているとする)、 Bの回転角度を求める時って、 (1) Aの回転は既に計算済みとして、 (2) Bの(ワールド座標の)位置をAのローカル座標に変換して、 (3) (1,0,0)からの回転角度を求める と計算すれば良い? (1') Aの回転は既に計算済みとして、 (2') Bの(ワールド座標の)(1,0,0)からの回転角度を求めて、 (3') Aのクォータニオンの逆数をかけて差分の回転を求める と実装したらどうも間違えているような動きをするのですが、 上記の式で計算しないとダメですか? つまり親のジョイントのローカル座標で計算しないとダメですか?
OpenNIでRGB画像のピクセル座標点に対応する距離画像の値はSetViewPointで距離画像を 変換かければ半自動で得られるけれど、距離画像のピクセル座標点に対応するRGB画像の 値ってどうやれば得られる?
>>180 まだいじり始めたばっかりなんだけど、この辺のクラスとかメソッドで○○をいじれるよ
とかまとめてあるとこないかな。
俺が知る限りない。とりあえず付属のサンプルを見ればだいたいわかる。
187 :
デフォルトの名無しさん :2011/01/06(木) 08:58:35
OpenNI Mono サポート追加 age
188 :
デフォルトの名無しさん :2011/01/06(木) 14:37:57
189 :
デフォルトの名無しさん :2011/01/06(木) 17:20:53
上の方でkinectからジョイントの位置情報を取得して、アバターのジョイントの回転角度を計算してやってみた。
(結局ボーン座標で全て計算した。
>>183 は間違えている。いずれどこかに計算式はまとめるつもり)
上半身に関しては満足いくレベルでキャプチャーできているが下半身がダメ。
kinectの取扱い方法が悪いのか、元々このぐらいの精度しかないのか(ドキュメントには下半身の精度は悪いと書いてあるが)。
http://www.youtube.com/watch?v=AXs-CpoxipA さてどうしようか。
190 :
デフォルトの名無しさん :2011/01/06(木) 17:57:55
ボインちゃんの気持ちを疑似体験できる新Kinectハック
http://www.kotaku.jp/2011/01/kinect_boobies.html 「ボインはお父ちゃんのもんと違うのんやでぇ〜」...そう、アナタのもんです!
アニメーション・データやモデリングを改造・操作するツールであるNoesisが、Kinect用の
プラグインとしてこのハック・ツールをあたらしく公開しています。
そしてその機能はなんと、爆乳をボインボインと水風船のようにゆらしてしまう、という夢の
ようなステキなモノです。きっとこのハックで、みなさんもオッパイ姉ちゃんの気持ちが
理解できることでしょう。アナタが動けばボインも揺れる! そんなデモ動画をお愉しみ
ください。
スゴい! このユサユサ感、ありえない程の弾力性で、まるで揺れるオトメ心を表現
しているようです(笑)しかもプレイヤー自身が、自分の手でオッパイをさわって揺らす
こともできるんですね。
KINECTHACKSでは、リアルタイム・モーションキャプチャーに使われたこの技術を、
エクストリーム・オッパイ物理演算(Extreme Boobie Physics)と呼び、胸骨のあたりに
ジョイントされたオッパイが、低重力でソフトに反発し、そのオッパイはクレイジーかつ
オーヴァー・ザ・トップである、と申しております。
さて、もしこれが実用化されたなら、爆乳ナデナデする側とされる側で、ウマいこと
サイバーエロ産業の需要と供給が回りそうな気がします。
日記は日記帳に書け
192 :
デフォルトの名無しさん :2011/01/06(木) 21:06:51
ここが日記だ!
193 :
デフォルトの名無しさん :2011/01/06(木) 22:47:37
まさしく!
世界がmatrixに見える奴作って欲しいなあ
具体的に言うとどういうアプリ?
まったくわからん
ああこれをリアルタイムでやるのか わかるわ
室内のクラウドポイントデータを板ポリ何枚かにリデュースして、 そこにテクスチャ貼れば完成だな シェーダで化粧しても良し
OpenNI Mac対応来たね
Windowsは知らんがUbuntuなら1つしかない。
XBox360を持ってない俺の家にKinectが届きますた。 ゲーム会社にいたころ、たくさんの人員と、めっちゃ広い施設と、数百万の機材で、 丸1日かけてモーキャプしてたが、ついに4畳半の貧乏人一人でも できるようになったんでつね・・・感無量
windowsでも起動できると聞いてやってみたが 「failed:Unknown USB device speed!」って出て先に進めない。 一通りデバイスはインストールしたのですが何が原因なのかわかる方いるかな?
このスレ内を検索してみれば?
mmdでモキャプ試してみたけど、精度がイマイチだな・・・ といっても十分満足してるけど。
>>205 131 名前:デフォルトの名無しさん [sage]: 2010/12/25(土) 13:49:00
>130
KinectのケーブルにACアダプタを刺せ
らしいぞ。ACアダプタ指し忘れって多いのか?
>>207 上半身の精度は文句ないと思う。下半身が今ひとつな気がする。
210 :
デフォルトの名無しさん :2011/01/08(土) 22:18:22
Kinectって赤外線を出して、それをキャプチャーして 深度を計測してるのかな? てか画像からボーン情報を算出するプログラムが凄いと思う。
>>205 まったく同じ状態・・・
ACアダプタも挿してるしなぁ・・・
ACアダプタもUSBもハブ通さずに挿してみたりしたけどUnknown USB device speed!
だわ
デバイスマネージャー見ても
PrimeSensor
- Kinect Camera
- Kinect Motor
とデバイスは入ってるっぽいし・・・
>>210 カメラって二つある場合距離算出できた気がするけどどうだったかな
ある配列で赤外線をたくさん出してる。
ステレオカメラじゃなくて、プロジェクタみたいな感じで模様を投影して、それを
カメラで撮影して、その模様の状態から距離を計算してるみたいだよ。
詳しくは海外で発売したての頃ググったらいっぱい出てきたけど忘れた
ttp://www.youtube.com/watch?v=nvvQJxgykcU OpenNIって工場出荷時の校正情報デフォで持っててそれ使ってるみたいだけど、
その値どうやったら得られる?
内部パラメータと外部パラメータが欲しいです
215 :
211 :2011/01/09(日) 02:48:31
糞ネットブックにドライバ突っ込んだら動きやがった・・・ 俺のデスクトップPCのUSBの規格が悪かったとかそんな落ちか? 原因不明 もちろんデスクでは動かない
デスクは指すポート変えてもダメ? USB2.0High Speed 規格のポートじゃないとかだったり。
217 :
211 :2011/01/09(日) 04:10:00
>>216 USBは2.0っぽいけどなぁ・・・でもBTOで買った糞デスクだからな
調べてみるとTA790GXE 128Mとかいうマザボだった
USB
USB 2.0 Port
USB 2.0 Header
サンプルも動いて、ソースの解析を始めたけど、 モーションキャプチャーならMMDで十分な気がしてきた・・・
というか、なんで皆バラバラに自分の奴を勧めるんだ? 情報提供しあって一個の完成形作る方が時間も無駄にならないんじゃないか?
PlaystationMoveって調べてみたけど、アレってWiiのパクりなのな。 いずれSonyもKnect+αのデバイスを出してくるだろう。
今のSONYに+αの製品を出せるだろうか。。。 残念ながら、ハードも売れてないし、難しいだろうね。
222
スケルトン・トラッキングはできるようになったので、何を作るかだな。 MMDみたいに歌って踊るか、モーションキャプチャーアプリを目指すか。
224 :
デフォルトの名無しさん :2011/01/09(日) 10:58:50
age
カス子にモーション付けられたら神
OpenNIって公式リファレンスはないん?
ドキュメントのことだよな? バイナリパッケージをダウンロードすればDocumentsディレクトリの下にhtml形式である。 ところでOpenNIのサイトリニューアルしたね(2011.01.06?)。 ほぼ見た目だけ。
>>227 おお、バッチリあったわ、ありがとう。
深度とイメージのデータ取得は理解できた。
あとはモーションキャプチャーだな。
229 :
デフォルトの名無しさん :2011/01/10(月) 03:06:33
kinectカメラのデプス検出だけど、よく光るものをカメラに向かって45度傾けるとそこだけ検出できなくなるな。
特にカメラに向かって右側で45度の傾いた面が検出できてない。
あと気がついたけどサンプルのビュアーでZ値をカラーに変えるときに0~255ではなく0〜256にスケーリングしている。
つまり無効ピクセル(Z=0)を256にマップ(あとでunsigned charにキャストするので0になる)して真っ黒で描画している。
意外にZを検出できないピクセルが多い。
↓無効ピクセルだけ黄色くした図。
http://freedeai.180r.com/up/src/up2292.png
キャスト前に255にクランプしてみたけど全然かわらん 人物の右側にズレて映る背後霊はいつも気になるけど 近づきすぎると深度検出できなくなるとの同様にセンサーの仕様なんじゃないの?
それは赤外線の放出と受信窓の視覚差によって生まれる影でしょう キネクトは赤外線ライト&レシーバーだからどっちかから隠れていると認識できない
>>233 俺の勘違いだった。LOW_SPEED返すこともあるね
ちょっとこの書き込みは忘れてください
動かないわけじゃないのだけど滅茶苦茶不安定で涙目。 NISimpleReadとか動かしてるだけでも、少しするとUSBが切断されてしまう。 スレで出てる各種のエラーも結構頻繁に出るし、安定して使えてる人いる? どうやってもデモできるほどの稼働時間が取れない。
>>235-236 使っているバージョンがunstableだからそんなもの。
stable(1.0.0.23)の方を使わないとダメ。あとそれはavin2/SensorKinectのstableとは互換性がない(少なくともUbuntuでは)。
さっきWindowsにインストールしてみたけど全部バイナリパッケージをクリックするだけで問題なく動いた。
まずKinectをつながずに、
1. OpenNI-Win32-1.0.0.23.exeをインストール
2. SensorKinect-Win32-5.0.0.exeをインストール
3. NITE-Win32-1.3.0.17.exeをインストール
全部インストールしたらkinectをつなぐと、motor, audio, sensor(だっけ?)が出てくる。
ドライバーはインストール済みなので適当にはいを押して自動でインストールして終わり。
audioドライバーだけはまだない。
間違えた。 × avin2/SensorKinectのstableとは互換性がない ○ avin2/SensorKinectのunstableとは互換性がない 何にせよ上の3つダウンロードしてクリックすれば終わり。 (avin2/SensorKinectのバイナリは2011.01.07付けで登録された)
まあ結論から見ればそうなんだけどねえ。 これを常識とする内容でもないな。
そろそろ情報をまとめたいね。古い情報とかあって非常に見通しが悪い。
>>237 一応
1.
https://github.com/avin2/SensorKinect/tree/master から落とした
avin2-SensorKinect-b7cd39d.zip を展開
2. Kinectつないでavin2-*\Platform\Win32\Driverフォルダからドライバ入れる
2. OPENNI-Win32-1.0.0.23.exe 入れる
3. avin2-*\Bin\SensorKinect-Win32-5.0.0.exe 入れる
4, NITE-Win32-1.3.0.17.exe 入れる
の標準的な手順でやって、サンプルはNITEのも含めて大体動くは動くんですが、
Windowsで数分動かしているとUSB再接続の「キンコン」音と共にリセットされ、
アプリはタイムアウトエラー、デバイスマネージャではKinect Cameraに
黄色の「!」って感じで連続稼動ができない状態。
あと、こういったリセット(?)でUSB speedも変になってたりする事が
あるらしく、たまにUnknown USB device speedとかUSB HISPEEDでないよ
エラーが出て、ポート変えて挿し直さないといけなくなったりも頻繁。
電源は取ってるしUSBだってホスト直結なんだけどな・・・わからん。
なんとなくLinuxで動かす方が安定している気が。
242 :
237 :2011/01/10(月) 23:19:44
> 2. Kinectつないでavin2-*\Platform\Win32\Driverフォルダからドライバ入れる ↑これは余計でしょう。 > 1. OpenNI-Win32-1.0.0.23.exeをインストール > 2. SensorKinect-Win32-5.0.0.exeをインストール > 3. NITE-Win32-1.3.0.17.exeをインストール うちはこの3つだけで安定動作してるなあ。基本的にWindowsでは動かしてないけど。 今試したらSampleSceneAnalysis.exeが10分ぐらいは問題なく動いている。 あとはライセンスキーぐらいかなあ。あれ間違えたライセンスキー入れてもそのままインストール進むし。 メッセージだけ見るとホスト側のUSBが安定して動作して内容に見えるけど・・・よくわからん。 むしろ1つUSBハブをかませたらどう? 1mぐらいまでならなんとか延長できる(3m延長すると確実に動かない)。
243 :
デフォルトの名無しさん :2011/01/11(火) 17:25:35
来週買えそう
サイズもデザインも日本の家ではないな 海外在住なんじゃないか?
247 :
デフォルトの名無しさん :2011/01/11(火) 19:17:51
普通じゃね?
>>248 なんかおかくね?
サンプルとかMMDだと、もっと上手くいってるけど。
キャプチャー環境晒してもらわないとなんとも言えないと思うけど、足元見えてないんじゃないの?
251 :
248 :2011/01/11(火) 23:22:27
おかしいかな? sinbadもMMDもジョイントに可動域の制限(コンストレイン)とか、無効データの時の扱いとか、 Kinectからもらった生データで動かしてるわけじゃないよね(多分)? 単に生データ表示してるだけなら、こんなものなのかなあと思ってるけど。。。。。 特に下半身のキャプチャー精度はひどい。
252 :
248 :2011/01/11(火) 23:29:40
一応環境は距離2m、ひざ下まで(足首は写ってない)。 気になっているのは最初のキャリブレーションポーズの認識が3回に1回ぐらいしか成功しなくて うまくいった時でも5〜10秒はかかる事。もしかして根本的に精度が出てないとか?
>>252 キャリブレーションは、例のポーズとってれば、多少時間はかかるけどほぼ必ず認識するよ。
足先まで映ってないといかんと思う。(その分距離とらないといけないけど)
みんな腕を直角に曲げてから何秒で認識してる?
ヘソまで写ってりゃ1秒ちょい 根本的にお前の部屋が散らかってるかダボダボの服着てるとかだろう なんにしろ、すぐに道具のせいにする奴は成功しない
満足の基準は人それぞれ 精度は出るものではなく追求するもの
>>256 キャラの位置が動きまくってるのが気になるが、すごくいい感じじゃね?
手を背中に回したらどうなるか追求してください
260 :
248 :2011/01/12(水) 08:27:16
>>256 俺のところより圧倒的に精度がいい。
キャプチャー環境に何か問題があるのかもしれない。
もうちょっと頑張ってみるわ。
(部屋片付けないとダメかなあ。。。)
261 :
248 :2011/01/12(水) 10:37:37
結構改善した(と思う)。 - Kinectの高さを下げて床が多めにきっちり入るように変更。 - 画面内の金属質の面に全部タオルで覆う。 - 服を脱ぐ。 これでゆっくり動けばほぼ四肢をキャプチャーできた。 ただ早い動きをするとやっぱり動きが飛ぶ。どうもkinect関係なく描画がおかしいらしい。 そういえばATIのGPUでそんな問題が出ていた。 プリセットのモーションを再生する限り特に問題は出ていなかったので解決したと思っていたが、直ってなかったようだ。
Q. 精度が出ないんだが? A. まず服を脱ぎます がテンプレになる日も近い
ていうか真剣にキャプチャするならまじでボクサーパンツとかブリーフでやった方がいいよな
よし、キャプチャ用全身タイツを発売しよう!
265 :
デフォルトの名無しさん :2011/01/12(水) 22:46:38
チンコケースだけでよくね?
みんなもう飽きたのか・・・
趣味でモーションキャプチャして、んでどうすんの?っていう根本的問題があるからな。 日本向けはMMDがさっさと対応しちまったし、 高度な処理はMITやPrimesenseの独壇場でトーシロじゃ歯が立たない。 実用技術的には、MSが宣言した公式サポートが開始されたりASUSのXtionが出てきたりするこれからが本番だろう。 ゲーム業界向けの業務用ソフトなんかに組み込まれていくと予想。
ひと段落してきた感はある。
マイノリティ・リポートみたいな感じでファイルとかwindow操作できないかな? プロジェクターを使ってプレゼンやると面白そうなんだが
ジョブズ猊下がMacBookにタッチパネルを搭載しない事について 「腕が疲れてやってられん」みたいなこと言ってたけど、 それと同じでそういうプレゼン用途以外では実用性がないと思う
寝パソ最大のネックである「寝ながら文字入力」を補完するという役目を 背負っているじゃないか。
玄関のドア前で踊ると開く鍵とか開発して欲しい
273 :
デフォルトの名無しさん :2011/01/17(月) 09:18:21
鍵を閉める踊りと開ける踊りを区別した上でブロックサインのように 踊りの中の特定のパターンのみに意味があるようになっていれば 他の人が適当に真似しても有効にならないようには出来るはず
家の前で変な踊り踊ってる人がいたら不審人物だと思われないか
やっぱり腰のピストン運動をリアルタイムキャプチャーして ゲームに反映するのが一番いいと思うけどなあ
いや、仮想の腰と実際の右手を連動させた方が実用的だ
右手ばっか使ってると本番でダメダメになるぞ。 ちゃんと専用器具を使って腰を使った方がいい。
専用器具を使ってると本番で刺激が足らなくなるという研究報告もあるな
ところで
>>273 については顔認証を組み合わせればいい
顔写真を印刷すればいいじゃないかという説もあろうが
玄関の前にお面を被って踊るデブがいたらそれは不審者だ
ボーンのトラッキングって、MSで用意されたもの? それともOpenNIの人が独自に開発したもの?
NITEはPrimeSense社が開発してるプロプライエタリなライブラリ
>>281 OpenNIのSampleでもボーントラッキング出来てるみたいだけど、
NITEを使ってやってるってことなのかな?
それNITE入れないと動かないよ!
これ、日本のアニメーターさんに使ってもらうわけにはいかんのかなあ… 今までの3DCGのモーション付って大体は手作業でつけるから実に面倒くさくて その作業を目にしたフツーのアニメーターさんは「手で描いたほうが早いわ」と即断するので3DCGには一切近づこうとせず だから3DCG界隈は、2Dアニメ界との交流が途切れてしまい、技法その他が全然流入してこなくて 結果、PC操作はできるけどアニメの極意を知らないド素人がつけたロボット的モーションか ダンサーや俳優さんのモーションキャプチャデータをただ垂れ流すだけ、という技術向上やノウハウ蓄積がこれといって無い状況が続き 日本の2Dアニメと3Dアニメはずっと分断したままで、国際的な競争力を持つこともなく… でも、kinectのこのムーブメントをアニメーターさんが見たら 「こんなに簡単なら…俺だって3DCGアニメをやれそうだ」「俺だったら、もっとこんな感じに動かすね」と思うのではないか 「描いたほうが早い」から、「カメラの前で動いたほうが早い」に、時代が変わっていくのではないか そこでようやく、2Dアニメーターが持っていた各種ノウハウが3DCGアニメと融合し始めて、新しい何かが生まれやすくなるのではないか でもアニメーターさんは、個人が気軽にモーションキャプチャできる時代が到来しそうだ、それがアニメにも生かせそうだ、なんて全然知らないだろうし kinectハックしてる側は、これがアニメ制作作業をグンと楽にする可能性がある、なんて夢にも思わないだろうし、世界は相変わらず分断したまま、kinectハックブームはお遊びの域を出ずに終了するのだろうか
便所に落書きしてる分には構わないが、 間違ってもアニメーターにメールしたりはするなよ
代々木アニメーション学院に電話汁
もうちょっと簡単にできるようになればね。 最低でも - モデルをロード - モーションを取り込み - モデル+モーションにしてセーブ - ネットにアップロード - ブラウザーで見る がフリーで一括してできるようにならないと難しい。 2,3年でできるようになると思うけど、、、、 メタセコイアがボーン入れられない時点でもう終わってる。 あのへんから全部作り替えないと無理だね。
MMDでいいじゃん
お前がMMDで満足しているならそうなんだろ。お前はな。
>>287 演技はだれがやるんよ、そういう人たちを雇うのだって金がかかるんだよ。
大きな演技してもらうには場所もひるようだしな。
データ荒くてこんなん使えんよ 今はあくまでリアルタイムで優秀な技術であって それ以上には全く使えない代物 3Dモーション付けてる人も「手付の方がいいや」って100%言う 今後に期待はしてるが、今はその時ではない
>>294 データが荒いのは補完方法でいかようにでもなるとおもうがな。
なんとでもなると口で言うのは簡単だが
>>296 そもそも計測した時点でどんなデータでも離散した不連続な情報になってるだろ。
それが今までどのように加工されてきたかを考えればそういう返事はできないよねえ。
現状はハックしたドライバがそういうことやってくれてないから自前でやるだけだよ。
あれ、もしかして補完するためのアルゴリズムとかしらないの??
そういうことは実際にやってみせてから言わないとかっこわるいだけだよ
>>298 なに?コード書いてもらいたいわけ??
金くれたらやってやるけど払える?
>>298 おまえはひとまず線形補完からはじめろよw
滑らかなのが欲しければベジェでつなぎあわせとけ。
なんだ、できもしないのに言ってるんだ
>>299 もっと具体的なことを書かないとお金が払えるかどうかは決められないでしょう
そんなわけで質問だけど、本当に補間だけなはずはないよね?
おそらく予測補間のことを言ってるのだろうけど、信頼度と速度とか抵抗とかから適当に予測して
補間するくらいのことは誰でも思いつくわけだけど
そもそもキャプチャー側の精度の問題でそれだけじゃデータが荒いことには代わりがなよね
俺みたいな素人にはそれ以上の補間って思いつかないんだが、なんかそれ以上の補間
が実際に応用されてる現場ってあるの?
>>301 鏡見て独り言かw
>>302 まずはどの精度か定義しねえと話にならねえんだけど。
キャプチャ間隔のFPSのレートが低いのは曲線とか使った補完で十分だろ。
各制御点がフレーム間で大幅に飛ぶのは制御点用の
現在位置予測用のプログラムをかかねばなるまい。
数フレーム前までの位置の平均を積み重ねていって比較し、
差分をベクトルにして現在位置はこの辺でしょうっていうやつな。
閾値を利用したノイズフィルターも入れとけばそれなりなあたいになるだろ。
速度でるならリアルタイムでも使えるだろうし、
非リアルタイムならもっと凝ったこともできるでしょ。
骨格ベースで各間接位置の現在位置予測とかな。
あと、これをアニメーターに使わせたいとか、業務用のキャプチャに
使用しろよとかいう立ち居地じゃねえからな。
>>294 のデータが荒くてはなしにならねってところで思考停止してるから突っ込んだだけだ。
あーあー、やっぱり脳内で「こんなもんでできるだろ」程度にしか考えてなかったんだな ノイズフィルタ「でも」って表現からもバレバレ。
>>304 はいはい天才チンパンジー愛ちゃんはおりこうですねw
内容のない書き込みしても自分の無能さをさらけ出してるだけだね。
まあこういうものはオープンソースで1つしっかりしたものが公開されないと難しいだろうね
>>303 みたいなのも、もっともらしいことを書いてて実は内容のない書き込み。
>>307 おまえを見てたらなんだか保護してやらなければならない義務感をかんじてきたよ。
技術力も努力もしない他力本願な奴とそれに反応しちゃう奴、 醜い罵り合いのクソみたいなレスは他所でやってくれ。
おまえもスルーできないならよそへ行けば?
2chっていつもこうだよな。 面白い話題が提起されてもカスが大量にやってきてすぐに潰してしまう。 そして何も進まない。
実際リアルタイム補完が出来たとして それ自体フィードバック掛かって 補間したデータに合わせて手元のマニピュレータが動いて 人間の体が勝手に動くと面白いかもな
>>312 それならマニピレーターから実際の角度などをとりだしたほうがよくないかな?
フィードバックを外部機器でおこなうなら。
踊れない人を踊らせるのか
おっぱいまだですか?
ノートPC(と電源)があれば、どっか広い場所でキャプチャーできるな。 体育館とか・・・ハードル高いか
317 :
デフォルトの名無しさん :2011/01/20(木) 01:17:58
素人が3DアクションぽいRPGとか作るのに良さげ
>>316 キャプチャ対象は人だけと思うな!
車に積めば車間距離を警告できるかも
急な飛び出しに反応してブレーキ踏んでくれると嬉しい
それはもうあるのでは
兎に角もっとバカでも出来る開発環境を備えてないと、 クソゲーメーカーはクソゲー作り放題だろ。
筋肉に電極埋め込んで俺がキョドるのを補正して欲しい
悪いけど、キネクトでキャプチャーしたデータ直すくらいなら一から手付けでアニメーション付けたほうが圧倒的に早いし綺麗 モーキャプデータの修正やった事ある奴ならそれがどんだけ大変かすぐ分かる 上でCGでアニメーション付けるのが楽になるっつってるけど、現場からしたらキネクトはお遊びレベル 遊びでやるなら使えると思う
とりあえずサンプル動いたけど、その後どう遊んでいいのか行き詰まったので、 とりあえずmmdで遊んでみた。予想以上に楽しかった。女装癖が芽生えそうだ。 しかし3D画像処理とかロボ系の知識がないとちょっと厳しいかもねこれは。 俺の場合mmdのほうも使ったことないし、OpenGLとblenderで多少遊んだ経験 ぐらいしか無いんで、ちょっと途方に暮れてる。 kinectハックはドキュメントが豊富って言ってるの見たことあるけど、 OpenNIとかrosとかの英語の資料を地道に読んでいけばいろいろ分かってくるんだろうか?
キネクトとは別のところで認識関連の画像処理の文書を読んだことがあるけど おそらく、相当専門的な知識がないと苦労する。 今の段階では、与えられたキャプチャー機能で何をするか、と言う方向で考えたほうがいいと思う。 (キャプチャー機能をどうこうするか、ではなく) それこそ某スペシウム光線なり、エロ方向なりに。
XNAで遊んでるけど与えられたキャプチャー機能だけでもけっこう面白いよ
XnModuleCppRegistratration.h
xnGetSkeletonCalibrationPose()が返す文字列の長さってわからないから へたするとメモリ破壊起こしますね
/** The maximum length of names of objects in OpenNI **/ #define XN_MAX_NAME_LENGTH 80
>>323 まあ、現状はそうでしょ。取れるボーンの数も少ないし。
ただある程度環境が整備されてきたとき、このテのアプローチで
廉価にそこそこのクオリティを出せるグループが出てくるかもしれない。
大量生産に向いてるかもしれない。
たとえば、ニコ動で上がってる歌1つ分のダンスとか、完全手付けだったら
クオリティにかかわらず相当の費用になるところだけど、(ノウハウが集積すれば)かなり短時間でできそう。
あとはkinectで撮った3Dボクセルと重ねて見ながらモーション手付けもしくは修正するというのも
1つの利用方法かも。
直接反映しちゃうんじゃなくてあくまでジェスチャーコマンド(俺用語)的な使い方のがいいな
要するに安価に入手できるリアルタイムモーションキャプチャユニットという事なのかな? 良い時代になったものだ・・・
>>330 確かにボーン数がまだ少ないから商業的に使い物にならないんだよな、、
でも指先や顔の表情まで読み取れるようになるらしいから半年〜1年後は
面白い事になってそう。(モーション以外にもいろいろ使い道は増えそうだし、、)
「果報は寝て待て!」だね。
果報は寝て待て!という反面すごいのが出てくるとヤラれた!って気にもなるんだよな
高スペックにこだわり過ぎるのも考え物だぞ 妥協できるすれすれで実用性を追求するのも努力だ 任天堂とかアップルに見習うべきよな
>>335 ここは技術板なのでマーケッティングの話は巣でやって下さい。
表情の認識はXbox360で可能にするという話は出てるけど、OpenNIでサポートするか どうかは不確かだと思う。 表情の認識自体は深度情報使わず画像認識だけでできる話だし。
Sample-SingleControlのプロジェクトファイルをデバッグ無しで実行すると "Session Manager couldn't initialize: No hand generator found. One is needed forsession manager." って表示されて起動できないんだが・・・ Samples/Bin/Release内にあるSample-SingleControl.exeを起動すれば普通に扱えはするけども、解せぬ 同様の症状になった人いる?
338を書いた者だ。 OpenNIやNITEのインストール諸々を一からやり直したら正常に動作するようになった。 スレ汚しちまってすまねぇ
まあセットアップ大変だね。 ソフトを作って公開したとき大変だね。
>>335 俺達にとって「遊べるオモチャ」かが最重要であって
そんな事、関係者じゃない限り意味ないんじゃないの?
ってかキネクト自体もMSにしては「商品」としては随分ブラッシュアップしてあると思うけど、、」
Kinectはコスト削減やレスポンス向上のためにけっこう土壇場で 認識処理専用のチップ載せなかったり解像度落したりしてるしねえ
現代版「大人のおもちゃ」
センサの上下角度調整ってOpenNIで内蔵モーターつかってできる? 変になってる時つい手でガキッって直しちゃったけど壊れそうで怖い。
ヘッダー調べたら、踵とか指先とか、もっと細かいボーンが定義されてるけど 今のバージョンだと取得出来ない。 今後取得出来るようになったり、精度は上がるのかな?
なるかもしれないしならないかもしれない
足先指先は、赤外線ばらまく密度を上げないと難しいんでないかな 中遠距離だとフルHDくらいの分解能がないと失探すると思う
Kinectの上位機種が出るまで待てってことだな
上位機種でてもそれに対応したNITEが公開され無いと意味がないと
座布団を床ごと奪われて墜死するがよい
深度とかボーンとかとれるのは感動したけど実際にこれでなに作るかって言われると難しいもんだな・・・
モーションキャプチャなんて業務用というかクリエイター側の技術だしな 一般人、消費者側には使い途がない
でも創造性といった限りない自由度を与えられることで 飽きのこないゲームとして広く受け入れられる場合もあるよねMinecraftとか
まー良くも悪くもコントローラ程度の精度ってことだな
精度云々よりもキネクトで使える技術は大体まとまったからあとはアイデア勝負かな
356 :
デフォルトの名無しさん :2011/02/04(金) 12:15:41
357 :
デフォルトの名無しさん :2011/02/06(日) 23:01:35
初めて見たときちょっと感動したけど 慣れるともうどうでもいいって感じになるな おなかいっぱい
3Dキャラにキネクトモーションを入れ込んでリアルタイムで動かしてみたけど、 ゲーム史上未体験の感覚だわ。 これは夢広がりんぐ。 ただ、細かいボーンの動きが取れなかったり、遅延があったりするけど、 これは今後改善されそうだな。ソニーなりMSが出すであろう 次世代Kinectで。
リアルタイムじゃなくてもいいなら、奥行き画像を連番bmpで 保存してき、あとからその画像を詳しく解析することで より精度の高い位置情報を求められるんじゃなかろうか?
深度カメラの制度の問題だから、ほとんど可能性はないだろう。 合成開口レーダーのように、対象が静止している状態で、 キネクト側を適切に動かして画像を得られるなら話は別だろうが、 運用は現実問題として実用的とは言えないだろうし、 それくらいなら、複数のキネクトを並べて情報を得たほうが実用的だろう。
>>361 精度の問題は少なからずあるだろうけど、今取れているすべての情報が
十分利用されているとは思わないな。
アルゴリズムの改良とGPGPUの利用とかで、解析部分の精度はまだ上げられるはず。
初期のアルゴリズムではすぐに追従出来なくなってキャリブレーション姿勢を 何度もとり直させられてたらしいが、その後大学機関の協力を経てサポートベ クターマシン(SVM)を用いた認識アルゴリズムの改良に成功したという経緯だ けを見てもまだ余力はあるだろうよ。 ただ、あらゆる姿勢に対応できるようにSVMの学習データを膨大にすると精度 を犠牲にしなければならなくなる二律背反であることから、姿勢推定範囲を限 定して精度の高い学習済みデータを切替えて使用するといったやり方が現実的 だろうな。 だが一番の問題はNITE代替の学習データ構築コストが半端無いことだろうな Amazon EC2+Hadoop+Blenderで人体3Dモデル関節制約から深度情報生成... ちょっと個人じゃ手が出せない規模だ。
複数台使ったりしなきゃならないくらい精度悪い? 動画みてると結構精度よさそうなんだけど
どの動画ですか?
>>362 GPGPUをお前はなんだと思ってるんだ。
漏れの見た動画は全て精度悪そうに見えた
>>366 General Purpose GPUだけど。要はCUDAとかを使う。
この手の姿勢推定とかの演算はだいたい並列化可能だろうし、
計算量を増やすことで精度を上げられる場合が多い。
とはいえアルゴリズムの修正のほうが重要だろうとは思う。
Kinectでキャプチャした数値をそのまま鵜のみにして使うのではなく Havok BehaviorやEuphoria Motionなんかとミキシングして使うのも手かもな
>>368 依存関係多い計算だしそんな簡単じゃねーよw
お前GPUプログラミングはおろか並列プログラミングすらしたことねえだろ。
>>370 一言多い人だねー。
現状GPUプログラミングでネックになるのは主にビデオメモリへの転送だけど、
kinectレベルの画像サイズならどうということはない。
一旦デバイス側のメモリに上げてしまえば計算力は圧倒的に高い。
依存関係多いといっても段階ごとに分ければだいたい同じ処理のループが出てくる。
多少の工夫でなんとかなる。
とはいえ、姿勢推定のプログラミングはしたことない。
あんた詳しいようだから是非解説してくれ。
>>371 段階的に分けたとして、そのソフトパイプライン処理を、GPGPUできるの?
それとも、ある段階だけを並列化するにとどまる?
>>372 段階ごとに並列化した上で、それらを順次実行することで、全部を並列化できればベスト。
並列化の手法は段階ごとに変えられる。
GPU(CUDA想定)は基本的に、同じカーネル(Cでいうと関数(語弊あるけど))を全プロセッサで同時に実行する場合に高い
性能が出るから、小さい処理に分断した上で、それぞれの一瞬に関しては全体で同じ仕事をさせるほうが良い。
CPUのパイプラインみたいに同時に別の段階の処理をさせるとパフォーマンス出ないはず。
とはいえ、最近は同時に複数のカーネルをスケジューリングしたりとか、いろいろ進化してる気はする。
細切れにしてCPUとのインタラクションが増えればレイテンシが問題となる。 IOバスの先にあるGPUに細切れで仕事をやらせるのを、レイテンシの問題抜きで 語ることはできない。
だからGPUなんかはなから選択肢に無くて ニューラルネットワークの応用であるSVMを使ってるんだよ 頭かたいなおまえら
377 :
デフォルトの名無しさん :2011/02/16(水) 04:34:32
保守
ああ、スキンモデルを同期させて動かすプログラムやっとできた。 次は物理エンジンを組みあせてみるか。
379 :
デフォルトの名無しさん :2011/02/18(金) 09:18:19
ここはいつから日記スレになったん?
380 :
デフォルトの名無しさん :2011/02/21(月) 19:44:08.03
最初から
考えてみたら、立体をキャプチャーできるわけだよな。 ろくろみたいに回るなり、複数のキネクト使うなりすれば・・・
精度をあげるために複数キネクトはアリだと思うが誰かやってくれないだろうか
複数kinectは赤外線が干渉するだよ
384 :
デフォルトの名無しさん :2011/02/21(月) 23:25:02.95
MS公式ライブラリ予告だけかよ
DirectX SDKとの統合作業中なんじゃないの あっちはあっちで去年の6月から更新されてないし
そこでDirectXが出てくる意味がわかんねえ
OpenNIがあるんだから、意味無いと思うんだけど。 それ以上の事が出来るようになるのかな? 顔認識とか、もっと精度の良いモーションキャプチャーとか
OpenNIはフレームワークだからMSのライブラリにもラッパーをかませてNITEと 切り替えて使えるようにすればアプリ作り直しにはならないだろうけど MSはOpenNIなんて無視するだろうに1万ペソ
390 :
デフォルトの名無しさん :2011/02/22(火) 17:04:38.86
>>388 Xbox360のデモ見てる限りではOpenNIとは比べものにならない精度っぽい。
ドライバとランタイムが同梱されたインストーラが再配布可能で インストールすればCOM経由で骨格情報まで取得できる、ってところまでやれば 別にOpenNIのミドルウェアとして提供しなくても評価する 商用/非商用SDKを分けているあたりケチくさいことやってきそうだよなあ OpenNI+NITEをライバルとして認識してればいいんだが
まぁ例え一度財産が失われようと、 新しく出来る基盤の上に更なる成功が積み重なるなら惜しくはないな
MicrosoftのSDKは商用ならいろいろ面倒くさそうだな。所詮はモロに金儲けか。 OpenNIよりよほどのアドバンテージが無ければスルーだな
いくら360上で精度高いところ見せられても、PC上で検証しなきゃ比較できんだろう。 キャリブレーションポーズ取らなくてもよかったりするからちょっと期待しちゃうけど。 Kinectのスケルトンって内蔵チップじゃなくて360のCPU/GPUで計算してるんだっけ? ここまで勿体ぶっておいて、いざPCで動かしてみたらNITEより性能劣ってたら良い笑い物だなw
商用で金儲けしようとする奴が金儲けをディスるというのは滑稽というか自己矛盾もいいとこだが、 商用に制限を課したのはKinectをエロゲに使わせたくないからでは? 以前MSがエロに否定的な発言してただろ。 金払えば商用可というような単純なものではなく、多分アプリを個別に審査して許可不許可を決めるんじゃないかな。
まったくねえ。 ハックする気がある人なら道具が増えたと喜ぶところなのに、どうせ作られたものを 落としてきて動かすだけのお猿さんか、動画評論家なだけってのがバレバレですね。
エロゲメーカー内製で非公式MOD出せばいいだけの話 大丈夫だ、問題ない。
399 :
デフォルトの名無しさん :2011/03/06(日) 17:45:27.23
無理です。
解像度がなぁ
高速度の高解像カメラはまだまだ高価だよ
楽しそう
キネクトの解像度やフレームレートっていくつなんだ? 公式やwiki見ても載って無いんだが ググっても変なのしか出て来ないし
>>404 基本640x480 30fpsだと思うが。まあデプス画像は実質ではそこまで精度ないと思う。
デブス画像とかモザイクかけてくれていいよ
デプス画像なんて普通にモザイクレベルだろ 個人が判別出来るほどの精度ねーよ
あの〜こちらデブスとデプスを引っ掛けておりまして… いえっはいっ何でもございません滅相もございません
409 :
406 :2011/03/28(月) 08:58:39.86
ツッコミオセーヨ だがこれでようやくこのスレを閉じれる ありがとうさようなら
自演臭い
411 :
デフォルトの名無しさん :2011/04/17(日) 03:14:59.00
キネクトより精度が上だったりするのだろうか。これ。 あとは認識範囲が広いとか。
キネクト風っていうか、OpenNI 公式のデバイスだよね。
414 :
デフォルトの名無しさん :2011/04/17(日) 08:43:53.74
深度センサーだけでKinect単品より値段も高いとか、宗教上の理由で買えない人専用だな
スケールメリットの差があるから仕方が無い それと、エロゲ用途ならXtionを使うしかない 以前のアナウンスからすると、MSは恐らくKinectを商業エロには使わせない
416 :
デフォルトの名無しさん :2011/04/17(日) 09:44:00.27
417 :
デフォルトの名無しさん :2011/04/17(日) 09:46:13.74
>>415 深度センサーだけでなくRGBカメラとかも搭載したKinect上位互換機なら良かったんだけどねえ
>>415 それはエロい人がどうにかしてくれるだろきっと
深度センサーだけ? kinectでも赤外線じゃ細かい部分が精度不足でとれないのに。 指の動きがわかるくらいの精度になるのかな。
420 :
デフォルトの名無しさん :2011/04/17(日) 19:45:05.18
64bit windows7で開発環境整えてるんだけど、OpenNIサンプルがどれもうまく動かない。 組み合わせ1 OpenNI-Win64-1.1.0.39-Dev.msi avin2-SensorKinect-8f199ca.zip - SensorKinect-Win-OpenSource32-5.0.1.msi NITE-Win64-1.3.1.3-Dev.msi 組み合わせ2 OpenNI-Win32-1.1.0.39-Dev.msi avin2-SensorKinect-8f199ca.zip - SensorKinect-Win-OpenSource32-5.0.1.msi nite-win32-1.3.1.3-dev.msi 組み合わせ1だとOpenNIのインストールはうまくいくんだけど、 SensorKinectのインストールでOoenNIのバージョン1.1.0.39以上にしてくれって警告でて インストールができない。もちろんバージョンは1.1.0.39なんだけど 組み合わせ2だとすべてうまくいくんだけど、 サンプル実行するとどれもフリーズする。 深度センサは赤くなってるから動いてるみたいだけど。 すべてのインストール先をProgram Files (x86)→Program Filesに変更しろって いろいろなサイトに書いてあったんだけど、インストール先指定でProgram Filesを 指定してるのに、すべてインストールはProgram Files (x86)のほうにされる。 Program Files (x86)もだめ、手動でフォルダ移動+XML書き換えでもフリーズでした。 うまくいった人、どのインストーラーで成功した方情報ください。
俺も
>>420 と同じで、久々にOpenNI更新したら動かなくなってた。
まだ手をつけてないけどパスの指定がダメで dll か lib が読み込めてないと思っている。
あとサンプルのバイナリは動かないよw
初期設定ファイルの相対パスが違うから。以前のバージョンだと。
423 :
デフォルトの名無しさん :2011/04/18(月) 03:49:13.73
>>421 組み合わせ2でNiSimpleViewer.exe実行すると
ザラザラだけど一瞬だけカメラからの画像が移るんだよ。
64bitの互換性云々でこうなってるのかなって思ったんだけど、
まだどこか設定ミスがあるのか・・・。さっぱりわからないけど。
正直Kinect for Windows SDKの記事を見て
「あ、kinect買ったんだった」って思い出して今に至ってるから、
待てばいいんだけどね。GW前までに出てくれればいいなと願っている。
424 :
デフォルトの名無しさん :2011/04/18(月) 08:02:25.68
.
>>423 俺はMSのSDKを見てからOpenNIとどっち使うか決めるよ。
OpenNIのが良いかもわからんからね。
426 :
デフォルトの名無しさん :2011/04/18(月) 10:58:41.05
>>423 > 正直Kinect for Windows SDKの記事を見て
> 「あ、kinect買ったんだった」って思い出して今に至ってるから、
俺も俺もw
MSDNの機械翻訳は読みづらいからなぁ・・・ OpenCVみたいなサイトをOpenNIも作ってくれれば、そっちのほうが良いかもしれん
429 :
デフォルトの名無しさん :2011/04/21(木) 20:45:37.33
ジェスチャーの学習って出来るの?
>>420 解決してたらごめん。
俺もそろそろSDK出るだろうと思って21日に買った。
環境はWin7 Ul x64
最初はうまくいかなかったんだけど色々いじってたらいった。
使用ファイル(24日01時最新?)
OpenNI-Win32-1.1.0.41-Dev.msi
avin2-SensorKinect-8f199ca.zip
NITE-Win32-1.3.1.3-Dev.msi
OpenNIはUnstable。
全部32bitね。
普通にx86パスにインストールしたし、インストール時に特に変更した箇所はない。
SensorKinectのDriverはdpinst-amd64.exeを実行。
とりあえずいじったとこは、
環境変数 → パスが「Bin」のはずなのに「bin」になってるので修正。多分再起動しないと認識しないかと。
OpenNI\Data\modules.xml → おかしなパスがあるので修正(もしかしたら俺がx64verとか過去verをなんどもインストールして試してたからかも)
OpenNI\Data\licenses.xml → これもなんか2個記述があった。本来入力したほうのみ残して余分なほうは消した。(多分何度かインストールしたせいかと・・・)
一度インストールしたのならアンインストールしてやり直したほうがいいかも。
ファイル残ってる場合もあるし俺みたいに上書きされるかもしれん。
後、これやる前に前回インストールした時のドライバで認識されてるからデバイスマネージャからKinectのカメラ、モータ、オーディオを消して再起動した。
VB初心者の学部生なんですけど、 VBとkinectを一年以内に接続して、サーボモータを動かすという課題が出ました。 OpenNIを使ってらっしゃる方をよく見かけるのですが、 これってC言語のプログラムですよね? SDKは夏前に出るとかいうニュースがありましたし ある程度の成果を一定期間毎にあげなくてはならないのでSDKを待てません。 そこで質問です。 OpenNIが行っている処理の情報をVBを使って管理することはできますか? もし出来るならやり方を教えてください。 長々とすみません。
>>431 なんでVBなんて使う?
課題を出したやつに聞いてこい。いや煽りじゃなくマジで
VB.NETならつかえるっしょ。
>>431 C は初心者じゃ無いと言うなら、VB のマニュアルで declare を調べる。
>>432 C以外の言語にも触れていろいろできるようになってほしいらしいです。
>>434 なるほど、これならできそうですね。
答えてくださってありがとうございます。
ここから先でわからないところがでたらVB板で聞いてみます。
436 :
デフォルトの名無しさん :2011/04/27(水) 16:10:39.69
>>430 情報どうも。
ちなみにどのサイト参考に環境整えた?
デプスとイメージジェネレータは使えるようになったけど、ユーザージェネレータの作成でコケる。 これってNITEのセットアップに失敗してるって事だよね。 以前はいけたんだけど、なんでこんなにハードル高いんだよ。もう心が折れそうだ
OpenNIのjavaラッパーってありますかね? JNAあたりで読み込めると楽なのですが
ジェスチャってこれ、予め用意されたジェスチャしか使えないのん?
>>437 設定ファイル(.xml)でユーザージェネレーターを有効にして無いとか?
それかそもそもNITE入れてないとか。
ボーン認識の特徴点に何使ってるかとかって判明してるんだっけ?
442 :
デフォルトの名無しさん :2011/05/08(日) 23:42:30.90
Visualstudio2008 XNA Game studio3.0 WindowsXP 骨格情報取得のプログラムを作成したら using xn; ところで、エラーがでるんですが原因わかりませんか? エラー文です。 エラー CS0246: 型または名前空間名 'xn' が見つかりませんでした。 using ディレクティブまたはアセンブリ参照が不足しています。
443 :
デフォルトの名無しさん :2011/05/08(日) 23:46:37.90
Kinectの質問スレあるの?
446 :
デフォルトの名無しさん :2011/05/09(月) 00:12:43.11
総合スレのことですか?
447 :
デフォルトの名無しさん :2011/05/20(金) 21:27:28.25
Kinectハアアァックッ!!!!!!!!!!!
どなたかKINECTセンサープログラミングの書評をおながいしまふ
>>448 おまえみたいなヴァカには無用の長物だよ
450 :
デフォルトの名無しさん :2011/06/10(金) 16:19:53.47
SDKコネー
気づかないうちに出てるんじゃないかと思ってときどきググってみるけど、まだ来てないよな もう春は終わってる気がする
452 :
デフォルトの名無しさん :2011/06/10(金) 20:31:46.26
kinectSDK出すとXBOXのキネクト用ソフトが売れなくなるからかな。
しょせんキネクトも一発屋か...
俺たちの春はこれからだぜ!
マイクロソフト先生の次回作にご期待ください!
キネクトは場所取りすぎるんだよ メリケンの大きい家じゃないと厳しい ヨーロッパや日本のような狭い家だと_
>>456 非純正だけど、狭い部屋でも出来るようにするレンズが出るって話だ
距離や大きさの測定が狂う気がする
放射能に反応しないかな
ガイガーつければいい。 でも、東京じゃ反応しまくってゲームにならないな。
バッファロー辺りから、深度センサー付きカメラって出てなかったっけ? それでも良い気がする
ASUSのXtion Proね。深度センサー付きというより 深度センサーしか無いくせしてKinectより 5k くらい高いけどな かなりコンパクトでUSBバス電源で動くから値段次第じゃ欲しいんだけどねえ
>>461 デベロッパ向けの価格じゃなかったっけ(SDK付属)
一般向けはKINECTよりは低い価格設定されるのでは、と思ってるのだが。。
作品(つぅのか)を応募してて最優秀賞金が2万ドル。
賞金安すぎない?円が高すぎるのか。。
KINECTのあの価格はXBOXのスケールメリットとゲイツマネーがあってこそだろ? 好事家にしか売れそうにないXtionが割高になるのは仕方が無いよ
Kinectの仕様は公式じゃないけど、これくらいか
http://takao.asaya.ma/article_701.html ASUSならQVGAにすれば60fpsになるな
Kinectの利点はカラーで処理出来るくらいか?(深度計測にサブピクセルが必要かは不明だが)
マイクは連動して位置感知してる訳じゃないから他で用意すりゃいいし、
カタログスペックならASUSのほうが使い道ありそう
60fps出たとして、画像認識の処理追いつくんかいな
NiAudioSampleってなあに
XPな自分に死角は無かったorz
Windows 7専用・・・だと・・・ なんてこったい待望のSDK公開が来たというのにドライバがインストールできない
SDK来たのか春は終わってしまったが
F-07Cが発売されたらKINECT SDKを入れるんだ。。。
起動待ちがなくてコロンビアなしで即座にスケルトン… OpenNIとはなんだったのか…
さっそくOpenNI削除してインストールしてみる!
Vistaユーザーはどこまでも虐げられねばならんのか…
VistaユーザはさっさとWindows 7へ移行しているものだと思ってた。
Ni削除してないけど動いた サンプルゲームは動かない コロンビアいらない なんか動きがブルブルする 首、手首、足首認識してる
そりゃNiは消さなくても動くだろNIをなんだと思ってんだkinectの為のものじゃないぞ ドライバ消さなくても動いたの?
スケルトントラッキングの関節データはどういう形式で取得できる? OpenNIみたいにカメラ座標での(x,y,z)だけなのか、ローカル座標での回転で取得できるのか。 Windows7持ってないから動かせないけど、マニュアルだけでも読んでみよう
公式ドライバが出たのにハックと言えるのだろうか
openniもmmdもなしにモーションキャプチャだと…!?
Skeletal Tracking Fundametalsのビデオ見るとプログラムが起動した瞬間にトラッキング開始してるな。 当然キャリブレーションポーズなし。そんな事が可能なのか... あとTransformSmoothingをかけるとプルプルしてない。 関節の回転がきちんと取れればOpenNIより凄そうだ。 Windows7を持ってなくて動かせないのが残念だ。
>>475 それ俺も考えたんだが、ホストUSB無いじゃねーか
最も、Kinect自身が外部電源必要だけどな・・・
>>485 > 当然キャリブレーションポーズなし。そんな事が可能なのか...
実際箱のkinect対応ゲームじゃ一瞬で人体認識するのが普通なわけだし
MS謹製SDKなら出来て当然だろう
OpenNIインストールでごちゃごちゃ苦労したのに、純正は1回で普通に認識した、ワロタ わろた・・・・・・・・・・・・・
489 :
485 :2011/06/17(金) 14:57:30.03
Windows7持ってないからSDKの中身を解凍してKinectSDK.chmを読んだだけだがびっくりするぐらいシンプルだな。 そしてスケレタル・トラッキングは2人まで(一応もう4人は認識だけはできるが重心位置だけで関節位置が取れない)。 トラッキングは20個の関節の位置(x,y,z)しか取得できず回転が取得できない。使えねー OpenNIに比べるとシンプルで完成度は高そうだが、回転が取れないので画面に向かってカニ歩きしかできない... (XBOX360のKinectゲームはみんなそうなのか?) 俺が欲しかったのとはちょっと違う。おもわずWindows7を買ってこようかと思ったがスルー決定。
>>489 kinect-ultraは三点の座標から計算で角度と回転計算してるよ
朝試した時は肩の上げ下げは認識してなかったな
椅子に座った状態は問題無く認識してたけど
背もたれに深くもたれたらブルブルしてた
492 :
デフォルトの名無しさん :2011/06/17(金) 19:46:00.71
サンプルは全部動いたけど、 サンプル終了しても赤外線センサが起動したままなんだが。 終了時にちゃんと開放してるんか?
493 :
デフォルトの名無しさん :2011/06/18(土) 00:28:48.82
USB接続できるキネクトのファームウェアアップデートってXBOXがないと出来ないって聞いたんですけど、 SDKで出来るようになってたりしますかね?
アップデートきてるの?
少なくとも一度は来てる
何が変わったの?
Vistaでも動いたよん
>>485 Windows7の開発環境だけなら手に入るよ
Windows7 無料でググれよ多分でてくる
499 :
デフォルトの名無しさん :2011/06/19(日) 13:04:45.24
500 :
デフォルトの名無しさん :2011/06/19(日) 13:21:14.89
誰かMMD以上のモーションキャプチャツール作ってくれ。 インターフェースとモーション対応フォーマットを改善してくれ。
フライトシムとレースシムのTrackIR互換インターフェースなヘッドトラッキング求む
kinect首の回転って検出できたっけ
>>502 kinectのファームがちょくちょく更新されてるからな
PCでも更新させて欲しいわ 実機とか買ってねえし
>>502 頭部の色とか顔面の深度の移動で認識してるのかね
>>505 中古屋にいけば初代が1万以下で買えるかと。
箱無し傷アリなんかだと5〜6000円で売ってたりもするね。
あとは360をもってる友人にやってもらうとか360のあるネカフェに行くとか。
ネカフェはいいアイデアだがあるかどうか
五千円なら欲しいけど、 今さらDVDのゲーム機は要らんな。
貧乏人乙です
ほぼゴミになるし。 SDKで対応して欲しいものだ。
素人丸だしではずかしい質問なのですけど Windowsプログラム初体験でkinect使った win7プログラムはじめるのにお勧めの 書籍とかサイトはありませんか? ObjectiveCとperlは使ったことあります WINDOWSは普段使いしています
>>502 目を検出したら頭の向きを推定できる気が
目だけでは難しいので、Tゾーンだな。
サンプル起動しても、NuiInitialize failedとエラーでる… なぜ…
516 :
デフォルトの名無しさん :2011/06/20(月) 00:36:05.24
KinectとPCはちゃんとUSBケーブルでつながっているか? Kinectの外部ACアダプターはつないだか? このスレの悩みの80%はこの2つで解決する。
517 :
デフォルトの名無しさん :2011/06/20(月) 01:12:13.34
>512 あほか、499のサイト見ろよ
518 :
デフォルトの名無しさん :2011/06/20(月) 07:17:41.35
kinectはxbox360用のものなのにSDKでファーム更新対応しろとか…… 本当に貧乏人乙だなwww
揉めてまで残しておくほどの情報かね
520 :
デフォルトの名無しさん :2011/06/20(月) 10:21:00.64
ゲームしないからな。
521 :
デフォルトの名無しさん :2011/06/20(月) 17:25:06.79
kinectの座標データって、正しい? 例えば、 ●頭のy座標と足先のy座標の差を出力した時、 ●実際にメジャーを使って頭から足先までを計った時、 ではかなり差が出ない?
そりゃ出るでしょw
523 :
デフォルトの名無しさん :2011/06/20(月) 18:20:06.20
なぜなのか教えてください
自分の足りない頭で考えろ
525 :
デフォルトの名無しさん :2011/06/20(月) 18:37:10.81
考えなくてもわかるだろ・・? ほんとにわからないの?
526 :
デフォルトの名無しさん :2011/06/20(月) 18:44:40.27
ワールド座標とかローカル座標が関係しますか?
527 :
デフォルトの名無しさん :2011/06/20(月) 18:55:52.07
いや、精度の問題だから、センサーのお話になると思うのだが・・・
普通に考えて、カメラから見て近くの人形と遠くの人間が 同じ大きさに見えるだろ。 何を基準に長さが違うと言ってるのかわからん。 Z軸は距離センサーの値だからそれなりに信用できると思うが。
529 :
デフォルトの名無しさん :2011/06/20(月) 19:52:49.06
カメラの精度の問題ですか? ということは、取得できる座標は、単なる目安に過ぎないんですかね? ユアシェイプ・エボルブというソフトでは、 身長の測定が出来るとおもうのですが、これも目安程度の身長なんでしょうか
ファームウェアのアップデートで精度が上がったとか言う話もあったな。 比べる対象にもよるが。 そう言うことだよ。
自分で作ったらどこまで精度出せるだろう、とか考えたら良いよ 頭の端、足の先、どんな角度だろうが厳密に割り出せると思うかい?
>>530 詳しく聞きたい。
kinectのファームウェアのアップデートとかがあるんですか?
普通にあるだろ。 食いつくトコはそういうところじゃねえだろ。
534 :
デフォルトの名無しさん :2011/06/20(月) 21:11:45.34
既にMMDとかでもいっぱいやってるやん
536 :
デフォルトの名無しさん :2011/06/21(火) 00:25:44.39
MMDは閉じてるからな。役に立たない
和製ソフトに期待はしてない。 SDK後の欧米の天才に期待。
>>534 それはSDKが出る前のだからopenNIしか対応してないだろうし
今後の対応待つべきだな
macでOpenNi, Nite, SensorKinectを入れて、OpenNiのNiViewerを動かしてみたのですが、 One or more of the following nodes could not be enumerated: Press any key to continue . . . と出てしまいます。 システムプロファイラではKinectは認識されているようです。 OpenNiを入れる前はOpenKinect+processingでkinectできてました。 現在、Openkinectはアンインストールしています。 原因わかる方がいたらお願いします。
>>529 デバイスが同じでも長さを推定するアルゴリズムで
精度は変わるよ
そもそもゲーム用コントローラとして「動きを認識できれば良い」程度の精度さえあれば十分だからな 細かい距離計測なんぞ不要 必要ならそれなりの高い物を買え(桁が二つくらい変わるが)
実際の精度測ってないからわからんけど、
>>521 はボーンの端の座標でそう言ってるんじゃないよね?
頭のボーンの端は頭の中心あたりにあるわけだし。
というわけで、デプスマップ上にある人間一人分の領域の中で
一番高い部分と一番低い部分の座標をちゃんと計算したか?という話。
Kinectの構造としては、ちゃんと機体がキャリブレーションされているなら、
そこそこの精度は出ると思うんだよね。
まあ、1cm単位で正確にというのは厳しいと思うけども。
>>539 フリーになるライセンスキーを各所に入れ忘れてない?
キネクトだと髪型によって身長も変わるんだろ。
kinectSDKとOpenNI使い分ける時って、毎回削除とインストールくり返さないとダメなん?
547 :
デフォルトの名無しさん :2011/06/21(火) 17:52:42.02
誰かVMware Fusion3上でKinectSDK動かせた人いない? いたら返事してくれ
548 :
デフォルトの名無しさん :2011/06/21(火) 19:59:22.79
550 :
デフォルトの名無しさん :2011/06/22(水) 12:52:30.70
東アジアばかりだ・・・
552 :
デフォルトの名無しさん :2011/06/22(水) 15:06:21.76
547のものだが、どうもKinectのいくつかのデバイスが認識されない。 KinectAudioArrayControl、KinectAudioUSBあたり Windows7機で開発するかぁ
>>552 ドキュメントにバーチャルマシンではだめと書いてあるじゃん
You cannot run applications in a virtual machine, because the Microsoft Kinect drivers and
this SDK Beta must be installed on the computer that is running the application.
SDK入れてみた 90cmより近いとdepthとれないのかな??
90cmだったかは覚えていないが距離の制限は当然ある。 2mぐらいが標準なのでちょっと近すぎね?
ありがとうございます たしかに標準ではそうですよねー ボーン認識のための距離だとおもってて depth画像にでてこないとは思っていなかったので... orz SkeletalViewerでみる限りでは初期位置で1.1-1.2mくらい離れないと ポーンの取得がうまくできないみたいですね 一度取得すると0.9mくらいまで寄ってもいけるみたいですが... ググっていると発表会で850mm〜4000mmとプレゼンに出ていた と、みくだんに書いてあるのをみつけました
アメリカンルームが基準だからねえ 確かKinect用の広角レンズが発表されたか発売されたかしてるので、 兎小屋ではそれを使うのがデフォルトになりそう
559 :
デフォルトの名無しさん :2011/06/23(木) 17:25:11.89
kinectの GetJointsで取得できる座標って、ワールド座標? 原点(0,0,0)は、kinectのカメラの位置を指しているって理解で大丈夫?
560 :
デフォルトの名無しさん :2011/06/23(木) 17:32:31.39
>>540 長さを推定するアルゴリズムって、
赤外線照射して、三角測量から距離を推定するアルゴリズム
のことでしょ?
どのkinectデバイス使用しても、アルゴリズムは同じじゃないの?
>>560 そこだけ見ればそうだろうけれど、対象までの距離を得るアルゴリズムが変われば
結果も変わるんじゃないの?例えば合成開口レーダーや超解像のごとく時間軸
方向へ展開して距離の精度をあげるとか、考えられるんじゃない?
563 :
デフォルトの名無しさん :2011/06/23(木) 18:28:27.10
>>542 つまり、
ボーン座標の頭から足先のy座標差は、
実際の鼻からくるぶし辺りまでの長さ
と同じかどうかってことだよね?
それはちゃんと意識して測ってるんだけどなぁ
座標軸はキネクトに合わせて傾いてるから補正する必要がある
563は現実世界をセンシングするデバイスのプログラミングに向いてないと思うよ
↑まあそういわずにw
>>563 状況がわからないけど
同じ照明、同じ安定した背景、同じ被写体、同じ立ち位置で、衣服や姿勢を変えて
それぞれ5回くらい計測して再現性の程度を確かめるところから始めるといい
うまくいかないときはまず測定環境を一定させてやってみて
そこから1つ条件を変化させては数回計測するというのが鉄板
ProgrammingGuide_KinectSDK.docxから抜粋 ・Standing Scenarios Only: not seated figures. ・For the depth and skeletal views, the figures should stand between 4 and 11 feet from the sensor. (1.2 to 3.5 meters) ・Kinect Sensor Array Specifications Viewing angle 43° vertical by 57° horizontal field of view Mechanized tilt range (vertical) ±28° Frame rate (depth and color stream) 30 frames per second (FPS) Resolution, depth stream QVGA (320 × 240) Resolution, color stream VGA (640 × 480) Audio format 16-kHz, 16-bit mono pulse code modulation (PCM) Audio input characteristics A four-microphone array with 24-bit analog-to-digital converter (ADC) and Kinect-resident signal processing such as echo cancellation and noise suppression SDKのほうは違う解像度にも対応しているように書いてあるけど センサー解像度を越える部分を補間してるのかどうかまではまだ読んでない
SDKはOpenNIとくらべて精度がバリいいぜーって聞かないけどぶっちゃけどうなんすか先輩〜
画像データを使用して深度センサーに補正かけても・・・ 単純な深度センサーのほうが精度良さそうだしなぁ
サーボとマイク使えるくらいなんだろうかわからん
OpenNIとくらべて精度がバリいいぜ
マジすか先輩!ちょっと踊ってみてくださいよオナシャス!
そんなに精度いいのか 比較がほしいな
マジっすか。Windows7持ってないから見てるだけ〜
576 :
デフォルトの名無しさん :2011/06/24(金) 22:23:25.54
誰かXtion持ってないの?
578 :
デフォルトの名無しさん :2011/06/25(土) 14:49:46.09
z座標は比較的正確な値が出るけど、 x,y座標に関しては、桁が違うくらい大きな差が出るのはなんで? 例えば現実で手を100cm移動させた時と、 kinectの測定結果では100(=100mm=10cm)くらいの値しかでないんだが 測定方法は、手を移動させる前の座標と移動させた後の座標の差から算出している OpenNIは1.0.0.25 Niteは1.0.3.18
>>578 なにも考えずにConvertRealWorldToProjectiveで変換してるけど、いい感じですよ
580 :
デフォルトの名無しさん :2011/06/25(土) 15:21:30.99
>>579 ConvertRealWorldToProjective変換しなくても、正しい値出力されますか?
>>580 あ、距離のXY方向をmmとかcmで知りたいんだ。
ConvertRealWorldToProjectiveしちゃダメか。
Zはちゃんとmmになってるんだけどなぁ。。
いろんなZ位置で画面見ながらメジャーを映して測ってみたら何か分かるかなぁ。
お役に立てなくてゴメン
582 :
デフォルトの名無しさん :2011/06/25(土) 15:54:36.35
>>581 単純に、手の移動距離(単位はcmかmm)を計算するプログラムを作りたいんです。
具体的には、GetJointで、手の移動前と移動後の位置座標の差から、移動距離をコンソールに出力する
プログラムです。
ttp://www.kosaka-lab.com/tips/2011/04/kinects.php を参考にしています。
*例えば、移動前(0.200.2000)と移動後(0,600,2000)だと、
差は、(0-0,600-200,2000-2000)
つまり、y軸上で400=40cm手が動いたと算出するプログラムです。
しかし、なぜか現実世界で40cm動かしてみても、
kinectで取得する座標では(0,40,0)くらいの差しか出力されないので困ってます
584 :
デフォルトの名無しさん :2011/06/26(日) 00:10:45.77
>>583 ありがとうございます。
力をお貸しください...
全然内容見てないけど、カメラ座標系から世界座標系に変換するだけじゃないの?
カメラ座標系の値が出てるようなら、ConvertProjectiveToRealWorldかませばいいのかもね。
これは俺の妄想だけど、 Z軸方向は距離が重要になるので実際に正確な値を返すが、 X軸Y軸方向は、正確な値を返す問題が起こるんじゃないだろうか。 キネクトはあくまでもゲームの入力デバイスだから、例えば腕を振ったとき、 その長さで判定すると、大きな人と小さな人の間で移動量が変わってしまう。 それを防ぐために、各間接のポイントの移動だけを取り出して、それを内部でモデル化された人体に適用して、 その人体の移動量を取り出しているのではないかな。 そうすることで、体の大きさに変わりなく、同じ動きで同じ値が取り出せるようになるだろう。 その辺ってことはないのかな?
ボーンが示した手の位置を距離画像でみて 自分で手の輪郭抽出したら精度あがるん じゃない?
>>584 NITE.PointControlのPointUpdateイベントのハンドラで、
HandEventArgs.Hand.X、Y、Zを表示させて調べてみた。
X,Y,Zみな単位はmmで、ZはKINECTからの距離、X、Yは原点から距離。
X,Yの原点(0,0,Z)は「真ん中」。
[スタート]→[すべてのプログラム]→[PrimeSense]→[NITE]→
[Samples]→[Sample-PointViewer]の画面で真ん中の位置が「真ん中」。
右手に定規持って左手動かして表示値を読んでるので精度いい加減。
リニアリティ、オフセットなど多少演算が必要かも。
592 :
デフォルトの名無しさん :2011/06/27(月) 16:20:11.97
>>592 ConvertRealWorldToProjective、Zはそのまま。
距離で見た目が変わるから、X=Z×係数、Y=Z×係数。
中央が原点なのを端にするので、X=320-X、Y=240-Y。とかじゃね
距離が大きくなるほど画面上小さくなるから掛け算じゃなくて割り算かな。失礼
595 :
デフォルトの名無しさん :2011/06/28(火) 22:47:56.86
OpenNiのsample、NiUserTrackerの骨格の座標はScenceDrawer内のDrawLimbで表してるのですか? わかる方詳しく教えてください。
ジョイントのx,y,zの事ならカメラが0,0,0 DrawLimbって何?
597 :
デフォルトの名無しさん :2011/06/29(水) 00:07:55.39
void DrawLimb(XnUserID player, XnSkeletonJoint eJoint1, XnSkeletonJoint eJoint2) { } これですね。 DrawLib内で座標を表しているのかと思ってます。
日本語が残念すぎて何を言ってるのかわからん。 XnSkeletonJointならカメラを(0,0,0)にして+Z方向が人間の方向を向いている右手座標系だ。 単位は確かmm(だったと思うがcmだっけ?)。
一人でテストするのがつらい 部屋が狭いし
600 :
デフォルトの名無しさん :2011/07/03(日) 11:35:43.35
骨格座標は、ここが肩、ここが肘、ここが手、 というような20個の点と、それを結んだ線で出来てるけど、 点の決定の仕方ってどうやってるの? いまいち精度が良くないから、修正したいんだが
2011年、Ruby,Perl,PHP,Pythonって並べたときにさ ここで、Ruby以外を選ぶ奴ってマジでなんなんだろうな ゴミグラマじゃねーか
>>601 rubyだけしか使えないとか、プログラマーにあるまじきだがw
C/C++以外、どれを選んでも結局は同じゴミだからだろう。
え? Python>php>>(超えられない壁)>>Ruby,Perlじゃね?
すべての言語を習得した上でRubyを触ってる まぁゴミにいっても想像できない作業指数だし ゴミがそれをやろうとすると20年かかってしまうという 初心者スレ乙 C/C++ とかはっきりいってもはやハードウェア専用なのに、これでソフトウェアかいてる奴もゴミだし $のついてるPHPや、ifに:のついてるPython使っている奴もゴミ以外のなにものでもない 冗長したものが、すきなんだね きっも
パッケージソフトもOSもコンシューマゲームもコンパイラもブラウザもC/C++で書かれているのに、 ハードウエア専用とか意味不明。 日頃使っているプログラムの大部分が、未だC/C++なことくらい理解してから発言した方がいいよ。
Rubyが冗長じゃないとw
>>605 Rubyを作ったmatz氏はゴミということか。面白い。
か か れ て い る か、どうかじゃなくてさぁwwwwww 俺が、ハードウェア専用言語だって言ってんだよw 過去の遺物の真似なんてしなくていい 2011年から始まるプロジェクトで、C,C++なんて使ってたら笑われるよ それよりも以前から続いてるプロジェクトで、C,C++使っているのは あー、保守乙 っていう感じなんだけども 保守と新規プロジェクトは違うからね・・・・・・・・・・・・・・・・・・・・
>>610 アホがハードウエア専用言語ってなんだよ
VHDLとVeriogだろ
なんだ弱小Web屋か
あらゆる言語使ってきてハードウェア専用言語がC,C++www それでやれるもんならやってみろよw
>>612 専門卒だから知らないだけです。
PC弄ってる分には縁がないし。
いい加減他所でやれよ 過疎スレだからって何やってもいいってわけじゃねえんだぞw
お前らkinectの話じゃないなら他行けよ
他の言語じゃマネできないようなkinectのプログラムをRubyで作れるって話なんじゃないの?
あー初心者 ほんと初心者 上を見たいなら今は俺に同意しておけ
上とか見たくないなら 消えろ シッシ
>>617 はぁ?
そもそもスクリプト言語は「 機能がなければ自分で言語拡張させながら 」やっていくものであって、
それ以下の奴がスクリプト言語なんて触っていても、ほんとに初心者
はいはい初心者初心者 ハックって文字につられた初心者か
ハックもクラックもできるけど質問ある?
はいはい しんでね、興味さえもってりゃおまえたち一般人でも20年で追いつけるよ?
向上心のないゴミはしね
なんでこうなるまでほっといたんだ・・・
何この人・・・放射線の影響か・・・
rubyは厨房しか使ってないからなぁ仕方がない、教祖はあれな宗教やってるしキチガイも多いんだろう それに英語が書けない連中ばかりだからオプソ界からハブられちまったしなオワコン言語だ
>>618 結局はC/C++で独自にRubyを拡張して、kinectを利用したプログラムを作るという話に落ち着いた訳か。
まあ単独じゃ使い物にならないしね。
まあ、手段に過ぎない言語で、上とか下とか言い出す奴は大抵ヘボいな。 適材適所で使えよ、な。 今すぐKinectで簡単に何かしようと思ったら、とりあえず、C++, C#, VB で、他の選択肢はほとんどないだろ。
>>618 すごい!Rubyで直接Kinect叩けるんですね!
ぜひソースをみせてもらいたいです^^
>>625 結局Rubyだけじゃ無理というおはなしですね
627 :
デフォルトの名無しさん :2011/07/03(日) 19:04:16.81
珍しく伸びてると思ったらこれかよw 誰がどう考えてもN88 BASICが最強です。(キリッ
>>625 そのライブラリ、内部でC使ってるみたいだけど
それがどうかしましたか?
そもそもRuby自体が…
IronRuby使ってC#のAPI叩けば普通にいける気もする。
ruby最強だけどCはわからないから誰かがやれ ってことか ああそう
それがrubyの伝統
>>621-n
ほらな
この流れみてわかるように1〜2人、マジで初心者な奴が混ざってんだよ
俺の初心者センサーの精度は高い
まぁ、これだけはいっとくけど、一生懸命30年もプログラミングやってりゃ2011年7月時点の俺には、
もしかしたら追いつける可能性があるから
がんばればいいと思う 2012年の天使とかなると 流石に70年くらいプログラミングがんばらないと一般人じゃ追いつけない
>>624 これとか
>>629 これとか
>>632 これとか
これが初心者。そもそもIronRubyのAPIってなんだよwww あれがまだどれだけ不安定かも知らないんだろうな・・・
ゴミは使った事がなくて上辺の知識だけしかないから・・・・・・・ そもそも.NETのAPIたたけば・・・とかいってる時点でバカかと、
Rubyだけじゃできない事があったらそこはWinAPI直で触るのが常識、 Rubyだと、WinAPIにアクセスするときですら
まだバグ残ってんのに.NETへのアクセスなんてやろうとしたらさらにバグに触れる事になる
スクリプト言語っつうのは、そういう「バグのある可能性の高い箇所」を予想して回避していく事が大事なんだよ
Cのexeと違って、バグ入っていてもそのまま途中まで動くのが動的言語なんだから
>内部でC使ってる?
ハッァァアア??www たとえば、print とか、これ実装するのにもC使ってんだよ、具体的にはCで出力したOS依存のアセンブリコード
っていう認識をしたほうがいいけど、初心者にはまだわけのわからない話なんだろうな・・・
初心者はとりあえずWeb系やってろよ とりあえずWeb系に強くなればハッキングもできると思うよ 文字コードに長けろ
2chはともかく、そこら辺の弱小bbsならどうせセキュリティホールが残ってる
まず、ハッキングっていうのはだな、目標PCをサーバー化する事なんだよ FFFTP使ったことあるだろ? ようは、FFFTPとかでアクセス可能にさせちゃうのがハッキング サーバーかいたことある? ちなみにRubyだと3行くらいでかける Cでかいたらライブラリがないから1000行くらいいくぞ スクリプト言語ってのは結局、「ライブラリ群」でもあるんだよ Cで、そうやって厄介なものを実装して、それをスクリプト言語で扱うことで桁違いの効率をたたき出す言語 勿論これは初心者には扱えないよ 英語サイトがよめなーい とかいってる奴ってのは、日本語サイトでもよめないよ だって俺は英語が読めないのに英語サイトから情報引っ張ったりしてんだから 言葉が読めるかどうか??? じゃなくて「何を調べたらいいのか?」 それを知っていれば いくつかの単語とソースコードさえ読めれば情報は引き出せる 「何を調べたらいいのか?」 というのは、OSと言語を自分でかけるレベルにならないと一生辿り着けない範囲 ちなみに俺は18歳の時点で、自作言語、19歳の時点で自作OSを作ってる 対等になりたいならさっさと追いついてこいよゴミ
以上コピペでした 動くコード持ってきたら話聞いたるわ とじっちゃんがいってた
結局、自分でC最強説を決定づけると。 いったい何がしたかったんだろう?
kinectSDKをインストールすれば Kinectのファームウェアがアップデートされたりするのかね
はいはい初心者すれ初心者すれ 背伸び背伸び 今の時代にC,C++なんて 積極的に触ってる奴なんて初心者でしかないんだから・・・・ そこだけは覚えておけよ いい年こいて、まだ触ってる奴もいて、C、C++で作るべきではないものまでその言語で書いてる奴 アレは時代に取り残された老害 お前たちにさ、 Cでかくか、C++でかくか、C#でかくか、Rubyでかくか、 このあたりの選択まだできないだろ まずは、 C と C++ の使いどころの違いから知ってくれよ 本来、一緒に並べるべき言語でもないんだからさぁ 職業ゴミグラマはレスしないでいいよ、これはここに張り付いてる中高生初心者へむけてのメッセージだから 職業ゴミグラマ以下の名無しとか、本来 俺の前を横切ることさえ許されないのに レスされているだけ光栄に思えや
>>642 レスされているだけ光栄に思えや
思えや
>>642 C/C++がハードウエア専用言語とやらではなく、
各言語のライブラリを組む上で必須であることは理解できたみたいだね。
恥をかいた分、勉強になってよかったね。
タイムスタンプみろよ 自演乙じゃねえか
>>641 xbox買えって結論だったと思うが >493
Kinectファームのアップデート器具として買うにはバカ高い 友達に1日だけ借りろ。
>>642 CでRubyインタプリタ書いているMatzはド素人!俺もお前と同意見だぜ!
ファームのアップデートしたら何が変わるの?
>>644 まだわかっていないのか
ハードウェア専用といっているじゃん 俺が定義づけしてんだから是なんだよ わかったか?ゴミ
>>648 いやあれは、2000年以前にかき始めたからだろ?
2000年ごろだとC++がまだあちこち対応してなかったと思うし
いろんな場所で動かす為に、Cでかき始めて
現状、Cで十分やれてるからCで続行してるんだと思うよ
わざわざC++を導入しちゃうと、
C++わかっていない子がバグを入れ始めるから、あれはC言語で正解
651 :
デフォルトの名無しさん :2011/07/04(月) 21:47:41.92
動けばなんでもいーじゃん
>>637 で紹介されているFFFTPもCで書かれているという悲しみ。
どう考えてもC推進キャンペーンとしか思えない持ち上げよう。
>>650 いやMatzはRubyをRubyで書くべき、Cを使う奴はド素人!!!!
K&RはC作ったからド素人!!!!UNIXは素人の作ったOS!!!!
MicrosoftはC/C++でWindows書いてるから超絶ド素人集団!!!!それを認めたゲイツはド阿呆!!!!
AppleはCを改造してObjective-C使ってるから超絶ド素人集団!!!!それを認めたジョブズは無能!!!!
LinusはCでLinux書いてるからド素人!!!!Linusは油まみれのビーバー!!!!デカチン野郎!!!!
GNUはC/C++ばかり使うカルト集団!!!!RMSは基地外!!!!
Rubyなら"UFO"飛してるから確実に世界を回してるもんな
未確認過ぎて誰も見えてないんだよな
------ 「「「「「「「「 CでRubyインタプリタ書いているMatzはド素人!俺もお前と同意見だぜ! 」」」」」」」」(嘲ッッ笑!! ------------------------------(笑ッ!!笑!
はい
おっと、 天使が失礼なことを書き込んでしまった だから先にもいったように C と C++ の使いどころの違いを まず説明できるようになってからなんだよね あの言語がどうとか 他人と話せるレベルになるのは
別キャラ設定なのか
想像上の他人の意見と戦う精神疾患ってなんていう名前なんですか?
>>656 構ってもらえた方々に感謝しろよ
(但しお前の扱いは珍獣だが)
近距離のdepthが取れたらなー > アップデート
珍獣の隔離所があると聞いて
662 :
デフォルトの名無しさん :2011/07/05(火) 17:55:42.24
kinectって赤外線使って、どうやって対象物までの距離計測してるの?
このコテハン「天使 ◆uL5esZLBSE」は天才チンパンジー「アイちゃん」が 言語訓練のために使用しているハンドルです。 アイと研究員とのやり取りに利用する書き込みなので、 関係者以外はレスしないで下さい。 京都大学霊長類研究所
youtubeに動画たくさんあるけど 携帯のカメラで観察すると赤外レーザーバターンがみえるかも
実用的な3Dスキャナが未だに出てこないのは作りづらいからなのかね?
>>659 あれから何日かたったけど、ちゃんと勉強してるか
お前のゴミみたいな頭でも48時間もあれば十分な知識ついてるはずなんだけど
じゃあ
CとC++の違いをどうぞ↓
test
もしかして音声使わないのならSDKよりOpenNIのほうがいいのか
一見類人猿のように見えるが、外骨格のそれは明らかに霊長類ではない。 むしろ古代Blattodeaのそれを髣髴させる、私はこの3日この不思議な生物に ついて調査を進めたが、結局この生き物が何であるか何処から来たのか 突き止めることは出来なかった。この生物について言える確かな事、それは 地球上の生物とは全く頃なる2つの塩基対から構成され、インターカレーション を形作っていることである、もはや生物と読んで良いのかも私には解らない。 その行動は獰猛であり言語を持たないことからコミュニケーションを採ることは 一切できなかった。現在その標本は某研究施設に冷凍保存されており、 この生物と呼んでよいのか解らない存在を知る者は私を含めて僅か数名と なってしまった、奴が目覚めることが無いよう私はこの記録を墓場まで持って いかねばならない…
>>667 お前の主張が正しいって事でスレ・・・板荒らすの止めてくれよ。
>>667 それとKinectと何の関係があるんだよ
存在しないレス番にレスが付くのを見ていると奇妙な感じだ
>>673 「自分は機知外NGにしてますからwww」みたいなレスもイラネ
知ってたけど、どうでもいい本だからあえて書かなかった
>>676 本人乙
よくこんなのでこの金額とれるなという糞本
679 :
デフォルトの名無しさん :2011/07/12(火) 20:03:47.81
>>677-678 ありがとう
本人じゃないけど店頭で見たので聞いてみた
皆さんの意見を聞いて買わない事にしました
アマゾンの書評って全然当てにならないですね
>>676 秀和システムの本て時点で買う気なし
なんで秀和システムって概要とインストールで本全体の3分の1消費したがるのか
>>680 密林で3って危ない部類だぞ
本当の良書は4〜5で安定
減点理由も「自分のレベルとは合わない」程度の書評
>>680 Amazonの評価も最悪じゃないか…俺は当てになってたと感じたが?
AvatarKinect見て、Kinect自体で顔認識できるのかと思って調べたけど、 公式SDKにはそれっぽいのないですね。 やっぱり距離画像とカラー画像を使って、OpenCVで顔認識するしか 方法ありませんでしょうか?
フェイシャルトラッキングが簡単にできたらと思うけど 出てくる人はシーグラフレベルの人ばっかりだよね 相当険しい道なのか
今日やってたロボコンの番組で東大のチームがkinectをセンサとして使ってたね。
レンジの制限で使いにくそうだけど 近距離はどうやってカバーしたの?
モーションキャプチャの凄いの作ってくれよ。
自分で作れよ
WindowsコンソールアプリでNITE.SwipDetectorのイベントを、 クライアントに配信するアプリを作ったのだが、数十回送ると例外が発生する。 OpenNIとNITEを入れ替えてみたら、ちゃんと動いた。 OpenNI-Win32-1.1.0.41 NITE-Win32-1.3.1.5 ↓ OpenNI-Win32-1.3.2.3 NITE-Win32-1.4.1.2
691 :
ななし。 :2011/07/27(水) 22:52:34.21
カ オ ス ラ ウ ン ジ ゆ る せ な ぁ い ー
Kinectで取得したボーンの座標をBVHに出力する方法の 解説とかサンプルコードどっかに無いかな?
>>693 おまえの理解力が足りないだけだろ。
BVHのフォーマットは分かってるか?
変換して出力すれば終わりだろjk
>>693 Blender用のスクリプトであったよ。
>>694 kinectからは座標だけしか取得出来なくて、BVHには、ローカル回転(オイラー角で)を
出力しなきゃならないんだよ。
その座標からローカルのオイラー角を計算する方法が不明なんだよ。
>>695 BVHを読み込むのはBlenderで出来るし、自分で実装できるけど、
Kinectの座標からBVHを出力する方法がわからんのだよ。
BVHはスケルトン構造とオイラー角が必要だけど、 残念ながらKinectは各ノードの絶対的な座標しか持たないので、 スケルトン構造はともかく、オイラー角は2軸的な動きしか再現できないね。 これは単純なBVA形式フォーマットに近い。 3Dツールなどでは、BVAのノードはたいていNULLオブジェクトのモーションとして読み込めるので、 ボーン付きの仮モデルと、エクステンション(またはスクリプト)を組んで、 ボーンの起点と終点をNULLオブジェクトに追従させるようにしてアニメーション変換するのが一般的。 但し、腕のひねりなんかは表現できないので、それは手付するか、エクステンションで工夫する。 そこからボーンアニメーションをBVHに変換して、別モデルに流し込んだりする。 といった感じに似たコードを自分で書かないとBVH化は無理だと思うよ。
>>697 ようするに、数学が分かってないだけかw
>>701 Win7 64bitだけど、スタンバイからの復帰で動かなくなったりして不安定だ。
前のに戻しちゃった。
Zoom for Kinectの発売予定が9月13日になったみたいだね。
703 :
デフォルトの名無しさん :2011/08/17(水) 20:55:07.82
kinectSDKで任意の座標点の深度情報って取れない? OpenNIだと簡単に取れたんだけど
普通にとれるが、いったい何を言っているんだ?
ボーンのローカル行列の求め方おしえてくだしあ。
706 :
デフォルトの名無しさん :2011/08/18(木) 16:13:19.54
VOID NuiTransformSkeletonToDepthImageF( Vector4 vPoint, _Out_ LONG *pfDepthX, _Out_ LONG *pfDepthY, _Out_ USHORT *pusDepthValue ); これは?
MicrosoftのSDKはまだまだ不安定なのか マイクロフォンアレイ使うにはこれ使うしかないっぽいけど
SDKで指取れるようにならないのかな。 E3でゲームでは指取れるって発表してたみたいだけど。
現状の解像度と認識精度だと、ノイズに埋もれて誤認識多発するんじゃないか? 防犯カメラの映像から似顔絵を作成する様なもので、ちと無理がある様に思える。
MITの実演でもだいぶ前にやってたみたいだけど、手に平を向けた状態なら結構できるみたいだよ。
みたいだけど、みたいだよ 怪し過ぎるだろ
みんなMicrosoftのSDKにOpenNIで作ってたものを移植してる最中なのかな
ひょっとしてOpenNIの奴ですら 古いパソコンでは動かないのか 必要スペックが思いのほか高い?
sse3がついてる世代の中古パソコン買えばいいのね core2なんとかの世代かな
SSE3はもっと昔だよ。 簡単に調べられることを調べずに適当に答える人間はプログラマには向かない。
(ここで)簡単に調べる導線なのさ。
MMX
721 :
デフォルトの名無しさん :2011/09/02(金) 17:44:40.01
今からはじめるならSDKとOpenNIどっちがいいかな どっちで作ったコードも後で簡単に変換できたりしないものかな
さあ、はやくSDK/OpenNI共通化レイヤーライブラリを作る作業に戻るんだ
それ、需要あるか?
depth imageとRGB imageの重ね方が根本的に違わないか
まさか日本でKINECTの技術本が3冊も出版されるなんてなぁ。 MSが出版の資金提供とか後押ししてくれてるんじゃないかと疑うぐらいだわ。 パラ読みしたけど、どれもインストールから始まって、 いい本でも簡単な2点位置情報取ったり、深度映したりまででページ終わっちゃうね。 日本で表に出てる人限定で海外の技術ペーパーのような事やってる人いる? Gemsシリーズとは言わないまでも、各分野のエッセンスが載った共著の分厚い本が出てくれるとサイコーなんだが。
おまえがやれ
近距離限定の深度センサーがついた程度のカメラでそんな本出したところで、どれだけ需要があるんだ
何よりも安いからね
原価安いと売値も高く出来ないから、利益出ないんだよな・・・
この手のデバイスにすぐ飛びつくオライリーがまだ出してないのは 力ためてるのか?
旗矢さん元気かな まだ現役かな
>>732 >この手のデバイスにすぐ飛びつくオライリーが
そだっけ?この手のデバイスの本って何あんの?
SDKまだまだ発展しそうだから様子見してるんじゃね
おもちゃデバイスには手を出さんだろ
738 :
f :2011/09/09(金) 18:43:58.45
f
740 :
デフォルトの名無しさん :2011/09/13(火) 14:21:23.05
>>739 なったことある。ドライバ、OpenNI、NITEを最新版にしたのと、
初期化→スレッドでループ、というのを、
スレッド起動→スレッド内で初期化→ループみたいに順序を変えた。
どっちが原因か分からん。
KinectSDKのスレはここですか
そうだが、ひやかしなら帰れ!
KinectSDKって結局Parallelsとかの仮想環境Win7では動かないのかね
やってみて結果を教えてくれ。
>>744 全て今からの導入なので時間がかかる
ちなみにKinectはまだ未経験、全てが今から!
聞きたいんだが、Macbook Air(mid2011)でKinect動かしてる人いる?
CPU要件が全然足りてないのではないか?と思うので
使ってる人いたら実際うまく機能しているのか教えて欲しい
いい加減Parallels Windows7で動くのか報告するんだ
2011なら余裕だろ core2でもいけるのに
>>747 CPUの話じゃなくて、仮想環境のWindowsでKinectが動くかどうかの話じゃないの?
CPUってもろに聞いてるんだったか、すまんすまん Computer with a dual-core, 2.66-GHz or faster processor 現行Airはフルカスタマイズでも1.8GHzのデュアルコア(4スレ) 条件は満たしてないな、まぁだから聞いたんだろうけど。 後、MBAだとメモリMAXで4GBでしょ?Kinectは最低2GBできれば4GBって書いてるが 仮想環境だけで1,2GB、Lionで2GB(or3GB)必要なのにKinect動くんかなw 仮に動いたとしても開発するんなら不安要素が多そうだね 仮想WinでKinect動いたっていう報告あれば俺も試してみようかなぐらいのレベル
ATOMでもOpenは動いたが
そりゃあCVレベルのことはやらないしな
CVレベルのことはやらないってどういうこと? KinectSDKを使うのに、OpenCVと組み合わしたりとかしないのかね
753 :
デフォルトの名無しさん :2011/09/28(水) 04:37:46.43
Kinectで1フレームごとに骨格情報が微妙に揺らぐのはなんで?
誤差
どのくらいの変動のことを言っているのかはわからんが、 毎回超精密な精度で計測出来ると思うなよ
首振りながら測定すれば高精度になるんじゃね
OpenNIのインストールの順番間違えたら このハードウェアはインストールできません となって何度ドライバ削除してもインストールできない。 どうしたらいいんだ
>>757 自分は、間違える度に一からやり直してた
MicrosoftSDKではなくOpenNIを使う理由はなんぞや?
商用利用、Windows以外とか。
depth image とrgb image重ねるのは OpenNI の方がうまく動かないか?
>>758 OpenNIを削除して最初からやるのなら
もうやったけど
やっぱり同じメッセージでドライバー入らない
>>759 自分が調べた訳じゃないが、認識可能人数の多さと商用利用可能な事と取得可能範囲の広さだと思う
あと公式SDKに比べてネットに出回ってるプログラムが多くないか?
でもSDKならマイクロホンアレイ使えるようになるよね。 NIはどうだろう・・・
Kinectに近づくほどデプスマップ内が二重に写ってる風に見えるのはなぜ? 赤外線検知するカメラと照射するレーザが離れるから?
>> 766 サンクス
768 :
デフォルトの名無しさん :2011/10/09(日) 17:04:38.73
公式SDKのSkeletalViewerをデバッグすると画面の枠だけ表示されて、 中身(=カメラ画像や、デプス画像やフレームレート)が表示されないのはなんで?
デバックしているんだからトレースして確かめろよ。 アホか?
771 :
デフォルトの名無しさん :2011/10/13(木) 09:43:40.49
kinectの三次元座標の習得について,20点の各骨格を追跡するのに三次元座標が必要だと思っているのですが、それであっていますか? また、あっている場合どうやって三次元座標を取得しているのでしょうか?何らかの計算がおこなわれているのでしょうか? 分かりずらい質問ですいません。ぜひ教えてください。
>>771 というかKinectは各関節の3次元の座標値しか取れない
座標の取得ならどっかのブログで紹介してた気がするけど 探せば出てくるんじゃないかな
WindowsSDKとOpenNIだけなら一緒にいれてもいいんだっけ? コンフリクトするのはドライバー?
>>775 でないとmssdk-openni-bridgeが使えないんじゃない?
777 :
デフォルトの名無しさん :2011/10/27(木) 23:05:32.17
NITEのライセンスキーなくなってね?
自民、国有地を無償使用…賃料年3500万相当
読売新聞 11月1日(火)3時1分配信
自民党本部がある東京都千代田区永田町1の国有地の一部が、自民党に無償貸与されていたことがわかった。
自民党は「(所有者の)衆議院との取り決めに従って使用している」としているが、識者は「国による特定の党に対する便宜供与と疑われても仕方がない」と指摘している。
不動産登記によると、自民党本部の土地所有者は、財務省(約3306平方メートル)と衆議院(約1320平方メートル)に分かれているが、境界線に塀やフェンスはなく、
一体的に党本部の敷地として使われている。衆議院所有の土地の部分は駐車スペースになっており、同党の街頭宣伝車が止められていたこともあった。
自民党などによると、敷地の約7割にあたる財務省所有の土地については、自民党と財務省との間で貸し付け契約が結ばれ、現在の賃料は年間8970万円になっている。
一方、衆議院所有の土地について、自民党は「『議員専用駐車場』という看板を設置している」として、衆院議員のみが使用しているとの趣旨の説明をしているが、
駐車場に入るためには自民党本部の正門を通る必要があり、事実上、同党以外の議員は利用できない状態となっている。財務省の賃貸契約を基に計算すると、衆議院所有の土地の賃料は年間約3500万円となる。.
最終更新:11月1日(火)3時1分
http://headlines.yahoo.co.jp/hl?a=20111101-00000113-yom-pol
>>779 拡大のジェスチャする前に拡大始まってるし
OpenNI + avin2/SensorKinectで ImageとDepthに関しては正常に動くが、Audioデータが取れない。 A timeout has occurred when waiting for new data! というエラーになる。(Linux, MacOSXとも) 何が原因?
業務用に本腰を入れ始めたという事は、 ゲーム事業が潰れてもKinectは安定供給されるという事だな 医療みたいなシビアな用途に使われるなら、より高性能な派生機種が生まれる事を期待
最近kinectプログラミングを始めたんだけど kinectセンサープログラミングの本のハンドトラッキングの項目のサンプルがうまく動かない・・・ 動くときは動くんだけど大体が手を検出した瞬間にコンソールに Handdestroy2って出てオーバーフローになる・・・ できるときもあるから本体側の認識の問題かなとも思うんだけどOPENNIやNITEのバージョンの関係なのか・・・?
>>782 自己解決
avin2/SensorKinectのREADMEをみると
ToDoに Add audioと書いてあったので、対応していないようですね。
キネクト買ったぞー モーションキャプチャソフトで一番いいのはどのソフトなの?
何を言っているんだ? それを自分で作るんだよ。
>>783 医療用のシビアな機械になったら、医療用のシビアな金額になるぞ
OpenNIのMovingHandというのは、どんな動作? それとWaveが認識しづらいのだけれどコツがあるの?
791 :
デフォルトの名無しさん :2011/11/05(土) 13:07:41.35
Kinectには加速度センサーが付いていると本に書いてあるけど OpenNIからデータ取得できるの?
デプスマップを長時間表示してると、画面が止まっちゃうんだけど、 これってPCのスペックの問題かなぁ? というかみなさんどのくらいのスペックのPCでやってます?
OpenNI、NITEと互換性のあるSDKをバンドル 付属するSDK(開発者向けキット)は、モーションキャプチャデバイスの開発環境として広く知られているOpenNI+NITEと互換性があります。 既にOpenNI+NITEを使用している場合でも、すんなりとXtion PRO LIVEの開発を始めることができます。 いいな、これ
そういえばsdk-openni-bridgeが更新されているね。
でもKinectに対してメリットが無さ過ぎるぞ Kinect・・・MS製SDK・OpenNI両用化、マイク4ch、電動首振可、サード製広角コンバージョンレンズ有 価格12000円程度、普及台数1000万台以上 Xtion・・・OpenNI、OpenNI互換SDK、マイク2h、首振り手動 価格25000円前後、普及台数不明
>>800 Xtionのほうはusb電源だったはず
バスパワーのみで動くってのはまあ一応メリットではあるかな・・・。 QVGAなら60fpsが可能ってのもメリットかも知れん。QVGAでどれだけできるか疑問だが。 VGAで60fpsできればモーションキャプチャーとしてはだいぶ違うんだけどな。
803 :
忍法帖【Lv=40,xxxPT】 :2011/11/09(水) 19:34:55.10
結局OpenNIとkinectSDKどっち使うのが賢いの?
ASUSがXtion諦めてなかっただけで嬉しいわ。 1年経ってASUSほどの企業でもまだ本家kinectのコストまで辿り着けないって 家庭用ゲーム市場の分母の大きさが伺えるね。 usb3.0か1394でもいいから、本家を超えるセンサー解像度の機種出して欲しいけど 制約とかあるのかね?
制約よりも需要の問題だろう 面白いデバイスではあるが、迂闊な動作まで拾ってしまうと産業用として致命的になるし 1394は搭載しているPCが少ないし、CAMERALINKにする訳にもいかんしなぁ
採算が最大のネックだろう 劣化版KinectのXtionですらKinectの倍の価格なのに、高性能版なんて出したらいくらになることか それこそ本家に期待するしかない
まー60fpsでキャプチャする意味なんてあるの? って感じだしなぁ
センサー弄るより、レンズを広角ズーム出来る様に改良して欲しいな ヤンキーには不要な機能だし国内のKinect市場はXbox市場以上に死んでるから望み薄だが
809 :
デフォルトの名無しさん :2011/11/10(木) 13:36:59.93
>>807 アクションゲームならレスポンスが改善されるとおもうけどね。
>>809 フレームレートとレスポンスは関係無いだろ
0.0333秒が0.0166秒になったところで、改善されたと実感出来るのはニュータイプだけ
811 :
デフォルトの名無しさん :2011/11/10(木) 15:42:12.34
入力にたいする遅延はよくわかるよ。 とくに1/60で動いてるゲームとか。
USB のバンド幅的に60fpsだと結構ぎりぎり。 箱○なら接続形態を限定できるからいいけど、PCへの応用を考えるとね。
USB3.0なら余裕だと思うが、 搭載PCの少なさやコントローラの相性問題やらコストやら考えると時期尚早か
そもそもUSB3.0はスペック通りの速度が出るのか?
815 :
デフォルトの名無しさん :2011/11/11(金) 10:51:00.07
ちょっとみなさんlabviewでkinectのモーションキャプチャできるviつくりたいんやけどおせーて
何を?
>>814 理論速度には遠いが
USB2.0の3倍程度の実速度で
eSATAと同程度
>>Xtion PRO LIVE ロボットにkinect載せようと思ってたが12Vを別に用意するのが面倒だった。 コレならバスパワー(5V)で動くのでロボットに搭載しやすい。 RGBが付いたのでRGBD-SLAMが出来る。 何気に公式にUbuntu対応っぽいし。 RGBで来るからwebカメラみたいにYUYVから変換しなくていいし。 でも値段が、、、。 これでも性能的に本来は安いんだろうがkinectがあるから。
ゲーム機の周辺機器と単独商品じゃ市場が数桁違うから、価格の差はどうにもならない 遥か昔、当時DVDの普及を阻んでいたプレイヤー高価格対策としてプレステが供され、 結果DVDは爆発的に普及した モーキャプというジャンルでいえば、Kinect以前はシステム全体で億単位のスタジオ用しかなかった それが万札数枚程度まで大暴落した
>Kinect以前はシステム全体で億単位のスタジオ用しかなかった そこまで一気に暴落してねーぞwww
製品レベルではしらんが普通のWebカメラのアレイとPCでモーション取るって研究はあった
OpeCVやARみたいな画像認識技術はソフトウェア開発の最先端分野で日進月歩だから、 今なら普通のカメラでも結構いけそうだよな
テレビ撮影でよくあるバックを青にして撮って後で重ねる、 というのはOpenCVでいけるね。
824 :
デフォルトの名無しさん :2011/11/15(火) 20:04:00.04
MMDをkinectで操作するみたいな感じで自分の作った3Dのモデルをkinectで操作してみたいんだけどそういうの解説してるサイトってありますかね?
>>824 MMDで動かしたいならMMDのデータの作成方法調べればOK。
プログラミングから自分でやりたいのなら、どのくらいのレベルでの解説欲しいかによる
姿勢パラメータ取れればあとは出来るなら公式SDKなりOpenNIなりのリファレンスがあるし
日本語の解説もあるけれど、3DやC++プログラミングの基礎からの解説は知らない。
827 :
忍法帖【Lv=40,xxxPT】 :2011/11/16(水) 18:17:34.95
>>826 1から作りたいと思っているのですが難しそうですね
サンプルコード等があればうれしいのですが・・・
829 :
忍法帖【Lv=40,xxxPT】 :2011/11/19(土) 14:20:29.86
>>828 おお!まさにこんな感じでできればなぁ
ボーンの入った3Dモデルにキネクトで取得した骨格の座標をあてはめるだけでいいはずなんだけど
そこからのやりかたがいまいちよくわからない・・・
きちんとIKを設定して、座標じゃ無くて角度で動かせよ。
831 :
デフォルトの名無しさん :2011/11/21(月) 12:28:38.94
OpenNIのバージョンアップがあったのにこの静けさ
ボーンの座標から、回転ってどうして求めてる? 直立した状態なら大体わかるけど、腕を上や前に上げたりしたときの、捻りとか。 それぞれ関節毎に特別な処理をするのか、それとも共通の式があるのか。
自分で標準ポーズの基準を決めてそこから角度を出せばいいだけ。
指先の動きにフォーカスしてるって事だろう。 OSの操作をマウスじゃなくて指先でできるとか。 マイノリティレポートな感じ?w
そのうちOK指示するのにキネクトの前で親指立てたりする日が来るのだろうかw
ジェスチャープログラミングか 疲れそうだw
>>834 初期の回転を決めれば、それを基に計算出来るって意味がわからん。
初期の回転を基に、どうやって計算するの?
>>839 OpenNIのバージョンアップって精度上がったりしてるの?
>>839 初期の回転じゃ無くて、ベースの位置。
あとはIKで制約を受けている以外の軸を対象に位置から計算できるだろう。
IKとか自前で計算するの? やっぱIK勉強しないとダメか
IK以前に ベクトル<->角度 の計算ぐらいはできるんだろうな?
845 :
デフォルトの名無しさん :2011/11/24(木) 16:01:30.99
Near Modeって既存Kinectもファームウェアアップデートで対応できるの? それとも買いなおし?
レンズが2段階のズーム式になってるかもしれんね Forza4のKinectの動きを見てると1mくらいなら余裕だけど、50pくらいだと厳しい気がする ソフトで対応してくれりゃうれしいけど、ちと辛そう
847 :
デフォルトの名無しさん :2011/11/24(木) 18:43:00.75
買いなおし必須ならUSB3.0に対応して電源不要にして欲しいね。 現状のKinectが3WだからUSB3.0の4.5Wに何とか収まるし。
USB3.0自体が普及してないから、さすがにそれは無理があるんじゃじゃねの?
usb3ってまだ普及してないのか。
850 :
デフォルトの名無しさん :2011/11/25(金) 01:22:41.01
Windows7が動くPCなら付いてるんじゃね>usb3 最近はAMD Eシリーズとか積んだミニノートでも付いてるし。
OSとマシンは別物だぞ
この世で稼働している99.99%以上のPCについていない端子を採用するメリットは無いだろw
853 :
デフォルトの名無しさん :2011/11/25(金) 10:16:46.63
Kinect SDKの動作条件を満たしているという条件のPCに限ればUSB3.0もありだろう。
そのうちWIN8でしか動かないSDKとか出してくるのかな。
Kinect 使ったソフトで商売できるようにしてやるって言ってるのに SDK の動作環境で しばるのは間抜けとしか言えないのだが……
856 :
デフォルトの名無しさん :2011/11/25(金) 14:02:36.32
既存のSDKもフル機能はWindows7限定だし
857 :
デフォルトの名無しさん :2011/11/27(日) 04:37:43.55
kinectで3Dモデルを操作させるのにxnaを使ってるんだが取得した関節の位置情報をどうやってボーンに反映させるかが良くわからん・・・
もうこの話題何回目だよ 数学できないヤツは諦めるか高校通い直すかしろよ
馬鹿には無理
内積外積
ゆとりゲヲタはMS様が提供するライブラリなら何でもやってくれると思っているんだろう
blenderはそのへんやってくれるから楽。 game engineで使ってるわ
ん、USB3.0の可能性も出てきてるみたいだな Kinect2が来年出るPC用Kinectと同一なのかは分からないが、 デバイス自体はUSB3.0で、USB2.0接続時には旧Kinectスペックで動作するような仕様にすれば 旧式PCユーザー層も切り捨てずに済むな
pythonの数行で処理できるようなライブラリでないものか
いったい何を言ってるんだ? 欲しければ自分で作れよ。
OpenNIはLGPLだったと思うが、バイナリでしか提供されないNITEのライセンスはどうなっているの?
Windows7(64bit)環境でsdkインストールの後にkinectをさしてドライバをインストールしましたが、 サンプルを動かしてもkinectからデータがとれません。(アプリケーションの枠組みだけ表示される) 32bitマシンではこの手順で問題なく開発が始められたのですが、なにか足りないのでしょうか。
649 デフォルトの名無しさん [sage] 2011/12/29(木) 14:50:37.28 ID: Be:
学生プログラマ日本一決定戦(予選は社会人も参加可)
ttp://codevs.jp/howto.html 現在予選開催中
応募締切 2012.1.6 12:00
おもしろいことやっているじゃん。誰か今から参加しろよ。
モーターショーのTOYOTAのブースで活用してるのをみた。 提携してるからかな。 画期的な使い方ではなかった。
野球盤のゲームで変化球のコントローラにするのはもうある?
Kinect for Windows 249ドル ちゃんと2万円以下で売ってね。
物理的なアップデートは無いっぽいね。ファームが違うだけじゃない?
>>873 24800円フラグだろ
嫌なら直輸入しろ
確かエロ用途では使わせない方針なんだろ? イラネ
ちんこで物を考える人はそれでいいと思います
USBのIDが変わっててドライバが使えないってオチ?
2がつから商用利用可って本当!?
今後出る商用利用可能版を買えば可能 いまのx360用はダメ
KinectSDKで作った実行ファイルって、Windows7以外のOSで動作するの? 公式SDKやOpenNI本体をXPやVistaで一部機能だけ動作できたっていうのは聞いたけど
>>883 MSのはWinUSB使ってるからXPは動かないんじゃない?
885 :
デフォルトの名無しさん :2012/01/28(土) 02:06:27.09
商用利用の意味がよくわからん SDKに制限がついてるのか、ハードに制限がついてるのか OpenNIでつくったソフトを売って、購入したユーザが初代キネクト使って遊ぶってのはダメなのか? それともKinect対応とか名前を出したらだめなのか?
kinect4windows普及しないことには商用利用もへったくれもないしそもそも日本で売る気あんのか
なにいってんだこいつ
意訳: あのぶどうはすっぱい
Kinect Toolboxを使ってみた人はいる? ジェスチャー認識の精度はどんな感じ?
レスポンス良くなってる気がする
2万以下じゃないのか
897 :
デフォルトの名無しさん :2012/02/02(木) 23:20:22.96
座った状態で手上げると膝まで伸びる なんでやねん
>>893 従来のKinectをちょい前に買った俺は負け組?
互換性はどうなんだこらあああああああああ
>>899 360のならSDKの1.0でも動いたよ
ランタイムのみのシステムでは弾かれたりとかNearモードが動かないとかあるけど
手元で遊んでいる分には買い直す必要ないんじゃないの
今後どうなるかは知らんけど
PS3本体より高いのに売れるのかなあ
>>901 Kinect™ for Windowsの話?それなら、もう在庫切れただろ
みかかペケだと2万円切っているな。売り切れだけど。
NTT-X 最初からお取り寄せになってたような…
おまいら新しいの買うわけ? 調子のんなよ!!
Windows SDK のVectorという型は何を表現しているの? X, Y, Z以外にWという要素があるのでクォータニオンだと最初は思ったけど、何だかはっきりしない
手を上に上げた時の挙動は仕様なのか 直す気無いのかこれ
>>906 触ってないから知らないけど、同次座標系なんじゃないの?
さて新sdkを試してみるぞ 赤外線出しっぱなしは直ってるのか?
微妙にデータ型とか変えた? 余計なことすんなよウンコ
Kinect for Windowsは何が変わったの? Nearモードが追加されたこと以外に。
うぜー、なんかカメラ画像を出すだけで途中で落ちる 旧kinectをsdk1.0で動かしてみてる人いないですか? やっぱβのほうがいいのだろうか
βでも落ちた 俺が悪かった
914 :
デフォルトの名無しさん :2012/02/11(土) 20:54:57.87
>>911 Xbox360で使えなくなった、価格が上がった。
ユーザーランタイムで起動できる(Xbox360版は×)
>911 深度データを取得した時はkinectのカメラからの距離を取得するから 少し離れた部屋の平面の壁とかは少し球面っぽくデータがとれてるじゃんか。 それがfor Windowsでは若干補正されていて部屋の壁でもちゃんと 平面っぽくデータが取得出来てる気がしないでもない。 詳しく調べてないから何とも言えないけど・・・ ただ余計なお世話。 >912 旧kinectは for Windows用のSDKで使うとデバッグ出力でこんなメッセージが出て初期化に失敗する。 The Kinect sensor plugged into your computer is for use on the Xbox 360. You may continue using your Xbox 360 Kinect sensor on your computer for development purposes. Microsoft does not guarantee full compatibility for Kinect for Windows applications and the Xbox 360 Kinect Sensor. なんかしらのハックがあるかもしれんけど少なくともSkeletonViewer.exeは動かんぞ。
916 :
915 :2012/02/13(月) 13:27:35.00
他にはSDKのβ→1.0は大体一緒なんだけどインターフェイスが 変わってたり公開メソッドも少し違ったりと多少は移植作業に手間がかかる。 ただ一番ありがたいのはx64正式対応ってのだね。 パッと見は本体にマークされているロゴがXBOX360→KINECTに変更されているよ。 あとUSBのケーブルが短くなってて取り回しが微妙に不便かな。
OpenNIのKinectモジュール Kinect for Windowsへの対応状況はどうなっているの?
どうもならんわ
919 :
デフォルトの名無しさん :2012/02/20(月) 18:11:27.26
Windows PC用Kinect for Windowsセンサー(L6M00005) 買った人いる?
過去ログを読むと XTIONは深度センサーがついてるだけなのに高いとか ディスられてんな。
売り切れてたけど予約で入れといたら割と早く届いたよ 2個
>>923 > 売り切れてたけど予約で入れといたら割と早く届いたよ
> 2個
どこに予約いれといたの?
ショップに問い合わせメールしてみたら?
おまいらにはもったいないわ
927 :
923 :2012/02/21(火) 17:11:41.19
kinectってWin7 64bitじゃあ大変? 32bitの方が無難?
929 :
デフォルトの名無しさん :2012/02/24(金) 16:01:14.80
ふつう
kinect for windows買ってみた。 初kinectだけど、サンプルのゲームすら面白いねぇ。 やはり2台以上なら凄い検出力なんでしょうか。
SDK1.0ってkinect forXBOX使えないん?
>>931 > やはり2台以上なら
そんな話があるのか。ぜんぜん知らんかった。
おちゃっこLABで3Dモーション作成ツールをオープンソースで作って
その解説を書く企画をしています。
OpenRDBがKinectモーションキャプチャに対応したので宣伝に来ました。
ここの住人さんは上級者が多いかもしれないので
あんまり役に立たないかもしれませんが
これから始める人のとっかかりにはなると思います。
日本のkinect環境を盛り上げたいです。
OpenRDBのページは
http://ochakkolab.moo.jp/OpenProject/index.htm です。
>>936 OpenNIじゃなくて、SDK1.0(商用版)に対応させてくれ。
安定してるし、forXBOX にも使える。
>>936 すごい! えらい! がんばって!!
ttp://www.windows7-mania.jp/campaigns/k4wspecialpack/index.html k4wの国内在庫増えるかね?
でも1500名って国内市場が広いのか狭いのか判断つかないよ。
和書でやっと4冊目、公式SDK+C#本が出たけど、英語圏ではとっくに冊数抜かされてて、
今度はMS公式図書でMS MVPとったXNAの凄い人が公式SDKのAPIについて書いたものを出版するみたい。うらやましい。
あと、もしオライリージャパンの人が見てたら、makeのkinect本の翻訳を早くお願いします!! 1年後がどうなってるかわからないので待てません!
他に興味持ったkinecterがいたらオライリーに翻訳早くしてってメール送ってくれないかな?
むしろ一年後どうなってるか分からないものを翻訳するのか
海外から新型xboxの噂が流れ始めてるからね。 kinectも刷新がありうる。 k4wが数量限定なのもそのせいかもしれないし。 まぁ、出たら出たで SDKやアーキテクチャに大きな変更はないだろうから 基礎固めができる書籍の翻訳は助かる。 よって1年後と言わず、今すぐ出版してほしいわ。
>>938 MAKEレーベルなのに分解してハードウェアハックやArduinoに繋いだりしないのか
オライリーはWEB関係ばかりでなくXNA4.0も翻訳してくれマジで
500mmより近くのdepthを取りたくて、openNIでir画像からdepth計算しているソース探したけど、見つけられなかった。 ご存じの方いませんか。
943 :
デフォルトの名無しさん :2012/05/17(木) 21:28:17.05
kaso
kuso
/.⌒ヽ: / .\ ../ ヽ. \ : (./ ヽ. ) ,'/ l" : geso .ノ l ,'| .:| : . | ○ ○ .::::| : | | ̄| ...:::::::| : ヽ..__  ̄~ _,ノ . 丿ノ ノ 丁丁 ̄l\ . く_(__(_(_._」____)ノ
/.⌒ヽ: / .\ ../ ヽ. \ : (./ ヽ. ) ,'/ l" : x geso .ノ l ,'| .:| : . | ○ ○ .::::| : | | ̄| ...:::::::| : ヽ..__  ̄~ _,ノ . 丿ノ ノ 丁丁 ̄l\ . く_(__(_(_._」____)ノ <- geso
使えそうなのはLeap Motionの方じゃないの
LEAP凄いけど凄すぎてフェイクじゃないかと疑っちゃうレベルなので怖くてクレカ情報入れられない 一応PVじゃなくちゃんと有線のニュース映像的なのも見つけたけどそれも凄すぎてフェイクっぽい
Leap凄いよね 限定数のある予約で 支払いがPaypalじゃないのがなぁ このタイプのデモは盛る傾向があるし 認識は赤外線? 1/100ミリ単位の精度って相当レイテンシ短くして大量に飛ばしてるって事?
いくつかのニュース映像見たけどやっぱマジでPVレベルのことが出来るっぽいなあ 何回見てもキネクトのように影の部分が出来てないのが不思議でしょうがない もう騙されてもいいって気分になってきたのでとりあえず二個予約した
金盗られるだけならまだしも、電話番号まで預けて、数ヵ月後にアノニマスみたいなサイトで個人情報公開とかないよね? ワイヤレスっぽいので稼動時間や充電時間、有効範囲が気になる あの両手のメッシュはポイントクラウドから精製? 1/100ミリ単位の精度が取れる不可視光線照射してて眼など健康的に大丈夫なのだろうか? 買えたとしても税関で止められたり所持が禁止にならないのかと妄想は尽きない
カード決済に電話番号いらないハズだから不安なら電話番号だけでもデタラメ書いとけばいいのでわ
暗い部屋でしか使えないんじゃないか?白背景は合成っぽいし。 技術解説見当たらず。発売は来年。 仮にフェイクじゃないとしても、マッチ箱は未だコンセプトデザインで、 陰で大がかりな装置が動いてるとみた。
SDK1.5に興味があってきました。 まだkinect買ってないけど。 モーションをbvhなどの形式に落として3Dソフトでつかいたいんだけど どんな感じでやればよいのかな?
この分野のハードウェアに詳しい人、降臨祈願 特許技術使ってるらしいけど、ぶっちゃけあれは可能なんでしょうか?
精度出せるのは認識範囲を狭くしてるからってことと、可視光画像省いて kinectに比べれば物量に余裕があるってことで説明がつきそうだけど、たしかに裏側 (下にデバイス置いてるっぽいから上側になるのか?)まで認識してるように見えるね。
途中手だけじゃなく腕も認識してるけど機械からは影となるはずの関節のくぼみまで忠実に読み取ってるな 精度や反応速度も含めて謎技術過ぎる
カメラ視点の映像と深度バッファがあれば信じられる
実際は有線なんじゃなかったっけ ノートで使ってる映像とか見るとちゃんと線でつながってる
対象が手だとはっきりしているから裏側情報なんか無くても再現可能だろう。 手以外では、棒くらいしか登場してないしね。
なんか怪しくないか? MorphyOneまではいかなくても、OpenPandoraみたいなことになりそう…
>>956 キーボードの所にあるちっこい四角いのがKinect?
これくらい凹凸読む精度あれば目線コントロールもできそうだな 操作用のコンタクトレンズ付けて
普通に
>>963 のいうとおりだと思うな。
どの動画みても手の甲を下にむけたのがない。
手の甲に隠れた指の動きを認識で来たり、やくざの指を認識できたなら
スゲーって思う。
おまえらはSoftKineticには興味ないの? なんでもKinectより性能がいいらしいじゃないか
他人にとやかく言わず、自分で試して優位性を語ればいいだけの話。 怠けるな、他人に頼るな、自分でやれ。
>>969 実装する人?しない人?
TOF方式は触ったことないけどデメリットも指摘されてる(将来的にはどうなるか判らない)
これを制御するミドルウェア(直叩きはできない?)は無料だと1年しか触れないみたいだし
そもそもkinectの日本語情報がこれだけあって
やっと実装できている者からすれば情報少ない英語SDKなんて制御できる気がしねえ
そりゃ情報落としてくれる人がいればありがたくメモはするけど
3D関連で情報出しても技術のない社内政治家のビッグマウスの養分になるだけだからな もしくは、簡単にできるだろと罵声をさんざん浴びせかけられて嫌になった だから技術持ってる人はぼかしながら語ろうよ
ム板のスレなんで書く人や書くつもりのある人向けの情報は出し合いましょうや テンプレに Xtion Leap SoftKineticのプログラミングの話も可 って入れておけばいいんじゃない?
トラ技やるじゃん プログラミング専門誌、もしかしたら専門書よりいい記事 中高年が真空管やPICいじる雑誌だと思ってた
先月の画像センシング展でデモやってたのに、誰も触れて無いんだよな 俺もスルーしたけど
サブカルの一歩外へ出ると一気に面白みが失せるんじゃね?しらんけど niconicoでみたミクとデートの方がインパクトあった のび太「生きてる。歩いてる!」
>>977 本屋でチラ見してきたけど、トラ技らしいKinectの使い方してて
俺には難解な内容だった。
979 :
デフォルトの名無しさん :2012/07/17(火) 10:10:59.05
>オリジナルKinectを手作り なにこれ?Kinectモドキ?変態?馬鹿なの?死ぬの?
落ち防止
゙'. '.;`i i、 ノ .、″ ゙'. ,ト `i、 `i、 .、″ | .,.:/"" ゙‐,. ` / ` .,-''ヽ"` ヽ,,,、 ! 、,、‐'゙l‐、 .丿 : ':、 、/ヽヽ‐ヽ、;,,,,,,,,,-.ッ:''` .,"-、 ,r"ツぃ丶 `````` ../ `i、 ,.イ:、ヽ/ー`-、-ヽヽヽ、−´ .l゙`-、 _,,l゙-:ヽ,;、、 、、丶 ゙i、,,、 ,<_ l_ヽ冫`'`-、;,,,、、、、.............,,,,、.-`": │ `i、 、、::|、、、ヽ,、、. ```: : : ``` 、.、'` .|丶、 .l","ヽ、,"、,"'、ぃ、、,、、、、.、、、.、、、_、.,,.ヽ´ l゙ ゙).._ ,、':゙l:、、`:ヽ、`:、 : `"```¬――'''"`゙^` : ..、丶 .l゙ `ヽ ,i´.、ヽ".、".、"'ヽヽ;,:、........、 、、...,,,、−‘` 、‐ |゙゙:‐, ,.-l,i´.、".`ヽ,,,.".` `゙゙'"`'-ー"``"``r-ー`'": _.‐′ 丿 ,! j".、'ヽ,".、".、"`''`ー、._、、、 、._,、..-‐:'''′ .、,:" 丿 ゙l,"`"`''ヽヽ"`"` ```゙'''"ヽ∠、、、、ぃ-`''''": ` 、._./` ._/` `'i`ヽヽヽ`''ーi、、、: : 、.,-‐'` 、/` ``ヽン'`"` : `~``―ヽ::,,,,,,,,,,.....................,,,,.ー'``^ ,、‐'"` `"'゙―-、,,,,..、、 : ..,、ー'"'` : `‘"`―---------‐ヽ``"''''''""
>>983 過疎スレの埋めとはいえ、そういうのは止めようよ
Q. なぜ儲からないのでしょうか? A. お金にならないことに時間を使っているからです。
989 :
デフォルトの名無しさん :2012/07/21(土) 09:28:41.06
991 :
デフォルトの名無しさん :2012/07/21(土) 16:34:56.75
なんだろ、各方面で自慢して回ってるのね よっぽど作って嬉しかったんだね かわいい
Youtubeで英語版で出さないと。
もし作ったひとがここ見てるなら 次回作はトランポリン風にして ピンポン玉を拾いながら移動してみてほしい
お断りします
うめますか
1001 :
1001 :
Over 1000 Thread このスレッドは1000を超えました。 もう書けないので、新しいスレッドを立ててくださいです。。。