需要無いかも知れないが立ててみた
いまは反省していない
このスレッドは天才チンパンジー「アイちゃん」が
言語訓練のために立てたものです。
アイと研究員とのやり取りに利用するスレッドなので、
関係者以外は書きこまないで下さい。
京都大学霊長類研究所
馬鹿には無理
109 デフォルトの名無しさん [sage] 2010/12/24(金) 07:00:56 ID: Be:
動画うpしてスゲー、付属のサンプル動かしてスゲーだけじゃなくて、ちゃんとプログラミングに
ついて語るスレ無いの?
サンプルソースとAPI Referenceと海外の掲示板読んである程度使えるようになったけど、
API多すぎレファレンス説明簡略化しすぎで一人で網羅するの辛い。
110 デフォルトの名無しさん [sage] 2010/12/24(金) 08:52:08 ID: Be:
depth.GetAlternativeViewPointCap().SetViewPoint(image);
でRGB画像に合うように調整された形で深度イメージが出力されるようになるけど、
この調整済み深度イメージ上の座標を、元の調整される前の座標に戻す方法ってない?
例えば関数にポンっとx,y座標投げれば元のx,y座標が返ってくる的なの
キャリブレーションデータから計算すればいいんだろうけど、面倒くせぇ
APIあるだろうとリファレンス見て探してるけど見つからない
111 デフォルトの名無しさん [sage] 2010/12/24(金) 09:01:54 ID: Be:
ここだろ。プログラム板だし。
俺はやっとサンプルが動いた所なのでもう少し待て
112 デフォルトの名無しさん [] 2010/12/24(金) 11:04:45 ID: Be:
NITE
113 デフォルトの名無しさん [] 2010/12/24(金) 11:05:27 ID: Be:
NITEなぞすぎる
114 デフォルトの名無しさん [sage] 2010/12/24(金) 12:49:24 ID: Be:
>>110 「Open〜」系のライブラリで提供されるのは基本的にハードウェアを使えるようになるAPIだけだから
その辺のアルゴリズムは自前で実装が基本
115 デフォルトの名無しさん [sage] 2010/12/24(金) 13:33:44 ID: Be:
これ操作中の自分を1.8m以上離れて写すようにkinectを設置するのが難しいな。
付属のケーブルは3.3mあるけど結構きつい。
USB延長ケーブルを使って+1mまでなら何とか動作する。
+3m足してやるとデータ取りこぼしまくりで正常動作しなくなる。
基本的に延長しない方がいい。
NITEサンプル楽しい。
116 デフォルトの名無しさん [sage] 2010/12/24(金) 13:41:14 ID: Be:
Kinect使うときのよくある失敗はOpenNIだけ入れてドライバー入れ忘れることだな。
俺はavin2/SensorKinectドライバーを使っている。
119 デフォルトの名無しさん [sage] 2010/12/24(金) 17:14:41 ID: Be:
とりあえず一番簡単そうなSample-SingleControlは理解した。
自分でプログラミングするときはインクルードパスを
/usr/include/ni
/usr/include/nite
に通してlibOpenNI.soとlibXnVNite.soをリンクする。
main.cppでは最低次の2つをインクルードする。
#include <XnOpenNI.h>
#include <XnVSessionManager.h>
あとは検出したいゼスチャーに相当するクラス。このサンプルではWaveDetector.hを使っているので
#include <XnVWaveDetector.h>
120 デフォルトの名無しさん [sage] 2010/12/24(金) 17:20:35 ID: Be:
基本的なフローは
1. コンテキスト(xn::Context)を作る
2. セッションマネージャー(XnVSessionManager)を作る
3. 検出したいゼスチャーのコントロール(ここではXnVWaveDetector)を作る
4. 2-3にコールバック関数を登録する
メインループはこんな感じ。
while (!g_bQuit) {
context.WaitAndUpdateAll ();
pSessionManager->Update (&context);
}
ドキュメントは次の3つ。
NITE Controls 1.3 - Programmer's Guide.pdf
NITE Algorithms 1.3.pdf
NITE 1.3.0 - API Reference.chm
とりあえずProgrammer's Guideだけ読んでおけばプログラミングの基礎としては十分。
121 デフォルトの名無しさん [sage] 2010/12/24(金) 17:36:27 ID: Be:
いくつかの重要な概念。
セッション: トラッキングが動作中の状態が「in Session」
フォーカス・ゼスチャー: 特定の動作を行うとトラッキングが有効になり「in Session」状態に変わる
"Wave": 手を左右に移動する動作
"Click": 手を前後に移動する動作
コンテキスト: そのままの意味
セッションマネージャー: そのままの意味
コントロール: ゼスチャーの検出器。PushDetectorとかWaveDetectorとか多数。
検出したい動作のコントロールをセッションマネージャーを頂点とするツリーでつなぐ。
イメージ的にはキャプチャーされたデータはセッションマネージャーから流れ出して各コントロールに流れ込み、
一致していればそこに設定されたコールバック関数を呼び出す。
124 デフォルトの名無しさん [sage] 2010/12/24(金) 19:58:24 ID: Be:
>>119-121 はNITEミドルウェアを使った場合ね。
OpenNIのみでKinectから生データ(RGB, Z, 加速度)を取得するのとは別の話。
そっちは今調査中。NITE使いつつ生データにアクセスってできるのだろうか。
13 :
デフォルトの名無しさん:2012/07/20(金) 09:56:20.59
前スレコピるくらいなら、まとめwiki作った方が早くね?
126 デフォルトの名無しさん [sage] 2010/12/24(金) 23:06:42 ID: Be:
C言語からOpenNIを使う場合
#include <XnOpenNI.h>
C++からOpenNIを使う場合
#include <XnCppWrapper.h> (この名前はどうかと思う)
コンテキストを作る場合XMLファイルを読み込んで作るのが簡単。
画像とデプスを取りたい場合は該当するNodeを作る。
<ProductionNodes>
<Node type="Depth">
<Configuration>
<MapOutputMode xRes="640" yRes="480" FPS="30"/>
<Mirror on="true"/>
</Configuration>
</Node>
<Node type="Image">
<Configuration>
<MapOutputMode xRes="640" yRes="480" FPS="30"/>
<Mirror on="true"/>
</Configuration>
</Node>
</ProductionNodes>
rc = context.InitFromXmlFile (SAMPLE_XML_FILE);
127 デフォルトの名無しさん [sage] 2010/12/24(金) 23:09:33 ID: Be:
これでコンテキストにNodeが登録されているので、あとはFindExistingNodeするだけ。
rc = context.FindExistingNode (XN_NODE_TYPE_IMAGE, imageGenerator);
rc = context.FindExistingNode (XN_NODE_TYPE_DEPTH, depthGenerator);
データの作成を開始して、
context.StartGeneratingAll ();
新しいデータが来るまでブロック。
while (!g_bQuit) {
context.WaitAnyUpdateAll ();
// ここで画像、デプスデータの取り出し
}
非常に簡単。
128 デフォルトの名無しさん [sage] 2010/12/24(金) 23:17:26 ID: Be:
取得したデータをどうやって表示するか?
サンプルでは全てOpenGL、glutを使っている。
カメラを平行投影、視野領域が(0,0)-(WIDTH,HEIGHT)に設定して画面全体を覆う四角型ポリゴンを1枚書く。
データはすべてテクスチャーにしてglTexImage2Dで毎フレームGPUに転送。ogehoge;
ちなみにデプス値は自分でヒストグラムを作って手前が1で奥が0になるように描画している。
>>13 見てなかった。ごめん。
そうですね。wikiあると良いですね。
屋外で使う方法ってないの?
20 :
デフォルトの名無しさん:2012/07/21(土) 15:41:54.59
なんだろ、各方面で自慢して回ってるのね
よっぽど作って嬉しかったんだね
かわいい
もし作ったひとがここ見てるなら
次回作はトランポリン風にして
ピンポン玉を拾いながら移動してみてほしい
お断りします
24 :
デフォルトの名無しさん:2012/07/21(土) 18:54:37.41
>>19 ものはいいのに人がだめなので、残念極まりない
なんで嫉妬しかないんですかねw
>>19が素直じゃないからそれを見たやつも素直にならない
技術的には可能
そんなことよりもleap motionの方がフェイクっぽくてイライラする
sdk公開してコードが一行も出てこないなんてありえない
フェイクって何のために出すんだろうね。。
嘘なのに、すごーいって言われても何にも嬉しくないんだが
あそこまで本物っぽい偽物をわざわざ作る意図が分からんわ。
しかもあれKinectじゃないらしいぞ。
Xtionだな。前スレでも出てた話題だ。
Kinect PrimeSense+Microsoft
Xtion PrimeSense+ASUS
普通にステマじゃね
フェイクだと仮定するとコントロールを手動でやってることになるけど
人間にはタイヤがどの方向を向いてるかを前もって知るのはできても、コントロールするのは難しい。
ということは、投げるほうが正確にその方向に投げなければならない。
何度もやればできなくはない。
2’31’’のシーンにPC画面が映っていて、人が投げ上げた瞬間に左上に画面が出てくる。
これが加工でないとしたらキネクトが物体を認識した印なんじゃないかと思う。
また、音声は入っているので、ゴミ箱が動き出すときにタイヤの向きを変えているかを聞き取ることができる。
人間が正確にハンドルを切ることは出来ないので、コンピュータによる処理が行われている証拠になる。
僕の耳では動き出す瞬間、1’35’’にテストしている、向きを変えるときの甲高い音が聞こえる。
ゆえに本物。
ちなみにこれの構想は10年くらい前に俺が2ちゃんねるに書き込み済み。
本物でも作った本人の人間性があかん
故に。。
簡単ですね(キリッ
匿名掲示板で裏口叩いてる奴の人間性と大差なくね
39 :
デフォルトの名無しさん:2012/07/25(水) 08:07:46.91
制御ソフトは簡単そうだから映像から省かれるのは仕方が無い
>簡単ですね(キリッ
同じようなことをやってる奴からは嫌われるセリフだな
スキンメッシュくらい簡単だろ
物理演算くらい簡単だろ
bullet使えばすぐできる
当たり判定ぐらい簡単だろ
○○ならやってる
あいつが簡単だって言ってた
その簡単なことに何年も費やした俺はバカだったということだ
人生無駄にした死にたい
41 :
デフォルトの名無しさん:2012/07/25(水) 10:55:46.79
ボブの「ね、簡単でしょ?」は許せる
まぁ自分とは分野が違うからかもしれないが
43 :
34:2012/07/25(水) 14:10:54.91
>>42 命中精度がよくないと言う話を聞いて納得。
ゴミ箱の位置とか向きをどうやって特定しているのかがよく分からなかった。
一応電子コンパスとモーター自身の回転数で現在の向きとタイヤ向きは分かるし
多分キネクトでゴミ箱の位置も分かるんだろうけど、正確なものではないから。
あと、タイヤの向きが微妙にずれてたし。
ちょうど数日前にブラシレスモーターの制御ICがモーターの回転角度をある程度把握する仕組みのページ見てたから
センサーらしきものが見当たらなくてもなんとかなるってことは知ってた。
精度を上げるには電子コンパスだけじゃなくキネクトの画像認識でもっと正確な位置や向きを計算したり
移動中にゴミ箱の位置を微調整したりが必要かな。
ハンドルの向きを固定するのは自然とロックするんだろうか。
でも無駄だな。
ゴミ箱にカメラつけて物体を認識したらそれに向かって突撃したほうが簡単に精度は上がる。
問題はバッテリーの持ちか。
待機中通信だけなら大して電気食わないが、画像認識だと結構な電気食いそう。
そうでもないかな?
いや、奥行き見るために赤外線照射してるからこれが結構電気食うはず。
いや、奥行きを見るために赤外線照射しないといけないんだからドットパターンが写り込まない小さな物体は捕らえられないはず。
まあこれは衝突防止とかでやってる2カメラ使った物体認識を使うことでだいぶ現実的にはなるかな。
ゴミ箱のままじゃすぐ飽きられて商売にならないと思うけど
キャッチボール出来るようにしたら案外金になるかも。
その場合かなり耐久性が必要になるけど。
>>43 壁に取り付けたXtionと、それにつながったデスクトップPCを使って、
ラジコンのごみ箱を操縦していると思うんだが…
45 :
34:2012/07/25(水) 17:40:22.44
>>44 そうだろうね。それで?
外観を見ただけではゴミ箱のタイヤがどっちを向いているか分からないので
その制御について僕は話したつもりだけど。
1:55辺りにコード出てるけど、ゴミ箱の(Xtionから見た)初期位置、姿勢は固定で
深度画像から落下予測点を求めた後、方向と距離を送信してる感じかな
47 :
デフォルトの名無しさん:2012/07/25(水) 18:57:27.67
ゴミ箱はもう秋田から
次は空中ゴミ攻撃防御用ミサイル迎撃システムを見たい
>>45 ああ、そういう意味ね。
赤外線照射がバッテリを…って言ってるから、ごみ箱だけで完結する
システムに持っていきたいっていう話をしてるのか、どっちなのか
よくわからなかった。
49 :
34:2012/07/25(水) 19:34:38.91
>>48 > ごみ箱だけで完結する
> システムに持っていきたいっていう話をしてるのか
うん、その後そういう話をしたね。
実際に車の衝突防止に使われてるのはカメラ2つと制御チップですよ。あとは固定金具。
パソコン本体も手のひらサイズのやつがあるからゴミ箱に搭載することは可能だけど
無線LANで接続してパソコンに計算させたっていいわけで。
まあ、受信だけしてればいい現状から見れば送信とか計算とか電気食いまくりだけど、
拾うべきものがあるかどうかはコンセントにつながったヤツで判断して
物体が浮いてたらゴミ箱を起動してゴミ箱は自律的にそれを探してキャッチすれば電池の心配はいらなくなる。
しかし、それだとシステムが二重化して無駄になるのでやっぱり単純なラジコンがいいとなるのかな。
>>44 10回に1回しかキャッチに成功しないのだと。
うちの由佳は綺麗じゃないから
100%遊べない自身がある
52 :
デフォルトの名無しさん:2012/08/04(土) 03:23:18.25
屋外でも曇りの日ぐらいは使えないのだろうか
中央帝都のように明かりをたくさん点ければ大丈夫
56 :
デフォルトの名無しさん:2012/08/16(木) 21:07:09.30
それ見てて思ったけど赤外線使わなくても距離取れるな
二つのRGBカメラと距離が判明している一つの点A
Aに焦点を合わせた状態で
距離観測対象の二つの映像を画像解析して二つの映像の同一点BC
ABとACの距離から物体との距離が測れる
これなら太陽が出ててもいけるし、RGBカメラ二個でもできる
画像解析をはさむから赤外線よりも遅くなるけど安く作ることはできる
この人物が理系でないことを願うばかりだ
ステレオマッチングはモバイル向けだと専用にFPGA(StratixII)開発して2010年時に1312*688で150fps出してる東工大のペーパーがあるな
>>55 スレチだが清算や部門売却にあたり、知財がどうなってくるのか
懐にとっておいても台所事情が悪いと研究開発も鈍化するからな
小型3Dカメラや視差カメラとHMD組合されれば電脳コイルのメガネが実現するので
MS、Google、Oculus以外にも頑張って欲しいんだけどね
この分野はソフトだけでもダメでfoxconnのような組み立てるだけの会社だけでもダメで
間に必ず部品の研究、実用化、小型化を行ってる会社がいて、なおかつ元気でないとダメだと思う
点Aのキャリブレーションとか、動体の特異点抽出・追従とか、
カメラ3個あ距離の測定誤差とか、いろいろ疑問浮かばないか?
ていうか三角測量で安く作れるならMSの技術者がとっくに採用してるだろw
「カメラ3個あ」これは書くの面倒になって消し忘れた部分だからカットで
>>60 それでできるんならさっさと作ってくれんかね。
レーザー測量は機材が高いんだよね。
いちおー車載の距離測定カメラは、単眼がトップシェアだね
よくこれで距離が測定出来る物だと不思議だが
ピント合わせてるんじゃね?
全画素の距離じゃないからでは?
ホビーユースならWindows用のキネクトより箱○用のキネクトのほうが利用範囲が広いかな?
???
箱○のほうは箱○に繋げられるけど、PC用のキネクトは無理でしょ?
72 :
デフォルトの名無しさん:2012/09/05(水) 21:45:58.92
PCもう1台用意してLANで繋いじゃうとか
75 :
73:2012/09/11(火) 15:07:42.93
>>74 LANでつないだ複数のPCを使う方法はビジョン系の論文で見かけますので
よく使われてるようですね。
MSが公言している「1台のPCでKinect 4台まで対応」、
というのを実機で試してる人は(こちらで探した限り)見つけらなかったので、
なんとかやってみたい所です…。
Kinectを4台同時に使う用途が謎だが、そういうのは嫌いじゃないw
つーかほとんど相性問題の検証になってるのな
>>76 やはり、キネクトの最大の弱点である、仰向け・うつ伏せに対応するんじゃないかな
79 :
デフォルトの名無しさん:2012/09/13(木) 06:17:51.63
80 :
デフォルトの名無しさん:2012/09/18(火) 07:24:08.45
投げられたゴミを受けるゴミ箱
今日の「めざましてれび」で検証してた
30個投げて入ったのは5個らしい
普通に手で狙って投げた方が確実
>>82 アホすぎ
モジュールの入手手段が分からんとか、氏んだ方がいいんじゃね?
>>82 > MultiTouch.Behaviors.WPF4.dllは下記のURLより[DOWNLOAD] ボタンを選択して、MultiTouchBehaviorSource.zipをダウンロードしてください。
> →参照:Windows Phone, Silverlight and WPF Multi-Touch Manipulations(CodePlex)
リンク先からダウンロードできるプロジェクトがビルドができない…。
具体的には、System.Windows.Interactivity とか Microsoft.Expression.Interactions とかのコンポーネントが見つからない。
ttp://msdn.microsoft.com/ja-jp/library/system.windows.interactivity(v=expression.40).aspx
ググって見つかるヘルプによると…もしかしてExpression Studio 4 がいるのか?
>>84 体験版インスコすればOK
お試し期間過ぎても、アセンブリ参照は無問題w
>>73 メモ読ませていただきました. 参考になります
こちらはマザボのUSBポート+USBハブだけで
3台同時使用、SDKでdepth,color画像取得までできました
マザボはASUS P8Z77-Vです
87 :
73:2012/09/29(土) 00:23:51.00
>>86 すばらしいです。
こうして成功例の構成を公開して頂けると(私を含め)嬉しい人がたくさんいると思います。
そちらの例は、P8Z77-Vのスペック表を見ると、
ttp://www.asus.co.jp/Motherboards/Intel_Socket_1155/P8Z77V/#specifications - ASMedia USB 3.0 controller
- Intel Z77 chipset (USB3.0)
- Intel Z77 chipset (USB2.0)
で3つのコントローラが載っていたということなのでしょうか…。
あるいは、KinectSDKに書かれているUSBコントローラ1つにつきKinect1台、
という制限を乗り越えられたということであれば前代未聞の偉業だと思います。
(あと、こちらの4台目を接続する話は諸事情によりなくなりました…)
88 :
86:2012/09/29(土) 02:23:42.11
>>87 おそらくホストコントローラ3つのおかげだと思います
接続する場所によってはうまく動作しなかったのですが、
USB3.0のところだけ組み合わせとしてうまくいく例が多い、ということに
経験的に気づき何とかたどり着きました.
こちらは4台必要そうなので、後はPCI-Expressあたりでどうにかしようかと考えてます
89 :
デフォルトの名無しさん:2012/10/08(月) 23:11:32.99
くそー
kinectやる暇ねー
92 :
デフォルトの名無しさん:2012/11/06(火) 23:13:02.34
96 :
デフォルトの名無しさん:2012/11/24(土) 09:10:50.39
貞子それおにんぎょさんちゃう
>>95 公開したってのが重要だけど、内容はたいしたことないよな
インターフェース今月号がめっちゃ良かった(小並感)
CQ出版以外も来いよ
オライリーはいいかげんMaking Things See翻訳してよ
女子中高生がKinectとScratchでインタラクティブな作品作りを楽しむ
www.kumikomi.net/archives/2011/08/rp34fem.php
101 :
デフォルトの名無しさん:2012/11/30(金) 13:43:56.06
102 :
デフォルトの名無しさん:2012/12/08(土) 01:03:08.87
センサー新しいの出るの?
104 :
デフォルトの名無しさん:2012/12/18(火) 04:11:16.17
太陽光あるとステレオカメラしか安価な方法ないな
106 :
デフォルトの名無しさん:2013/01/07(月) 13:42:00.24
赤外光で距離を測るから、太陽光があると計測不能だしな
108 :
デフォルトの名無しさん:2013/01/10(木) 13:31:18.14
reconstruct me
http://reconstructme.net/ Kinect for XBOXを流用してReconstruct Meで3Dスキャンして遊んでるんだけど、
スキャン結果がサンプルみたいに滑らかにならず、ノイズが乗ったみたいにデコボコになる。ハイレゾでも駄目。
XBOXだとNearモードが効かないから駄目なのかね?
誰かkinect for windows持ってる人、試してみてくれないか。
windows版だと正常にスキャンされるならwindows版を買いたい。
109 :
108:2013/01/10(木) 14:08:13.73
解決した。
なんか色んな角度からスキャンする必要があったみたい。
徐々に滑らかになっていった。
110 :
デフォルトの名無しさん:2013/01/11(金) 21:37:16.02
実は凄いツールじゃないのかkinect
瞬時にスキャンされてモデルデータが出来上がるって、色んな応用が効く
それこそ従来の概念を吹き飛ばすような新しいコンテンツが出来上がる
絶対流行るよこれは
1月11日記念
>>110 やっと気づいたかい。
日本ではなかなか認められていないな。
3Dスキャナーとしてやっと手に入れた
reconstruct meで初チャレンジ
精度に期待出来るの?
ネコを入れるケージの鉄格子(竹串より少し太い)みたいな細いモノは認識できなかった。
テクスチャ張ればそれなりに見えると思うんだがRestructMeはテクスチャ生成してくれないから自分で貼るしかない。
次回のKinectSDKに入るKinectFusionでテクスチャ対応してくれることに期待したい。
いよいよ、Leap Motionが発売されるね
初めは壮大な釣りかと思ったが、ASUSのPCに同梱されるだの、Best Buy独占販売だの、最近開発者版が届いた人が居るだの、これは本物だね
そろそろ本家サイトで予約してみようかね
117 :
デフォルトの名無しさん:2013/01/29(火) 14:06:30.09
118 :
アイ:2013/02/02(土) 08:43:39.30
いろいろ頑張ったけど、vistaじゃv1.00.11でもドライバーインストールできない
win7じゃないって弾かれる
XNAが終了するけど、あんま関係無いか
新しいPにopenNIインストールしようとしたらなんかver2とかになっててうんこ
昔のバージョンはどこでDLできるんや・・
>>120 v1系の最終版はまだ公式でもDL可能。
それより古いのはK氏がアーカイブしてるのを
DL可能。詳細はggr。
特に過去バージョンはドライバやNITEとの
相性もあるし、PCLとか他ライブラリと
組み合わせて使うユーザからすると
サポートは要らないから配布は継続してほしい。
俺はintelのOpenCLドライバインストールしないと動かなかった
>>123 動くようにしてWiki作って。よろしく
SDKまだか
心待ちにしてるんだが
>>118 敗北感満載で、win8入れてもーた
Reconstructmeすごいな
風呂上りに上半身スキャンしてみたが、、
悪用されるとまずいなぁと感じた
アイドルをリアルタイムスキャンしてモデルデータを配信するサービスとか始めそうだな
OpenNI2に、Depthを0.1mmまで出力できる
モードが搭載されたって本当?
出力を確認できるサンプルコードとかあるのかな?
今自由にシステムを入れ替えられるPCがないので、
知っている人がいたら教えて欲しいんだが。
知ってどうすんの?
システム入れ替えんの?
新型キネクトまだー?
132 :
129:2013/02/25(月) 00:09:07.80
>>130 もし本当なら入れ替えるし、ガセなら現状維持。
そもそもソフトウェアで精度変えられるんか?
その位置だと読み取りにくいんでもうちょい前にきて
とか出るソフトウェア
135 :
デフォルトの名無しさん:2013/03/07(木) 03:53:35.81
136 :
デフォルトの名無しさん:2013/03/09(土) 03:30:34.29
137 :
有能な政治家を貶め、無能な政治家を持ち上げ国力を削ぐ在日カルト:2013/03/09(土) 13:05:30.96
★マインドコントロールの手法★
・沢山の人が偏った意見を一貫して支持する
偏った意見でも、集団の中でその意見が信じられていれば、自分の考え方は間違っているのか、等と思わせる手法
・不利な質問をさせなくしたり、不利な質問には答えない
誰にも質問や反論をさせないことにより、誰もが皆、疑いなど無いんだと信じ込ませる手法
↑マスコミや、在日カルトのネット工作員がやっていること
TVなどが、偏った思想や考え方に染まった人間をよく使ったり、左翼を装った人間にキチガイなフリをさせるのは、視聴者に、自分と違う考え方をする人間が世の中には大勢いるんだなと思わせる効果がある。
.....
138 :
デフォルトの名無しさん:2013/03/11(月) 02:16:05.03
139 :
デフォルトの名無しさん:2013/03/14(木) 03:32:35.60
140 :
デフォルトの名無しさん:2013/03/14(木) 03:44:51.37
141 :
デフォルトの名無しさん:2013/03/17(日) 09:36:28.71
わーい明日が待ち遠しい
ところで、kinect fusionはモデルをobjなり何なりでエクスポートできるよな。
・・・できるよな!
143 :
デフォルトの名無しさん:2013/03/18(月) 15:26:13.57
そろそろ上がってるかなと思ったらまだ向こうは6時かよ
時差ありすぎだろ
FusionExplorer実行しても
>>141ほど滑らかにならないな。
NearModeが無いせいか精度が低くて壁の部分がガタガタになった。
>>147 >>141の椅子の表面の状態と比べると雲泥の差だから結構違いがあるかも。
かといって今からfor Windows買っても新型が発表されたら嫌だしなぁ。
Kinectやりたいけど、今年終わりには新型が出るしな
>>149 本当に?ソースくれ
だとしたら発売日に2台も買った俺涙目
非Nearでも色んな角度でスキャンすれば面の荒さはだんだんと落ち着いていくが、
もっとディティールアップして滑らかになるなら欲しいかな。
ところで、最も肝心なテクスチャ機能が無いのは自分で実装しろってことか。
152 :
デフォルトの名無しさん:2013/03/21(木) 13:21:21.80
えらい古いな
しかし、サンプルコードが随分わかりやすくなったな。MSにも良い技術者が入ったな。
155 :
デフォルトの名無しさん:2013/03/24(日) 16:00:34.50
フュージョンで生成したモデルにカラーから持ってきた画像をテクスチャとして貼ってるんだが、
センサーとカメラの位置や画角の違いのせいか、どうしても誤差が出る。
カラー画像とセンサー画像がピッタリ一致していれば楽なんだが。
新しいkinect出すんなら、カラー画像とセンサー画像の一致を図ってほしい。
この値段でそれは無理だろw
カメラの位置関係は固定なんだから
頑張ればいい感じにできそうではあるけどね
Making Things See買ったよオライリー日本ありがとう
トラ技でまさかセンシングの連載が始まるとは思わなかった
センシングの波が確実に着てるわ
Consumer Depth Cameras for Computer Visionが気になってるけど
さすがに和訳してくれる出版社は無いだろうなぁ
和訳してくれる出版社は無いだろうなぁ(チラッ チラッ
ちんたら翻訳してるうちにブームの波が去るから無理
その前にブームにすらなってないだろw
キネクト、ゲーム系じゃなくて仕事で使ってる(使った)人いますか?
ちょっとしたイベント用にどうですか?
SDKのデモ見せたら受けが良かったんだけど、実際どうなんだろうなって・・・
openCVとからめて使うならc++やるのがいい?
C#ならある程度できるんだけど
>>163 OpenCVSharp と絡めてC#で書いた方が開発効率が素敵
ただし画像処理は必ずOpenCVに任せるか、
どうしても自力でピクセル単位の処理を書くならC++/CLIで書くいた方がいい
C#で済ませようとすると遅すぎて悲惨
>>164 ありがと!
あんまりopenCV#の良い評判を聞かないんでどうなのかと思って
とりあえずC#で書いていきます
新型Kinect来たね
映像で重心が取れてるのが凄い
ただ接続は独自端子みたいだから
新型のKinect for Windowsセンサーが出るまではPC繋げられない
そしてPC版が出た場合、端子は何を採用するのだろう?
1080PでRGB+デプスにマイクで幅どのくらい必要?
現行機のK4Wがいつまで販売されるのかも気になる
167 :
デフォルトの名無しさん:2013/05/22(水) 10:17:12.15
センサー画像とカラー画像を一致させろ
同じ位置にセンサーとカメラ搭載しろ
>>168 光軸一致させようとしたら光学系のとこがめっちゃ高くなるやん…(´Д`;)
プリズム使わにゃならんから、値段が最低1桁は上がるな
箱で専用のコネクタにしてるのは、USBポートや箱○に差さらないようにすることで
余計なサポートコストの発生を回避するためだと思うの
175 :
デフォルトの名無しさん:2013/05/23(木) 19:02:23.58
>>174 これはつまり、センサーとカメラの一致を最大限はかったということかね?
新Kinectは2Gb(bps?)とか書いてあったよね。
変に画像データを圧縮しても負荷が増えそうだし、USB3.0は必要そうだけど。
新型は今ほど安価で導入しやすいって感じにはならなさそうだね
デモ映像見てる限りでは出来ることは多そうだけど
現行のKinectだと壁の部分が歪んだデータが得られるのだけど、新型はさらに視野角が
大きくなってるのに安定したキャプチャできてるのは内部で補正してるってことかな。
設置距離が近くても全身が取り込めるならありがたい。
で、PC用の値段はいくらぐらいの予定なの?
2万弱?
光線の往復時間から距離を割り出すなんて、凄い精度だな
光線って1秒間に3万kmも進むんだろ?
誤差が数センチとしてもアリエない精度だよなー
アルプス2万弱
秒3万kmだったら月まで13秒もかかってしまう
月まで何秒かかるのが普通かなんて覚えてないよ
fpsいくつあればcm単位で計測出来るんだよw
GPSがまさにそれだな。
衛星の高度2万キロあって誤差数メートルかな
今のGPSはcm単位の誤差なのに
そりゃ複数拾って補正してるからで
単一のGPSからの経過時間から距離割り出すとそんなもんだよ
もちろん1個じゃ位置わからんけどね
GPSは各衛星からの電波の干渉を計るだけでそんなに精度は必要としなかったような希ガス
194 :
デフォルトの名無しさん:2013/06/07(金) 03:30:46.12
そこの動画みたけど
ショボいのばっかじゃん
まともに遊ぼうと思ったら
あと10年は無理
だから、研究には最適って話。
これからどんどん人とお金が集まれば
加速度的に進化いくと信じたい
新型Kinectが牽引してくれるといいんだけど
なんで二つ目にこだわるんだろうね
目が5.1chとかでもいいんじゃね
可視光にこだわる必要もなし
γ線でウマー
PS Eyeでいいな
プレステのEyeToyって時代を先取りし過ぎたんだな
コストじゃね?
ほぼ初心者
reconstruct meをはじめて使うんだが、
出張スキャンしたいので
これが動くノートを探しているんだが
公式だとGPUが
AMD Radeon HD 6850
NVIDIA GeForce GTX 560
これ以上となってるんだけど
良くあるノーパソの
Intel HD Graphics 3000(CPU内蔵型?)じゃダメなのかな?
問題外?
なぜわざわざグラボ指定しているのに、内蔵でも動くかと考えたのか
reconstruct me ならcore i5・オンボードグラフィックスチップのノートPCで動いたよ
206 :
202:2013/06/24(月) 21:48:48.17
マカーでPCも英語も><
グラボってなに?レベルからスタート
試しに手持ちのmacbook C2Dでwin7に入れてみたけど
何日してもなにが悪いんだかわからず終い
やっぱり敷居高かった
>>203 これですか?compatibility matrix
結構相性あるみたいですね
網羅されてるわけじゃないみたいだし
マシンも各社あるけど、どれがどれだか
調べてるうちに気が遠くなってきた...
けっこう値段するなあ
>>205 おお、ちなみに機種は?
208 :
202:2013/06/24(月) 22:38:43.64
>>207 なんと。確かに
インテル® HDグラフィックス 3000(CPU内蔵)
みたいですね
Scan Highresでもいけました?
Open failed: OpenNI library can't find any module!
Press any key to continue . . .
osxでopenNIサンプルが動かないんだが、どうすりゃいいんだ?
kinect操作するなら言語は何がいい?
openCVと連携するならc++の方がいいんかね
D
Kinect + レゴ マインドストーム
って面白いね
屋外でも使えたら最高なんだけど
日傘さしたり夜限定ならいける?
LeapMotionが全く話題に上らない件に関して。
屋外でも夕方以降ならいいんだけどね
日陰くらいじゃあお天道さまの赤外線にはかなわないんだろね
ポイントクラウド取れないんだもんLEAP
>>213 ちょっとでも動かすと再キャリブレーションが必要とか
3次元計測には全く不向き、てのが個人的には大NG。
217 :
デフォルトの名無しさん:2013/08/27(火) NY:AN:NY.AN
過疎りすぎじゃね
218 :
デフォルトの名無しさん:2013/08/27(火) NY:AN:NY.AN
Kinectのカラー画像で各ピクセルのデプス情報をint値で取りだすのはどうすればいいですか?
C++、OpenCV、OpenNIです。
カラー画像からデプスは無理なんじゃないですかね・・・(コナミ)
すいませんカラー画像云々は無視してください。
デプス情報をint配列で取りだしたいんです。
ポイントクラウドって何?
色情報?
SDK1.8はいつですか?
サンプルコードによっては Open-CVの処理だけバカ重くなる 使い方だな
SDK1.8出た〜
とうとう来たか!
待ってたよ!!
Kinect Oneまで待つわ
頂点カラーでテクスチャ貼ってるように見せてるのか
メッシュが異常に細かいからこそ出来る芸当だな
そのplyの頂点カラーからテクスチャに変換するには
どうすればいいの?
>>231 数枚のテクスチャに頂点カラー適用した全てのポリゴンを描画してその3点の座標を各ポリゴンの頂点のUVとした
objで出力する必要上そうしたけど、素直に頂点カラー使ったほうがレンダリングが速くていい
だれにレスしてんだこいつ
なんかいやなことでもあったか
235 :
デフォルトの名無しさん:2013/09/26(木) 00:16:12.70
さまざまな可能性が広がりそうですね。
もう少しメッシュが少なくて5ミリ単位ぐらいまで精度あれば革命になる
237 :
デフォルトの名無しさん:2013/09/27(金) 23:54:48.35
それkinect関係無いが
腰の振りで3Dモデルがリアクションしてくれるようなのが造りたいの?
240 :
デフォルトの名無しさん:2013/10/12(土) 01:20:30.68
NHKのperfumeの特集でライブでキネクトっぽいの使ってたんだけど
そんなリアルタイムでって無理だよね?
クリエイト魂が欠けてると、せっかく繋いでても出来ることが少なくてモヤモヤする。
Kinectの環境はMicrosoftのドライバで組んでるけど、どっちがいいのかな、
海の向こうの人たちが作る物はOpenNIのものが多い?くて、それもモヤモヤする。
wasd+Space操作の代替わりを、良い感じにやってくれる環境が欲しい、とりあえず。
v2 forWinあまりにもな値段だと日本のCVが停滞する
正式版は普及価格で頼むよ
未来のキネクトは宇宙まで赤外線を飛ばして惑星スキャンとかできるようになるんだろうな。
月まででも片道1.3秒かかるのに
航空機への影響なんかで無理。
OS X環境で、libfreenectを使ったマイクロフォンアレイの情報獲得に成功した人って居る?
カメラ、デプスは取れるけど、オーディオだけが取れないみたい。
ローカルニュースで、キネクトでスキャンした人間を3Dプリンタで出力するサービスやってた。
でも出来上がった人形が荒すぎてワラタ。引き伸ばしたドット絵みたくなってたw
もっと精度高いプリンタ使えよな
いやKinectのスキャンならそんな物だろ
プリンターの解像度の問題ではないと思われる
それは、どこのローカルかね?
北海道。
札幌の店だった。
寒っ!
書き込み少なくなったけどみんな早期β参加?
V2のSDKって1にあった関数と互換性あり?
V1で作ったプログラムはV2では少し手直し程度でも全く動かない?
今月のInterface熱い
センシングの波は健在
Kinectの3代目は作れないってこと?
Kinect2の時点でTOFカメラになってるようだからPrimeSence関係なくない?
書く場所が間違っていたらすいません
OpenNI.hとXnOpenNI.hがありますが、二つの違いはなんでしょうか?
カラー画像の特定の座標の奥行を得る方法ってある?
逆ならNuiImageGetColorPixelCoordinatesFromDepthPixelを使えば良いみたいだが。
あらかじめカラー画像をこの関数で補正しておくことも考えたけど遅くて使えなかった。
皆NITEとMicrosoftのドライバを共存してるの?
261 :
デフォルトの名無しさん:2014/01/08(水) 00:02:02.28
one で性能向上したのに話題少ないね
久々にレスがついたな
書き込み無くなったよね
もうみんな興味ないのかしら
クレクレ厨の多さに幻滅した
XBOX-ONE
windows版販売開始したら盛り上がるだろ
coming soonか
MSKKおま国価格は本当にやめてください
日本だけ価格未定かよw
ユーロとドルだと結構差があるね
昨夜見た時は19900くらいの価格が書かれてたんだが消されてるな。
ChinaもComingSoonだったのがJapanだけになってる。
>>274 その値段で売るのが惜しくなったのかなw
kinectに関しては日本法人なんて何もしてないようなものなんだから
19900で売ってほしいよね
既に大量発注があって売り切れたとか
277 :
デフォルトの名無しさん:2014/06/26(木) 01:51:30.60 ID:tVLoBBM7
3Dスキャンが魅力的だな
mac book proでkinect使ってる人とか居ます?
居られましたらcpuどれを選択したか教えて貰えると有難いです。
数量限定ってどのくらいの数なんだろう。
15日は戦争になるな・・・。
夜中に目が覚めてなんとなくストアを覗いてみたら販売開始してた
結構数はあるのかな。
とりあえず、なくなる前に1個確保。
3Dスキャナーとしての性能は初代とあんまり変わらんの?
深度センサの解像度がアップしてるから一番目ぼしい進歩がその3Dスキャン用途じゃないかな
届いたんでセッティング中だけど、電源ケーブル2種類入っとる…?
電圧やらの違いだろうかね
getおめでとう
楽しい遊び方思い付いたらレポしてちょ
20cmくらいのフィギュアをPC上で復元できるくらいの精度になったのか?
いいなぁ。
家のパソコンはWindows7だからV2は動かないし。
8へのUpdateはかってあるけど、まだ入れたくない。
PC新調したいなぁ。
もう届いた人がいるのか〜。
当日朝組だけど、まだ注文を処理しています状態だわ。
連休中にいじりたかったなー。
kinectで2ch板検索したら、この板しかないっぽいんだけど。。
for windows v2の板とか無いのかよ
3Dスキャンに赤外線プロジェクタと赤外線カメラを使ったのは頭いいな
というか、これってもしかしてその筋では普通?
やっと、届いたーっ。
と思ったら、USB3.0の条件が結構厳しい。
明日増設ボード買うわ。
てs
結局盛り上がらんね
win7に対応してほしかった
294 :
デフォルトの名無しさん:2014/09/22(月) 00:43:16.37 ID:XsqMycYR
295 :
デフォルトの名無しさん:2014/09/27(土) 16:27:06.21 ID:hYxRuPtU
NuiSkeletonCalculateBoneOrientationsで取得した行列をボーンに適用してるんだけど、
Kinectに認識されてる角度で曲がらなかったり変な方向に曲がったりする。
コードで普通にrotate()系の関数で生成した行列をボーンに適用すると正常にボーンが曲がって表示されるので、
自分のスキニングのシステムに問題は無いはずなんだが。
取得した行列に何か処理が必要なのかな?
Avateering-XNAのソース見たらジョイントごとに初期姿勢を微調整しないとダメなのか
面倒くさいな
v2最近買ったが割とスペック高いの要求されてて困る困る
DirectX11使ってるグラボ対応してないしUSB3.0対応してないし
そういや表情認識、心拍数とかがAPIレベルで対応するとか言ってたような気がしたんだがReferenceにない・・・
なぜkinectは糞みたいな行列を返してくるのか
そもそも初期姿勢が定義されてないっておかしいだろ
どの位置からの回転角度なんだよ
はいはい、今おしめ変えてあげまちゅからねー
sdkがゴミすぎてワロタ
マイクロソフトがこんな中途半端なモノをリリースするなんて珍しいな
流行らないのはsdkが糞すぎるのも一因だな
MSもついに人材が居なくなったか
Windows8は有り得ない
Win8のタブレットPC持ってるがストレスMAX
Kinect v2の購入を考えているのですが、XBox One用のキネクトと、Kinect for Windows v2に違いはありますか?
あるサイトには、外観のデザインが少し違うだけで中身は同じと書かれ、
違う意サイトにはコネクタの形が違うと書かれています。
確か、昔のXBox360用のKinectとWindows用のKinectは、カメラの視野角が違うと聞いたことがありますが、v2の方はどうなのでしょうか?
もし、外観とコネクタの形だけ違うのでしたら、
できればXBox OneとWindowsの両方で使いたいので、Kinect for Windows v2を買うより、XBoxOne用のキネクト + アダプターケーブルの組み合わせで購入しようと考えていますが、
本当に違いは、外観とコネクタの形だけなのでしょうか?
認識人数が6人になったのと画素数が増えた。視野角も広くなったな。
それと関節部分の認識数も増えて、便利なAPIも実装されたから開発者側からしたら色々出来るようになったよ。
だけどXbox用のkinect v2販売してたっけ。自分の記憶だと開発用のfor windowsしか出てなかったような
何か別のKinectと勘違いしてる気がする
>>308 関節数が増えたって、どっかで動画で見れる?
311 :
307:2014/11/11(火) 15:55:59.02 ID:xKCdjOtw
自分、書き方が解りにくかったですね。
XBoxOne用とWindows用、どちらのKinectV2を買おうか迷っているんです。
アダプタケーブルを繋げば、どちらもWindowsに繋げるので・・・・
Windowsで使う場合、XBoxOne用とWindows用、何か違いはあるのでしょうか?
KINECTはハックよりキックの方が似合う
色んな事がどうでも良い感じだ
315 :
307:2014/11/13(木) 07:52:16.37 ID:ZRZ4FWho
XBoxOne用とWindows用の違いは、
外観、値段、ケーブルの形状、付属のソフトウェアのみと考えて大丈夫でしょうか?
それならWindowsでもどちらでも使える、XBoxOne用を買おうと思うのですが・・・
夢の色は何色?
kinect_V1用に開発したソフトをKinect_V2を使って動かすことはできますでしょうか?