1 :
名無しさん@お腹いっぱい。 :
2008/07/06(日) 04:00:49 ID:MdhvIeE6 3DCGと実写映像を合成するテクニックや話題をサポートする総合スレです。 最近はフリーや低価格でマッチムーブソフトが出てきたり ARToolKitで合成された映像がニコニコ動画にアップされたりと 映像とCGの合成が個人でも行えるようになってきました。 とは言え、なにかと情報の少ない世界。 撮影テクニックからソフトの使い方までみんなで話し合おう。
■マッチムーブってなに? カメラの映像とCGを違和感なく合わせる技術です。 映画やCMのVFXには無くてはならない技術です。 カメラトラッキングと呼ぶ事もあります。 ■フリー・低価格マッチムーブ Voodoo Camera Trackr【Free】 SynthEyes【約4万円】 ■ハイエンドマッチムーブ boujou 3D-Equalizer PFTrack Matchmover
今だ!2ゲットォォォォ!  ̄ ̄ ̄ ̄∨ ̄ ̄ ̄ ̄ 。 。 || || /⌒ ヽ. / ⌒ヽ( /⌒ヾ ) ((゜Д゜,,))ゝヽのノノ ⊂⊂ _____つ )) ))
昔こんなスレあったけど見事に落ちたよな
マッチムーブとは違うけど、 CGの雑誌とか映画のメイキングで見る白いボールで光の位置を確認したり、 クロムメッキされたボールで反射素材を撮影したりするやつの ちゃんとした方法が知りたい… プロは独自のノウハウでやってるのかな…
HDR素材撮影の方法ってこと??
けどこんなの何処にでも載ってるしなあ・・今はメッキボール使わなくても
HDRI撮影用のカメラレンズもあったっけか。
ttp://www.avant.co.jp/make_05.html 昔のだとスチロールボールでこんな感じで光の位置確認してたね。
キューブ置くところもあったかな。
光の方向確認する方法の一つとしてHDRI素材をCGソフト上に持って行って光の情報を
スフィアなりにディスプレイスメントで適用させて視覚的に表現できたり。
これは数年前のCGWorldに出てたかな。
恥ずかしながら、 HDRIをディスプレイスメントマップに使用するなんてアイデア初めて聞ききました。 すごいっすね。 合成に興味持ち始めたのが最近なんで、ちょっと昔のCGワールドあさってみます… まずはHDRIに頼らず、ハンズで白いボール買うところから初めてみよう…
>>7 これ以上はこのスレに迷惑かけそうなんで・・
CGworld 2002年12月号だね、ちょうどライティングの回だ(解説はXSI)。
>>2 のリストには入ってないけど低価格マッチムーブなら
imagineer systemsのmocha AEも入るかな?
mokeyはよく使うけどmochaは触ったことないなあ、
2.5Dなんて表現使われてるけど精度はどんなもんだろ。
ありがとう、押入れ探したら、2002年12月号出てきました。 当時、関係ないと思っていた技術が今になって凄く大切な事になりました。 今読むと面白い記事が沢山ありますね…
昔あった Alias Sketch! ってアプリには、「マッチバックドロップ」って機能があったっけ...
みなさん合成の為の測量はどのようにされてますか? レンズの焦点距離・カメラのフィルム(CCD)サイズ・カメラの高さ・角度 この4つが分かれば CGソフト上でカメラマッチが出来ると考えたのですが、現実にはうまくいかず困っています。
13 :
12 :2008/07/14(月) 23:05:28 ID:EKDBRUNP
自己解決しました。 カメラとCGのマッチングがうまくいかなかったのは撮影に使用したカメラが、 SONYのDSR-700WSというデジタルベータカムで、 それに使われているCCD(2/3インチ)が16:9のワイドだった為の様です。 撮影された映像は4:3だったので、分からずにCGソフト(Lightwave)上でも通常の2/3CCDのサイズを入力していました。 同じ2/3インチCCDでも16:9タイプのCCDを使ったカメラの4:3モードで撮影した画像というのは 全然画角が違うんですね…それに気づくのに時間がかかりました… やはりCGだけの知識で本格的な実写合成を行うのは難しいですね…
14 :
名無しさん@お腹いっぱい。 :2008/07/15(火) 02:39:20 ID:Sk/hWVSY
15 :
名無しさん@お腹いっぱい。 :2008/07/15(火) 02:40:02 ID:Sk/hWVSY
こんなスレができたんだ。このスレ向きだと思うので転載。
http://3dcg-yotuba.com/uploader/src/up0049.avi Voodoo と Blender でマッチムーブのテスト。
まわっている球の輪とその影を Blender で描いて合成。
動画はごく普通のデジカメで撮影しました。
Voodoo ではカメラの動きとして rotation と free move が選べます。
rotation はカメラが三脚に固定されていて動きは首振りだけの場合に選び、
free move はカメラを手で持つなどして自由に動かした場合に選びます。
上の例は free move です。これはうまくいった例です。
動きが少ない動画だと free move ではおかしな結果になることが多いようです。
Voodoo の向き不向きを考慮して動画を用意する必要があるなと思いました。
今、ユーロ高いんだよなーw
写真合成って、「合成がうまくできましたー」的なものが多くて おもしろくないんだよなー。 もそっと作品の表現方法として活用するうまい方法はないかしらん。
よつばで知って試してみたんだが・・・。連番tgaが読めない。 ウィンドウズ版では、Targa2.0形式の画像を読み込むときに制限があるそうだが・・・。 どんな制限かな?tgaのバージョンはどこでわかるんだろう。
カメラがないのでとりあえずMAXで作った動画で試してみました。 あとBMPとかだとエラーはでないけど画面に表示されないですね。 MAXのtgaだと100%落ちますけど。 MPlayerですか。これも知らないソフトですが、試してみるかな。
人物をブルーバックで撮影して、あとから3Dの背景と合成したいのですが、 カメラをジブで動かしたいと考えています。 カメラの動きをマッチムーブソフト(SynthEyes)で検出したいので、 ブルーバックに動き検出用のマーカーをつけようと思うのですが、 闇雲に貼っても駄目ですよね…何かコツとかありますか? 個人でマッチムーブ合成される方はまだ少ないと思いますが、 プロの方は何から情報得ているのでしょうか…実践あるのみですかね… おすすめの本やサイトなどありましたら紹介頂けると助かります。
25 :
名無しさん@お腹いっぱい。 :2008/07/20(日) 03:12:34 ID:ib7bXK/Y
>24 ●カメラは、物理的に位置を移動しなければなりません:単純な画面のパン、ティルト、ズーム動画からは、3Dシーンを構築することはできません。 ●シーンの深さ:すべての被写体の距離が、カメラから同じ距離だったり、とても遠かったりしてはいけません。 ●ショット内に異なる追跡可能な特徴があること(反射ハイライトはカウントせず、トラッキングしないよう避けなければなりません) ●追跡可能な特徴のすべてが同じ平面にあってはなりません。それら全てが均一な床や、バックの壁のグリーンスクリーン上にあってはなりません。 だとよ。 奥のマーカーはゆっくり動き、手前のマーカーは早く動く。 この視差を利用して位置検出するんでこれが撮れてないとだめなんじゃないかな。 床と背景の2面いる気がする。 あと同一画面内に必ず存在しなければならないマーカーの数に制限があった気が。 9個以上だったかな? カメラの動く方向にもよるから実験あるのみじゃね?
27 :
名無しさん@お腹いっぱい。 :2008/07/21(月) 05:56:36 ID:Pyl4jWaE
>グリーンバックに赤いマーカー 色の違いで検出とか白黒の濃度の違いで検出とか選択できるけど 色の違いなら緑の補色の赤が検出しやすいからだと思うわ。 最小値があるのは確かだけど 「9個」は違ってるかもしんない。試して。
何色のマーカーが良いか、マーカーの形状は何が良いか、 マーカーの配置はどうするのが良いか、マーカーの数の最小値はいくつか、 などなど、8月に色々検証してみます。 使用ソフトはSynthEyes …問題はSynthEyesの使い方がいまいち理解できてないところ…orz
初歩的なお話になるかも知れませんが質問させてください。 実写映像にCGを合成しようと考え、それに適した3Dソフトを選ぼうと考えているところなのですが 実写映像中の動きに呼応するように3DCGを操作したいと考えております。 avi等の実写映像を画面上において、フレーム毎見ながらCGの モーションを付けることができれば楽なのですが・・・・・・。 上記のような作業工程はどのような3DCGソフト上で実現可能なのでしょうか? 不可能だとしたらどのような工程で作るものなのでしょうか? 麓からはどの山を登るべきなのかも見当がつかず・・・・・・お力をお貸しください。
>>29 動画がマッピングできるソフトであれば、どれでも可能かと思います。
他のソフトは分かりませんが、私の場合はLightwave3Dで作業してますよ。やりかたは色々あって…
方法1:アニメーション付けの際、背景画像に映像素材を設定する方法。
この方法だと、3Dと映像を一緒にレンダリングできるので後に合成ソフトで3Dと実写を合成する必要がありませんが、
あまりオススメできません。
方法2:ビデオの比率に合う(4:3)か(16:9)のポリゴンの四角形を作成して、
それに実写映像をマッピングする方法。
(カメラを動かしても板が追従するように、親子関係を設定する)
方法3:ポリゴン板を用意して、フロントプロジェクションマップと呼ばれる、
特殊なマッピング方法で実写映像をマッピングする方法。
他にも方法があるかもしれませんが、オススメは2つ目の方法です。
簡単に背景をOFFにしたり、半透明にしたり、後の合成を意識して画像の位置を変えてみたりが
他の方法に比べ簡単に行えるからです。
ソフトによっては直接AVI等の動画ファイルではなく、連番画像にした方が
動作が軽いかもしれません。Lightwaveの場合は連番の方が軽いです。
もっと良い方法や、プロの現場で行われるセオリーなどあれば、
どなたかアドバイスください。
>>30 ありがとうございます。
大変参考になりました。
その方向でCGソフトの機能を探っていきたいと思います。
まずはBlenderから・・・・・・
すぐ落ちそうなスレが立ってるw
マッチムーブに関して俺の浅い知識と経験で書くね。
以前働いていた会社でいろいろ試したが、結局boujouが頭一つ抜き出ていた。
乗用車買える値段だけどな。
低価格のものでも、フリーの物でも、大体95パーセントぐらいの精度でトラッキングは出来る・・
様に見える。でも実はカメラが無茶なあり得ないところに飛び回って無理矢理画角を合わせてたり、
ほんの少しずつずれていったり、結局リトライや手作業の直しが発生する。
結局作業の大半をそこに費やされるぐらいなら、boujouを買うってのがのが一番最良の答えだった。
たかいけど、人件費考えると安いって感じ。
ちなみに、マッチムーブソフトの大敵は、チカチカライティングの変わるような状況と、モーションブラーの強い物。
どちらもフレームの連続性が追えないのがマズイ。
あとパースが変わらないと3D空間を認識できないので、カメラが移動しない三脚の撮影なんかは、
3Dマッチムーブは出来ない。(この場合は2Dで)。あと撮影時のレンズが35ミリ換算で何ミリだったかだけは絶対調べておく。
>>29 何らかの方法でレンズのゆがみを取る事をおすすめしますよ。トラックの精度が全然変わるので。
ゆがみ取ってトラッキング→CG合成後ゆがみを戻す。
最後にちょっと実写合成関係で面白いアプローチの研究がsiggraphで発表されるみたいなんで紹介。
人物をくるんとむき身にしてレタッチ後動画に戻す、乱暴だがオモシレー。(動画有り)
http://research.microsoft.com/unwrap/
unwrap mosaic おもすれー
>>32 boujouって、Infernoより頭一つ抜きんでてるのか。
ちょっと興味出てきた。
>>32 念のため書くがboujouはカメラトラッキングのソフトだよ。
インフェルノは知らんが、知ってる範囲のスモークや他のディスクリート製品でも
2Dトラッキングは結構良いけど、3Dトラッキングは他のソフト頼りだろ。
前に、アメリカで3DでCMとか作ってる人のブログに、boujouのほうが細かく設定
できるけど、実際に業務で使う場合の使い勝手は、実はSyntheyesのほうが早いって
あったけど、
>>32 とどっちが正しいのだろう?
37 :
名無しさん@お腹いっぱい。 :2008/08/05(火) 21:30:46 ID:yGrGck9M
素人質問ですみません。 レンズのゆがみを取る ってAfterEffectとかでもできるんでしょうか?
38 :
名無しさん@お腹いっぱい。 :2008/08/06(水) 12:20:11 ID:vDCJXqiS
>>36 オレも絶対性能で見るとBoujouだと思う
簡単な3DトラッキングならSyntheyesのほうが早いかもしれないが、
>>32 も書いているようにあらゆる手間を考えるならBoujouだよね
トラッキングのスピードもBoujouの方が速いと思うけどなあ・・・
>光の方向確認する方法の一つとしてHDRI素材をCGソフト上に持って行って光の情報を >スフィアなりにディスプレイスメントで適用させて視覚的に表現できたり。 これってどう便利なんですか?
光源方向が分かるんでね?
…なるほど! 明るい部分が膨らむから 補完光のライトなんかも配置しやすいのか
何のアリバイ工作?
これがスレ立てた上でのお願いだったら絶対画像いじられてネタスレ化してんなw
想像して噴いたw
46 :
42 :2008/08/15(金) 05:46:34 ID:mS6xvCJG
>>43 いや、別にアリバイとかじゃなくって、
単に自分のデスクトップの壁紙にしたいだけですわ。
空だけ青にしてもなぁ・・・w
てか、一応ここは3Dの合成スレなんだが。
>>42 の作業をやるならフォトショでしょ。
使うツールが違うっすよ。
的確すぎるツッコミでスレが止まってるのを見てパーティクル噴いたw
50 :
名無しさん@お腹いっぱい。 :2008/09/19(金) 22:48:15 ID:8hXRiH4b
>>49 へぇ。さっそく落してみた。まだビルドしてないけど。
以前話題になってた奴だよね。
51 :
名無しさん@お腹いっぱい。 :2008/09/20(土) 22:53:11 ID:loymX/8e
Lightwave9とAfterEffectsCS3を使っていて、CGの実写合成をやるとしたら、 マッチムーブソフトはなにが一番最適でしょうか?boujouてのは高すぎて買えません…。
>>51 自分もLW9とAEのCS3とSynthEyesの組み合わせで使ってますよ。
余程高度な事を求めなければ十分だと思う。
難点を挙げるとすればSynthEyesの情報が少ない…
未だに使い方は不明な部分が多いです。
英語さえ読めれば…
54 :
名無しさん@お腹いっぱい。 :2008/09/22(月) 12:25:35 ID:DJgwlqhs
>>52 ,53
ありがとうございます!SynthEyes調べてみます!
55 :
名無しさん@お腹いっぱい。 :2008/09/22(月) 19:31:00 ID:Np665PF5
俺の少ない経験談からも〜。ソフトは主にMayaとAECS3。
SynthEyesとboujou両方使ってるけど、ライセンスの高いboujouは一台だけで他のプロジェクトでも使うんで
3D担当者のマシンにいくつかSynthEyes入れてる。あの値段でこれだけ出来るのは凄い。
手打ちマーカー増やしたりして粘ればかなり無茶なトラッキングもやれるけど、時間かけたくないならboujouが一番。
ただどっちもズーム使われたり、広角使ってアップで撮られた絵は辛い。既に言われてるようにブラーかかるような速いのも。
マーカーに関してはあればあるだけいいんだけど、後で消す作業を考えると無駄にも置けないし、チェッカー模様がいいかというと
意外とどうでもいいような柄とか点を拾ってくれたりしてます。
最悪は手打ちマーカー追加で作業する事になるんで、絵の中に自分で判別出来るようなマーカーを撮影時に置くのが安全。
(空撮の時は1mぐらいのチェッカー模様板作ったりもしましたw)
撮影時にカメラの高さ、角度等のほかに絶対に必要なのはレンズミリ数(35換算)。
1mの立方体とか大きさの基準になる物体を撮っておけると尚良しでした。
関係ないけどSynthEyesはフォーラムの↓
ttp://ssontech.com/phpBB2/viewtopic.php?t=464 を自分でやってみたけど面白かった。
それと、Infernoが積んでる3Dトラッカーは一発で結構とれるけど、とった後に3次元上に物体を 配置する手間が面倒なので、結局boujouでとって3Dソフトで配置が間違いもなく手間もかからなかったです。
うぁ…滅茶苦茶ハイエンドな世界っすね。 そんな仕事が出来るのが羨ましい…
大手といわず、中堅ぐらいのCG会社でもそのぐらいの設備は結構あるでしょ。 合成メインな仕事(映画・CM)をやってるなら必ず必要になるから。 俺はsyntheyesは自腹で買って、自分の作業効率を向上させる為に使ってるなあ。 つまらない合成仕事とかでも勉強する良い機会になったりw
↑ インフェルノは無いだろうけどさ・・・
60 :
名無しさん@お腹いっぱい。 :2008/09/24(水) 01:25:56 ID:8aSJDCQv
環境照明用のHDRIのミラーボール撮影って なんかもっと簡単に場合によっては擬似的に済ます方法って ないもんでしょうか・・・。 あと CGが移動したりする場合ってどうすんでしょう? ごまかしてるのかな。。。。
魚眼レンズつかうのは? hdri 魚眼 でググると色々ヒットするよ。
62 :
名無しさん@お腹いっぱい。 :2008/09/25(木) 01:42:09 ID:AGG2ARHa
SynthEyesのデモ落として今日ずっと使ってみてるんだけど、さっぱりわからない……orz トラッカー置いていって間隔とスムース度を設定してスペースキーでトラッキングしていく ところまではできたんですが、それでトラッキングした動きをカメラに反映させる方法が マニュアル読んでもさっぱりわからないです…。
SEは最初はフルオート1発で終わるだろ… それでダメなら画面内の動いちゃってるモノ(人とか車)を追従してるマーカーを消して 上部の電卓アイコンのメニューからいけるリファインを実行してやれば大抵終わる。 レンズの設定値は電卓アイコンの左だかにあるとこから最初のフレームだけキー打ってあげればいい。 ズームしてる場合は最初の段階でズームにチェック入れてあげればいい。ダメかもしれんが。
マニュアル読むよりサイトにあるビデオチュートリアルを見ながらやれば 誰でもとりあえず使えるようにはなるはず。
65 :
名無しさん@お腹いっぱい。 :2008/09/30(火) 02:18:42 ID:A7WZqlOi
たぶんどころの話じゃないぜ・・拡張子がHDRIの情報量がJPGという無意味なものが出来るだけ。
情報量がJPGって言葉は変だなw
>>66-68 IBLとしてjpgイメージだけを設定してるのなら、それ以上にも以下にもならないだろうけど、
>>65 のリンク先によればjpgイメージに向けて光源を設定しているから、
Shadeがレンダリング結果に浮動小数点を使える出力が出来るのなら十分HDRIになっていると思うよ。
70 :
名無しさん@お腹いっぱい。 :2008/10/01(水) 01:57:38 ID:aeLJliJq
カラコレで背景実写とCGをマッチさせる時のセオリー的な手順ってありますか? どっかで読んだ記憶で、AfterEffectとかだと、シャドー部、ミドル部、ハイライト部のうち、 まずシャドー部を実写上の一番暗い部分とあわせた後、次にハイライト部をあわせて 最後にミドル部をあわせるとか。 他に気をつけることってあります? ミドル部の合わせ方がいまいちよくわからないです。 CG上の色とよく似た実写上の色を適当に拾ってきて合わせるんですかね・・・?
>>70 実写素材に白いモノや基準になるモノが映ってるなら、それに合わせていけば大抵何とかなるかなぁ。
レベルの合わせ方はそんな感じでいいんじゃないでしょうか。
CGとカメラの間に何も入り込まない場合でも、フレームには見えてない情報をCGに
付加したりしないと浮いちゃう。映り込み、照り返し等々。
実写のノイズ感・空気感も合わせないといけないし。
72 :
名無しさん@お腹いっぱい。 :2008/10/01(水) 22:35:20 ID:aeLJliJq
>>71 ありがとうございます。
映り込み、照り返しは現場のミラーボールHDRIでライティングしておけば
一応再現できてるという認識なんですがどうなんしょ。
(CGとミラーボールの大きさや位置が違いすぎたりするとダメでしょうけど)
ノイズ感・空気感はCG側になんらかのエフェクトかます感じですかね?
73 :
名無しさん@お腹いっぱい。 :2008/10/02(木) 01:52:22 ID:ErNb2316
>>72 カラコレのセオリーには疎いけど、俺は普段 After Effects で実写背景のグレインとCGのグレインをマッチさせてる。
あとシャドウの向き・濃さは最低限合わせてる。
背景に合わせてモーションブラーを上手にかけるとグッとリアルになったりするね。
>>72 撮影したHDRIをIBLに使う事はあるけど、最終的には細かいライティングを自分でやってる。
一発で終わるっていうのは余程楽な合成ぐらい。実写素材に挟まれたりする関係性が無ければ楽ですね。
実写に影響する影や映り込みもある場合は、ある程度背景もモデリングする必要も出てきちゃうし。
ノイズやブラーはAE等で合成段階にエフェクトですね。
CMの場合だと本編時に調整するのでCG側が素材を出す際はノイズやブラーエフェクト外してます。
最終の再生環境次第でどの段階でかけておくか変わるでしょう。
75 :
名無しさん@お腹いっぱい。 :2008/10/04(土) 13:29:03 ID:V0jrMxAf
>>73 、74
なるほど〜。ミラーボールとグレーボールの両方を撮影しておくのは
そういうことか。。。。
After Effectsのノイズ勉強しないといけないな。。。
スレ違いだったらまずいけど、よく使うノイズエフェクトってあります?
あと、以前から不思議だったんすけども、CG+実写の合成後映像って
合成前より画面全体にアンバーがかかってることが多い気がするんですが
気のせいですかね?
実写側にもそういうフィルター関係のエフェクトかけて
なじませるテクってあるのかな・・・。
>>75 73や74はどうしてるか判らないけど俺はAEのノイズでニュアンスだけ合わせてるよ
ノイズ・グレイン系のフィルターにはメーカー事のレンズ(とかCCD?)のプリセットがあるものもあるね
フィルムだと撮影した時の露出でもノイズののり方が違って見えるから、見た目合わせでいいんじゃないかなあ
CG+実写の場合撮った絵に合うようにCG作って、ミックスした状態でまたカラコレすると綺麗になるから
アンバー以外にもグリーンやブルーだったりで全体のトーンを調整してるのはあるね
海外の有名CGプロダクションはコンポジットの経過をサイトで見れるようにしてたりするから参考にしてみてはどうでしょう
地方の映像プロダクションで働くCGデザイナーなのですが 実写合成のテクニックを勉強するにも手探り状態で悩んでいます。 どなたか参考になる書籍やサイトなど紹介してもらえませんか? 恥ずかしながらグレーボールやミラーボールの使い方なども 正しく理解できずにいます… それともセオリーなんてものは無く、 皆手探りで習得するしかない世界なのでしょうか…
>>77 さすがにそれは「ググれ!」と言いたくなる。
ネット繋がってんなら少しは調べてみたら??
その手の今はベーシックな手法は色んなサイトで説明してくれてる。
セオリーなんて他の人がどんな風にやってるかを見て、実践してくうちに覚えるもんだろ。
コレを読めば完璧!とかアレをやれば間違い無い!なんて楽な方法があったらこんなスレ立たねーよ!
79 :
名無しさん@お腹いっぱい。 :2008/10/06(月) 00:50:13 ID:iWFJTaI/
>>74 >CG側が素材を出す際はノイズやブラーエフェクト外してます。
え!まじですか?ノイズはともかくブラーもですか。
After Effectsのブラーって使ったことないけど
あと付けのブラーって不自然にならないですかね?
特に回転系(ヘリの羽とか)は。
ブラーなしならレンダリング超楽ですな〜。
80 :
名無しさん@お腹いっぱい。 :2008/10/06(月) 00:52:22 ID:iWFJTaI/
>>79 今の話の流れからは外れるかもだけど3Dでモーションブラーは重いからあんまり使わなくない?
Velocity情報を出してAEでRSMBのほうが処理も軽くて調整効くし。
>>80 それ結構前に話題になってたね、低解像度の動画と高解像度の絵を使って高解像度動画にするって
やつだよね。上の方にあるPTAMといいオープンソースなのがすごいよね。
PTAMも使ってみたけどあれはお手軽で楽しい。
82 :
名無しさん@お腹いっぱい。 :2008/10/06(月) 12:11:43 ID:TcX17fkM
初心者や趣味レベルではそうそう購入しないだろうけれど、 RSMB→ReelSmart Motion Blur このプラグインは非常に実用的で秀逸。 サードパーティ製プラグインには高価でくだらない製品が実に多いが、 コレとIrisFilter、Final Focus は予算が許すならば、 ぜひぜひ導入すべきプラグインであります。
83 :
名無しさん@お腹いっぱい。 :2008/10/06(月) 21:19:06 ID:iWFJTaI/
現場のミラーボール(HDRI)なんて手に入らない動画にCG足すケースも多いじゃないですか? そういう時ってどうしてます? 写りこみがあまりないCGの場合は、適当な似た環境のHDRI持ってきて 光の方向だけ合わせてレンダして後でカラコレで誤魔化すんだけど 他になんか方法ないですかね。。。。
84 :
名無しさん@お腹いっぱい。 :2008/10/06(月) 21:21:11 ID:iWFJTaI/
>>81 、82
ReelSmart Motion Blur 使ってみます。
そんなに使えるとは思いませんでした。。。。。
一生懸命ブラー付きで作ってたよ・・・・。
85 :
名無しさん@お腹いっぱい。 :2008/10/06(月) 21:32:31 ID:6GMGgZDd
RSMBは実に同意だが IrisFilterなんかを薦める理由がわからん そこはLenscareだろう あの絵作りじゃなきゃダメってんなら別だが
>>79 プロペラ等の後処理で再現しにくい3Dのモーションブラーはかけておく
ブラーかけてないのも用意することもある
実写との馴染み作る為にブラーをほんの少しかけたりするから、そういうのは
本編時に微調整してもらった方が良いので、素材渡す時は外すかな
出来る事の選択肢が無い素材は本編で役に立たないからねえ
>>83 見た目におかしくなければ手法は問題ないんじゃ?
俺ほとんどそんなだけどw
87 :
名無しさん@お腹いっぱい。 :2008/10/07(火) 02:00:59 ID:iAlE0aah
>>86 プロペラだけとか一部だけにブラーかけたパーツとかかってないパーツを別出しって
ありなんかな。やってみりゃいいんだろけど。
>見た目におかしくなければ手法は問題ないんじゃ?
やっぱそんなもん?せいぜいフォトショでHDRIいじくって
余計な写りこみ消す程度でいいのかな。。。
確かに意外なくらい合うこと多いんだけども。
>>87 調整する予定の無い部分まで分ける必要ないからケースバイケースだよね
HDRIが無いなんてちょっと前まで当たり前だったわけで、皆力技で色々やってきたんよ
大事なのは上がりが良く見えるかどうかだけなんだし。
多分やってる事は間違ってないだろうから自信持てばいいのにw
スレ違いだと思いますが、
どこで聞いたらいいのかわからないので
質問させてください。
秦基博のフォーエバーソングという新曲なんですが
PVに映ってる背景が地元みたいなんです。
丘の頂上でカメラがぐるぐる回りながら
秦基博が歌ってるシーンがあるんですが、
これは、合成なんでしょうか?
地元に来てるかが気になります。
ttp://jp.youtube.com/watch?v=ieGw0Qj2V9Y どうか、教えてください。
>>91 3Dソフトにデータ読み込んで、一緒についてくるトラッキングマーカーの位置から
床その他の位置(カメラとの相対関係)が分かるはずです。
まだ滑ってるっぽいからちゃんと配置してもズレそうだけど。
インターレースの素材は大変かもね。
93 :
名無しさん@お腹いっぱい。 :2008/10/12(日) 02:13:53 ID:p/klbVjf
インタレース解除はやったほうがいい結果が出ますね。 走査線でトラッカーが分断されるからかな。 正しく設定出来ていれば大丈夫なんかもしれないけど。
VoodooCameraTrackerには確かインターレースの画像としてトラッキング出来るのがあった気が
95 :
名無しさん@お腹いっぱい。 :2008/10/13(月) 05:30:32 ID:2JVVMiwh
96 :
名無しさん@お腹いっぱい。 :2008/10/14(火) 23:22:28 ID:hYAvFEpF
動画変換 TMPGEnc(インタレース解除とjpeg連番へ変換) マッチムーブ Syntheyes(jpeg連番で食わせる) CGモデリング MAX テクスチャやHDRI加工にPhotoShop レンダリング VrayでTga出し カラコレ AfterEffect(動画jpeg連番とCG(Tga)を合成) って感じの手順環境で作業してるんすけども モデリングやレンダリングソフトの好みは置いといて そこは違うだろ!みたいなのあります? あと追加のソフトとか。 (特にjpegで作業してんのが気になる)
ちゃんと処理できてて満足してるならそれでいいんじゃないの?w
98 :
名無しさん@お腹いっぱい。 :2008/10/26(日) 18:31:52 ID:Vh0BUn0w
100 :
名無しさん@お腹いっぱい。 :2008/10/30(木) 18:37:17 ID:/3Aha5Sd
101 :
名無しさん@お腹いっぱい。 :2008/11/04(火) 21:09:10 ID:FKNQnlcO
>>66 >>67 Shadeの場合リアルカラーにチェックを入れると、レンダリング時にピクセルの色を決めるのが
48ビット(RGB 各16ビット)になる。JPEG画像をパノラマレンダリングして終わりではなく
光源を置いて擬似的に日の光を表現しているので、光源の遠い、近いによって色のグラデーションが
再構築される。よって元のJPEG画像よりダイナミックレンジの広い画像が出来上がる・・ような希ガス
なんちゃってHDRと俺は勝手に命名してます、それ。 CGの上がりは特に問題ないし、皆結構やってるものだと思ってるけど。
なんちゃってじゃなくてまともなHDRIだっつーの
105 :
名無しさん@お腹いっぱい。 :2008/11/06(木) 00:21:35 ID:TSDiOzCo
ロトスコープのマスクって、うまく自動とかでやる方法ってあるんかな? Commotionとか使ってる人います? 手作業だと死なねぇ?
106 :
名無しさん@お腹いっぱい。 :2008/11/14(金) 22:40:29 ID:mSNPvC5l
あげ
107 :
名無しさん@お腹いっぱい。 :2008/11/18(火) 01:29:34 ID:av1hAccx
108 :
名無しさん@お腹いっぱい。 :2008/11/19(水) 16:51:05 ID:dWqRO+mk
できるでしょ
109 :
名無しさん@お腹いっぱい。 :2008/12/12(金) 20:02:40 ID:3t57aMTF
保守age
みなさんはHDR画像どうやって作ってる?
昔はデジカメで複数露出でコツコツ合成してたけど、今はRAW撮影してコンバートしてる。
ほうほう RAW撮影→数種類現像→HDRに統合 ですね
113 :
名無しさん@お腹いっぱい。 :2008/12/18(木) 01:52:30 ID:QueCj/N0
>RAW撮影→数種類現像→HDRに統合 それ、CGライティング用のHDRにはならんはず。32bitを網羅してない。 いわゆるHDR画像にはなるけど。 それでライティングすると、青天の場合、太陽の部分のエネルギーが 小さすぎて空の青のエネルギーのみでライティングされて CGが真っ青になるはず。 前出のjpegで作ったなんちゃってHDRと変わんなくて 結局太陽部分に補助ライト足して、写りこみだけ使用するような結果に ならない?
RAWで複数露出撮影→HDRに統合 が正しい RAWだとほぼリニアだしビット数も多いからJPGよりいい
ほぼリニア? 完全にではなく?
そこはかとなくリニア?
じゃあ
>>111 の昔のやり方をRAWで撮影するようになっただけで
今もコツコツ作るしかない、という事ですか。
>>115 ほぼ だよ
デバイスの特性があるから完全にリニアじゃない
>>117 RAWは一枚がカバーするレンジが広いから
JPGよりは枚数少なくて済むかもね
用途によるけど
魚眼レンズで180度ずつ撮影して360度のHDRI作るのってどうやるの?
120 :
名無しさん@お腹いっぱい。 :2008/12/23(火) 03:21:26 ID:E7Z3JrH+
121 :
名無しさん@お腹いっぱい。 :2008/12/24(水) 09:04:31 ID:skSA9SdE
122 :
119 :2008/12/24(水) 13:47:10 ID:CTfnu76v
123 :
名無しさん@お腹いっぱい。 :2008/12/25(木) 04:07:17 ID:97ywIOAF
作る目的がHDR画像そのものなら話は別だが 作りたいものがCGで、背景になじませることが目的なら 正確なHDRを作る努力は意味無い気がする。 むしろどのくらい適当な(簡単な)HDRもどきで なじむ効果が出せるかの比較テストとかの方が興味あるな。 なんかの論文で読んだ気がするが。。。
HDRIの使い道にもよるけど、普通はHDRIが正確な方がなじみもいいよ HDRIライティングとかの場合はHDRIが不正確だと色が全然合わないし
近いものを作ろうと思ってましたけど、 私はアマなのでAfterEffects+Photoshopと 気合で行くつもりでしたw プロの精度、制作時間考えると多分もっと巧い手があるんだろうなぁ 詳しい方のご意見も聞いてみたいです
127 :
125 :2009/01/06(火) 19:51:14 ID:utjR1KTP
>>125 使った事ないけど、boujou4のサイト説明みてたら、
トラッキングしたポイントの点群をメッシュで書き出す機能があるって書いてあった…
http://www.crescentvideo.co.jp/boujou/4/ ひょっとして、この機能使えば、振袖の表面を3Dオブジェクト化して、アニメーションするマッピングを貼り
そのレンダリング結果を撮影素材に合成。そうすればこのCMにようなカットが可能かな…
自分はSynthEyesもロクに使いこなせない人間なんで、あくまで想像なんだけど。。
…そう簡単にノウハウを教えてくれるプロもいないかな…
>>125 何気なく放送されてるけど、地味に手の込んだCMだよね。
メイキング見ると、無地の着物着てる時に白いマーカーつけてるように見えるけど、気のせいかな?
逆にマーカー無しで無地の着物表面を追っかけられるとは思えないし。
boujouでもSEでもトラッキングさえ出来ればトラッキングポイントからメッシュを生成できる。
(3Dソフトに持っていけばもっと融通が利くでしょう)
俺がやるならオーソドックスにそうします。
129 :
名無しさん@お腹いっぱい。 :2009/01/08(木) 06:09:29 ID:fwUndUN1
正直 インフェルノがあれば できるけどな こんなの。
そっすね^^
131 :
名無しさん@お腹いっぱい。 :2009/01/09(金) 02:21:08 ID:JrAvgfef
動き自体はオブジェクトトラッキングだろうね 着物はまずどっかのフレーム合わせでモデリングして 細かい変形とかはトラッキングでどうこうよりはジオメトリを目で見ながら変形させて合わせた方が楽かも 尺短いし柄だけだから皺とか厳密に合わせなくてもほとんど気にならんだろうし むしろ服の部分部分のマスク切りが一番めんどくさそう
>>131 お…おお!てことは、やっぱり撮影された映像から
イメージベースドモデリングで振袖を3D化して、そこにマッピングなのかな…
手間かかってるなぁ。どこのプロダクションが制作したんだろう。。
SynthEyesの完全な日本語マニュアル出ないかなぁ…
ちんぷんかんぷんだ。
胸元のアップ以外は平行移動っぽいから、トラッキングかけなくても1080pとか720pで取って 後からパンさせれば大分楽っぽいんだけど、胸元の所がカメラ回り込んでるのが面倒そうだよな。 力技の見た目合わせにしちゃあ、かなりきれいにマッチしてるし。 つーか、みんなアレ気になってたんだ。 久しぶりにこのスレ覗いたら話題になっててワロタ。 仲間内でも、アレ地味だけど大変だよなって話題になってたよ。 お前らみんな職業病だ。
1だけど、伸びは遅くてもスレが良い方向に向かってくれて有り難いっす。 マッチムーブに限らず気になるCMとか合成カットを 紹介したり相談できる場ってなかなか無いんですよね… 合成関連の情報って本当に少ないと思う。なんか良い雑誌とか無いっすかね。 CinefexとCGワールドくらいかな…
CGもそうだけど、他の人がやってないようなやり方で面白いモノを作っていけば稼ぎになるし そういう職人技みたいのって誰にでも教えたい事でもないだろうしね。
137 :
名無しさん@お腹いっぱい。 :2009/01/09(金) 21:48:45 ID:JrAvgfef
138 :
名無しさん@お腹いっぱい。 :2009/01/10(土) 11:01:22 ID:0yQuRYmm
良スレ あげ。
>>137 ちょっと前の投稿だよね。それ見てSE買って真っ先に試したよw
3DCG関連のIRCだと 映像業界とかゲーム業界とか同人の人とか アマチュアとか単なる3DCGが趣味の人とか 色々いるからそっちで業界人に聞くのもいいかもよ ホスト名:irc.juggler.jp ポート番号:6667 チャンネル:#3DCG ま、合成テクは教えてもらえるかわからんけどw
折角良スレっぽくなってきたんだし、ここでいいじゃないか。 他の人のやり方って知らないから、ちょっとした事でも何気に役立ってるし。
142 :
名無しさん@お腹いっぱい。 :2009/01/20(火) 00:41:23 ID:9Dqb3e0R
素人なんすけども、CGを最終レンダで出さずにスペキュラだけとか 要素別レンダリングして、あとで合成して仕上げってケースは 実際どの位使うもんなんでしょうか?(無論動画のケースで。) 要素といってもどの程度分解して出しとくと後で楽なんでしょ? どう楽なのかも想像できてないですが。。。。 どういうリテイクが現場でよく出るのかってことかと思うんですけど 教えてください。
スペキュラとディフーズとリフレクションは素材分ける事が多い 結局反射やスペキュラの強さは3Dソフトでちびちび調整するより合成で調整した方が早いからね 要素を分解し辛い素材もあるし 一発レンダーで軽くいけるショットなら 余り素材分け細かくしすぎてもレンダリング時間の無駄だからそのまま出す どのぐらい素材分けるかっていうのはケースバイケース
144 :
名無しさん@お腹いっぱい。 :2009/01/20(火) 01:43:43 ID:9Dqb3e0R
>>143 早っ!ありがとさんです。
意外と情報なかったんす。
分解できるよ的な機能宣伝は多いけど重要度が不明で。
特定TOOLに特化してないところが良スレっすね。
なんかmixiかなんかでコミュ化して情報蓄積しても良いような。
スレだけでいいよ 情報はまとめサイトでも作るか、テンプレでまとめればいい
>>142 俺は極力素材分けないようにしてる。
調整したくなるのは大抵分解しづらいw
他の会社から引継ぎで素材丸ごと預かったりするとレンダーパス分けまくってて
素材が恐ろしい事になってるのは良くあるなぁ。
素材が分けてあってもミックス時にカラコレすら組んでないとかね・・・。
自分でCGも合成もやっちゃうなら必要な素材は分かるし、合成が別の人なら
その時々で事前打ち合わせするのが早いよね。
>>142 スペキュラ ディフューズ リフレクション アンビエント シャドー ライトぐらかな〜
あったら何げに便利だよ。
簡単なショットなら一発で。
ただ、複雑なシェーダ組むと出ないことが多いんで、一発で出せる技術は付けといたほうがいいかも。
>>142 いくら素材分けても元のCGの完成度が低ければ意味ないんで
素材分けを前提にするよりも、まずはCG自体のクオリティーを上げる。
駄目なCGはいくら素材分けても使い物になりませんので。
ある程度のレベルに達してれば下手に素材分かれてるCGよりも手間がかからない。
合成後のイメージ作りを先にしておくのが必須だと思います。
>>149 147だけど、あくまで個人的な使い方として
スペキュラはそのまんまで、テカりを強めたいときときに使う。ブラーをかけてハレーションを起こしたようなときにも使えるかな。
ルミナンスのしきい値を下げたものにブラーをかけるという手もあるけど。
ディフューズはSSSとかを使った時に、スキンシェーダ特有の質感が出すぎてディフューズ情報が低くなったときに色を持ち上げるのに使う。
リフレクションはスペキュラと切り離せない要素なので、調整して使う。
アンビエントは、ファイナルギャザーで全体的に明るくなったのを抑える。
シャドーは、普通に影を強めたいときとか、バックライトに影をつけたくないときに口や鼻の穴の中が明るくなるようなのを防ぐようなのに使う。
ライトは比較やオーバーレイとかで載せて明るさのコントラストの印象をライトの明暗で強めたいときとかかな。
あとは、ライトとかシャドー要素は効果をかけたり色を転がしたりするときのマスクとしても使えるよ。
静止画だとこんなにいらないけどね。ただ、動画でもすべてのショットで全要素出すわけじゃないよ。
ようは、プロジェクトの規模が大きくなると個人個人が完全に質感設定・ライティングして出そうとするよりも、
各要素で出してVFXチームの方で合成のときに絵面を合わせてもらう方が効率がよくなるってことかな。
長くてスマソ
>>150 アフォな質問に答えてくれてthxです
しっかし良スレだなぁw
153 :
名無しさん@お腹いっぱい。 :2009/01/25(日) 04:23:27 ID:eX3DIuPE
CGWorldのメイキングは読んでないけど 位置合わせのメインはオブジェクトトラッキングじゃないのかな? モーフィングは表情の部分だけに思えるけど・・・? しかし2Dの変形でそこまで合うもんかな・・・・?
154 :
名無しさん@お腹いっぱい。 :2009/01/25(日) 04:31:30 ID:eX3DIuPE
>>127 >トラッキングしたポイントの点群をメッシュで書き出す機能
SynthEyesにもあるよ。
メッシュ構築した後、出力をobjにしてMAXとかのCGアプリで取り込めばいい。
カメラデータのイクスポートとobjのイクスポートの両方をやって2つとも
CGアプリ側で取り込む。
詳細なモデリングはCGアプリ側でやるとしておおざっぱなガイドにはなるかと。
>>153 表情は合成の段階で下絵(実写)も上手くミックスしてると思うけどね〜
実際の所どこまでやってるか分からないけど。
ステンレスの顔は手付けで位置合わせしてるって書いてあったよ。 液体の顔は服の襟の裏側とかもマッチムーブする必要があるから boujouで合わせたって。 あいうえお、など複数の表情を3Dスキャンして それをもとにモーフターゲットを作成するってのが斬新だと思った。 …3Dスキャンする環境なんて身近に無いけど、 10年くらい昔、シーグラフで自分の顔スキャンしてもらった時は メッシュが細かいわ、ポリゴンぐちゃぐちゃだわで実務では使えないと感じたけど、 今なら高解像度モデルを低解像度モデルにベイクできるし なかなか使えるのかも。
157 :
名無しさん@お腹いっぱい。 :2009/01/25(日) 18:14:10 ID:eX3DIuPE
まじっすか!!!すごい嬉しい!!
乙
┌───┗━━━┓
┌─┴─┐ ┏━┛─┐
┌┴┐ ┌┴┐ ┌┗┓ ┌┴┐
>>157
161 :
名無しさん@お腹いっぱい。 :2009/01/25(日) 20:59:40 ID:eX3DIuPE
3時間程度で作ってるんでメニューと右クリックメニューの半分くらいだけね。 各画面のキャプションは変えてない。 (変えるとボタンの大きさとかも依存するんだわ。HELPも追いにくくなるし。) あとプログラム組み込みのメッセージとかはいじれない。 パッチあてるとsyntheyes.oldってのができるので それがオリジナルの英語版(要保管)。old→exeに戻せば元に戻る。 表示や動作の不具合、誤記等あったら連絡よろ。 つーか上記ソフト使えば誰でもできるんだけども。
日本語化ファイル実行で "crcが一致しません"エラーが出ちゃうのは自分だけかな… DLファイル容量は28.2 KB (28,932 バイト)です。 みなさんはどうですか??日本語化問題なくできましたか?
残念ながら、俺もCRCエラーでパッチ当てられないな SynthEyes 2008.0.1009 Compiled Oct 17 2008.
バージョン違うくね?
SynthEyes2008(Ver2008.0.1000) って書いてあるね
なるほど!自分とこ2008.0.1005だった… 古いバージョン探してみよう。。
167 :
名無しさん@お腹いっぱい。 :2009/01/26(月) 22:46:32 ID:rdIPr5tY
161です。 うはー。買ったタイミングで若干マイナーVer違うのかー! こちらはアップデートとか試してもVerは変わらず。 困りましたな。 ResouceHackerのデータで渡して各自のVerで書き換えてもらうしかなさそう。 ちょっとまってね。。。。
168 :
名無しさん@お腹いっぱい。 :2009/01/26(月) 23:44:07 ID:rdIPr5tY
ありがとう!! 成功しました。使用バージョンは【2008.0.1005】です すべてを確認した訳じゃありませんが、見た感じ、間違いなく日本語化されました。 これで今まで何の機能か分からなかった部分にもトライできそうです。 ※実は以前独自に日本語マニュアルを作ろうとして途中で断念していたのです… これがきっかけでSynthEyesユーザーが拡大する事間違い無しですね。 本当にありがとうございます!!
170 :
名無しさん@お腹いっぱい。 :2009/01/27(火) 00:39:56 ID:9p7eTHYa
よかった。やれやれ。 差分はよく確認して下さい。特に行末の数字の部分とか。 バグっても責任は持ちませんゆえよろしゅう。 オリジナルは要保存。 日本語化TOOLは簡単に編集できるから 自分なりのカスタマイズキャプション入れるのもいいんじゃないかな。 しかしフォーラムには Build 1008 Releasedとか 書いてるのにアプリからアップデートかけてもなんも変わらんのよね。 無いってメッセージが戻る。 2008.0.1000からアップデートした人とかいる? 変だなぁ。。。。
172 :
名無しさん@お腹いっぱい。 :2009/01/27(火) 02:19:58 ID:9p7eTHYa
173 :
名無しさん@お腹いっぱい。 :2009/01/27(火) 02:41:17 ID:9p7eTHYa
>>171 ログインできるけどね・・・・。
(SAVE THIS MAIL)に書いてある
You can login as XXXX then yyyy (Customer care login info)
がXXXX:ユーザID yyyy:パスワード
アプリのHelp→SetUpdateInfoも同一設定(だっけ?)。
正しく出来てればSugやMsgボタンでブラウザ起動する。
あと、169は新パッチでやりなおした方がいいかも。
1000と1009だとメニューに若干差分あったわ。
(Build 1005は大丈夫なのかも知れんが)
>>173 恥ずかしながら、
Andersson Technologies に拙い英語で問い合わせてみたところ
仮IDと仮Passwordでログインしようとしていたのが問題でした。
新しいID&Passを入手できたので問題なくログインできました。
新パッチもありがとうございます。
1009入手次第試してみます。
みんなカラースペースどうしてる?
>>175 それは作業を8ビットで行うか16bitや32bitで行うかって事ですか?
フリーのVoodoo使ってるんですけど 連番読み込みはフレームレート30固定ですか? 英語サイト覗くとそれっぽく書いてあるんですけど・・・ 本当は24とか60で読んで欲しいな
>>178 そもそもフレームレートって関係ありましたっけ?
フレームごとに特徴点を検出するだけだと思うんですが
>>179 元々の連番が24コマ素材なのですが、Voodooでトラッキングしてカメラ吐き出すと
30コマのカメラになってしまっているんです
192枚の秒24コマ素材をVoodooで読み込みトラッキング
↓
Voodooからカメラを吐き出して3Dシーン上に持ってくると、秒30コマの192フレームキーがついたカメラデータ
↓
ViewportBackgroundに元絵の秒24コマ192枚の素材を敷くと
↓
当然ずれてしまうので、シーンを24コマに直す
↓
30コマ192フレームのカメラは、24コマ補完になるのでキーがズレてしまう
という状態なのですが・・・
boujouはfps設定あるみたいですね
3Dソフトが何か知らないけど、Voodooのカメラデータを読み込む時に 環境設定で30コマになってるから30になってるだけじゃないの? フレーム数とキーフレームの数が一緒なんで、データ的にはなんとかなりそうだけど。
182 :
名無しさん@お腹いっぱい。 :2009/02/01(日) 22:47:15 ID:qSibU5Hc
183 :
名無しさん@お腹いっぱい。 :2009/02/04(水) 01:08:58 ID:TVZ7NBD/
CGのレンダリング時のピクセル数って 合成対象の実写とピタリ同じでレンダリングするのが正しいんでしょうか? CG側は大きめ(細かく)にレンダリングしておいた方が調整がきくとか ある程度までなら粗めでもリカバー手段があるとか どうなんでしょう?
184 :
名無しさん@お腹いっぱい。 :2009/02/04(水) 02:05:00 ID:TVZ7NBD/
>>183 大きめに計算しておけば調整が利く事もありますね。合成時に位置移動したりとか。
実写のパースにドンピシャで合わせてあって拡大等する必要がないなら同じ解像度で。
ケースバイケース。
HDだったりすると1080で用意しきれない時に720で出す事もあります。
合成時にリサイズかけたら案外綺麗に馴染んだりする事も。
186 :
名無しさん@お腹いっぱい。 :2009/02/05(木) 03:02:39 ID:NuBAyeMn
188 :
名無しさん@お腹いっぱい。 :2009/02/05(木) 23:05:30 ID:NuBAyeMn
MayaLiveに技術が反映されて機能向上すると嬉しいっすな
MayaLiveなんて粗大ゴミはもう捨てろ
MayaLiveは本当に使えないね。あれいらないから安くして欲しいぐらい。 抱き合わせにもほどがある。
192 :
名無しさん@お腹いっぱい。 :2009/02/06(金) 22:42:12 ID:QOf5uaxh
Voodooの日本語訳とSynthEyesの日本語訳wikiサイト ダウン中。 管理者の話ではFTPは生きているらしいのでバックアップは可能。 別サーバへ移動するかもしれません。 無料は怖いね。
VooCATデモ版を弄ってますが、同CameraTrackerからかなり進化してますね。 ・tgaファイル以外にも使えるようになった(jpg,bpm,avi etc...) ・トラッキング動作がかなり軽くなった ・特徴点を拾わないようにするマスク処理が行えるようになった(フレームごとに変形可能) 等など 117.81ユーロ=15000\弱程度で買えるので入門には丁度いいかも、ということで購入を検討しています。
MayaLiveなんて粗大ゴミはもう捨てろ 最近じゃモーションキャプチャソフトの方が安上がりだぜ。 それとmovimento買ってみた なんて言えたらいいな。
195 :
名無しさん@お腹いっぱい。 :2009/02/10(火) 23:19:34 ID:0wxXLWmS
トラッキング対象の映像って、広角でも撮影時のレンズのmm数を 正確に記録しておけばトラッキングできるもんですか? 極端な広角はやるつもりないけど。 あと歪みの補正ってトラッキング前にやった方がいいのかな・・・? 動画の歪み補正ってできるのかどうか知りませんが。 撮影〜トラッキング前までに気をつけた方がいいことを知りたいっす。
196 :
名無しさん@お腹いっぱい。 :2009/02/11(水) 00:59:20 ID:5K8Vp7Hd
トランスフォーマーみたいな 5mくらいのある大きさを持ったCGを実写になじませる場合、 ミラーボールのHDRIだと思い切り破綻する気がするんですけども なんか別のアプローチがあるんですかね・・・・。 どうやってんだろ。トランスフォーマーもミラーボールなんかな??
オートトラッキングならカメラのmm数も全自動で検出してくれるが
ちゃんと記録した値を入力した方がもっと正確
広角の時はmm数とレンズにもよるがかなり歪むので歪み補正しないとそもそもちゃんとトラッキングできない場合がある
歪み補正は
撮影前の下準備としてboujouの場合だが以下のURL参照
http://www.crescentvideo.co.jp/boujou/technical/20050511.shtml 当然撮影で使ったmm数ごとにこういうのを撮影する必要がある
これをやり忘れると取り返しがつかない
実際にトラッキングする時だが
@トラッキングする前に元素材に歪み補正(歪みを取る)
A歪みを取った素材をトラッキング
B3Dソフトにカメラ読み込んで歪みを取った素材に合わせて作成
CレンダリングしたCG素材に歪み補正(歪みを付加)
D元素材に歪み追加したCG素材乗っけて合成
って感じ
>>195 どんなレンズであっても_数を控えるのは基本ですね。
トラッキングソフトをアテにして記録しない人もいますが、立会いの意味がありませんし
その後の作業の手間が増えるだけです。
歪みに関しては
>>197 で出てる通りですが、広角はなるべく避けたい所です。
ズームされるともっと悲惨ですw
199 :
名無しさん@お腹いっぱい。 :2009/02/11(水) 22:11:01 ID:5K8Vp7Hd
撮影時に手持ち移動やドリーは実は稀で、三脚でパンのみのショットの方が多い。 また、夜間の撮影でトラッキングポイントが少ないなど、 撮影した映像がトラッキングしにくいケースがあります。 SynthEyesの場合は同じ場所を写した複数のショットをドッキングさせることができるので 現場で別カメラでトラッキングしやすい映像を押さえておいたり、数枚写真を撮っておき このトラッキング対象の映像とは別の映像(または写真)でトラッキングを済ませ、3次元解析まで終わらせた上で トラッキング対象の映像は6点(SynthEyesの場合)だけ手動で追跡して 両者の同一点を合体させるという方法があります。 そうすると本来トラッキングできない映像でも カメラの動きを割り出せるので、現場では別カメラを回すといいかもしれません。
>>199 >SynthEyesの場合は同じ場所を写した複数のショットをドッキングさせることができるので
↑
これの詳しいやり方が知りたい・・・
!!俺も知りたい…そんな事できたのか。 全然知らなかった。。
202 :
名無しさん@お腹いっぱい。 :2009/02/13(金) 00:35:12 ID:FG8VDLVs
203 :
名無しさん@お腹いっぱい。 :2009/02/13(金) 02:34:03 ID:FG8VDLVs
>>199 ショットを追加して各々トラッキングして
ショット間のトラッカーをALT+クリック(またはTarget Pointボタン)でリンクさせて
Indirectモードで解析するだけ。
簡単すよ。
情報サンクス!試してみます。
205 :
名無しさん@お腹いっぱい。 :2009/02/16(月) 22:20:14 ID:PW/c4LoU
>>202 のマルチショットトラッキングなんすけども
オブジェクトトラッキングは概してトラッキングポイントが少ないものなので
カメラトラッキングよりもオブジェクトトラッキングで効果を発揮しそうな
気がするんですけども。
例えば走ってくる車のトラッキングをする場合なんかだと
画面内の車の部分だけしかトラッキングポイントがなくて車全体の形状を出せない。
んで、先に車を止まった状態でしっかりと別撮りで映像に押さえておいて
これでトラッキングを済ませ、実際の走ってくる車のショットは6点だけ手動で追って
ドッキングさせるとか。
先に別撮りする時は本番じゃないからトラッキング用のシールだらけにもできるしね。。。
206 :
名無しさん@お腹いっぱい。 :2009/02/20(金) 00:37:51 ID:+v5llhip
ありがたい!!お疲れ様です。
なんとこのスレのまとめまで…さらにありがたい!!
(・∀・)イイ!!
いいねw
>>209 幽霊の影が壁に落ちて曲がってるけど
これはCGソフト側で
現実のシーンを板ポリでセットアップして
ライティングして合成してるの?
215 :
209 :2009/02/26(木) 19:58:40 ID:OEMYbKcM
何度かテスト撮影して試してたら、二回目のマッチムーブに成功。
まだ調整のしかた分からんからほとんど運頼みだー。
>>214 そうです。VooDooにしろSynthEyesにしろ、トラッキングポイントが書き出されますので、
それを元にポリゴン置いていけば、けっこう簡単に壁は作れます。テストなんで厳密に作ったりはしてませんが。
ライトも動画の影を見ながら置いていけば難しくないです。
今のところこれといった作品を作る予定は無いけど、テスト動画作ってるだけでめちゃくちゃ楽しいです。
216 :
名無しさん@お腹いっぱい。 :2009/02/26(木) 22:00:30 ID:P2UBlLHq
コレはオモロそうだ やってみよー
217 :
名無しさん@お腹いっぱい。 :2009/02/26(木) 23:47:06 ID:1DjxILXy
>>209 >>ほかの動画では失敗
そう、うまくいかない動画ってあるんですよね。
何がカギかは不明ですが。
うまくいかなかった動画の方もUPできます?
「精度を追い込む」ノウハウを貯めるのって重要なので。
>>209 上手いね
これ更に一歩進めてタイヤのスキッドマーク残せない?
動いてるものより固定されてるものの方が難しいと思うけど
いやいやここはフォトリアルを目指してもらいたい 繁華街の中にCGの車置いて合成だw
220 :
209 :2009/02/27(金) 12:37:41 ID:FBORnr92
>>217 それは構いません。そういう情報がわかればこちらとしてもありがたいし。
ちょっと待ってね。週末にはなんとか。
>>218 了解、ちょっとやってみる。最初にティーポット置いたときは問題なかったから
大丈夫だとは思うが・・・。ただし、微妙に動いてる、とかはありそう。
しかし意外とたくさんの人に興味持ってもらってうれしいです。
このスレ、役に立つ情報は多いながらも書き込み自体は少ないから・・・。
完全に業務で行うハイエンドな話題だけじゃなくて 個人レベルで挑戦してみたってのも面白いっすね。 数年後には趣味用のお手軽簡単なマッチムーブソフトとか 低価格で登場してきてもおかしくない気がするけど。 私も挑戦してみようかな…
趣味用ならVoodooとかIcarusでも現状十分すぎる。 BoujouとかSyntheyes知っちゃうとあれがないこれがないと欲が出ちゃうけど。
Syntheyesは十分趣味レベルの価格でしょう Boujouとかは完全に業務用だけどさ
ところでトラッキングソフトの略称をスレで統一してみませんか。 BoujouとかSyntheyesとかVoodooを打つのが面倒じゃね? あんまり書き込み無いから略すまでも無いとか言われるとそれまでなんですが。
マッチムーブソフトもユーザー多ければ自然に略して呼ばれるようになるのかもね。 あえてこのスレでオリジナルな略称考えても、 実はBoujouとかバリバリ使って仕事してる人の間ではすでに略称が存在している気もする。
226 :
名無しさん@お腹いっぱい。 :2009/02/27(金) 23:31:45 ID:0ggkTMvv
まだまだユーザが少ない状況なので 略称にしてここが探し出せなくなるのも問題ではあるな。。。。 Bj、Syn、Voo わかんねぇ。。。。 ユーザが増えていくまでは間口を広く取っておいた方がいいとおもう。
略語にするメリットがあんまりないと思うな。 そのままでいったほうが後で調べる時には便利だろうし
映画とかでBoujouばりばり使ってるけど普通にBoujouって呼んでるよ。 CG班や合成・撮影班の人が絡むところでも出る言葉だし略称なんてあると 伝わらない人がいるし良いところなんてない。 SyntheyesはBoujouしか使ったことない人が「今やすいのあるんだよねーシンセサイザーだっけ?」 とか間違った呼び方されることあるがw
読み方の問題じゃなくて記述の仕方についてだろ ・・・ところでSyntheyesは「シンスアイズ」って読んでるんだが合ってんのか?
ブージュー(Boujou)か ブードゥー(Voodoo)になんか似てるな ホビーユーザーでもちろん触ったことも無い自分は ボウジョウ(Boujou)と読んでた 口に出す機会がなくて本当によかった
Boujouが出始めた頃って仕事の会話の中で「ブージュー」って 口にするのが何故か恥ずかしかった。フレンチっぽくて。
ブージューなんだ。 勉強になった。 ズィーブラッシュみたいなものか。
234 :
209 :2009/03/01(日) 23:32:29 ID:l0ixO0Uw
>>234 ワロタw
実写と合成する時に、実写の太陽光を受けて出来た影の中を
CGが通る場合、CGの影が、実写の影と2重になって濃くなってしまうけど
こういう影の部分を自然にする方法ってあるのかな?
と思ってよく見たら、車落ちる前に一瞬影切り替えてる?
それともそういう機能あるのかな?基本?
コンポジットソフトでマスク切れ
237 :
名無しさん@お腹いっぱい。 :2009/03/02(月) 02:45:31 ID:HX+qd0DK
>>234 こっちに書くのかよくわからんけど
駐車場の動画はこりゃだめでしょう。
カメラが移動してない。
発信の方も前半のパンが問題なんじゃないですかね?
150フレームあたりをスタートにすればAUTOでも大丈夫っすよ(shotを編集でスタートフレームを変える)。
全体をやりたい場合はどうしますかね・・・・。
後半だけ解析して前半のショットとはマルチショットトラッキングで
合わせこむとか?
238 :
名無しさん@お腹いっぱい。 :2009/03/02(月) 02:50:37 ID:HX+qd0DK
>>235 影をうける/うけないの設定をするとか
地面だけ車とは別レンダにするとかじゃね?
マスク切りは間違いだろ
239 :
名無しさん@お腹いっぱい。 :2009/03/02(月) 04:45:31 ID:FbdB1vx0
>>238 影素材を分けてレンダー+実写素材の影マスクを切るが正解だと思うよ?
>>235 の文を良く読みなされ
地面に受ける影だけレンダリングして
実写の落ちてる影の部分マスク切って上手く重ならないようにするって事だよ
建物の影に入って日光の影が遮られてるはずなのに車から落ちる日光の影をそのまま乗っけると二重になるだろ
241 :
209 :2009/03/02(月) 12:05:10 ID:MqQTZzDL
>>218 固定物は植物の方でやりました。スキッドマークをしようと思ったけど、
落とし穴のネタを思いついちゃったから、新しいシーンの方をやりたかったもので。
奥の木は問題ないと思いますが、手前の植物はずれてますね。残念。
>>235 本来だったら影素材の書き出しでしょうが、今回はそういうことをせずに済みました。
細かいことは向こうに画像付きで。大してことは書いてないけど。自作動画に関してはむこうで。
>>237 あー、そういやそうか。カメラが移動してないとだめだったか・・・。了解です。
まずは移動シーンを完全にできるようにならないと。前進するだけでも
失敗してますから・・・。今回はその動画消してしまってたんだけど、また撮影して
アップしてみます。
>>234 失敗ショット、見ただけで試してないから何ともいえないんだけど
逆再生にしてトラッキングしても駄目でしたか?
俺の場合一度やって駄目だったら、まず逆再生をトラッキングかけてみます。
流れが逆になると結構追っかけてくれたりするので。
それでも駄目なら、エリア限定して手動でトラッカー追加。
243 :
名無しさん@お腹いっぱい。 :2009/03/02(月) 21:43:48 ID:HX+qd0DK
やべ、奥の木言われるまでCGって気づかなかった・・・・。
オレも気づかなかった よくできてるなぁ
245 :
名無しさん@お腹いっぱい。 :2009/03/02(月) 22:06:34 ID:HX+qd0DK
スカイライト+太陽用キーライト一発って 反射なければ意外となじむよね。
246 :
名無しさん@お腹いっぱい。 :2009/03/03(火) 01:27:05 ID:FCKBBwkm
しかし、車がもっとHDRIのリアルなライティングで 実写っぽかったら、マジ笑える気がするよ。
>>234 無いものを足すだけじゃなくてあるものを消すのも結構自然にできるんだな
感動した
今見返してやっと分かった。 ていうか奥の方は女の子しか見てなかったことに気付いたw
Syntheyes日本語マニュアル順々に日本語化されていってますね。 以前より訳された部分が増えていて有り難いっす。 感謝!
251 :
209 :2009/03/03(火) 14:20:34 ID:HR+inPHe
奥の木の反応はうれしいですね。一見自然で、でも明らかにおかしいと思えるように、 ってことでどこに置くか迷いました。 フォトリアル車はやるつもりです。今回は適当にしかやってないけど、次は反射をきちんと入れて 反射する対象も用意してやりたいと思います。本来だったら道の周辺の写真を撮ってそれを反射 させるとかしないといけないんだと思います。合成のプロがどうやってるのかは知りませんけど・・・。 そういうのもやってみるぜ。
チュートリアルというか講座ですね。
>>251 周りの反射素材は、どりあえず、見えてる範囲を適当にモデリングをして、
それに元ムービーをカメラマップするだけでもそれっぽくはなると思う。
まあ、空とかカメラの背後とか、カメラから見えない範囲はどうしようもないけどね。
とても基本的な事ですが、どなたかお教えください。 SynthEyesにて、解析と軸設定を行っただけでは 3Dソフトにエクスポートした際、寸法が現実世界と異なってしまいます。 予想なのですが、これを正すには映像の中で寸法の分かっている要素を SynthEyes上で設定するなどし、解析された空間全体の寸法を正すといった 作業が必要なのでは??と思うのですが、その方法がわかりません。 ヒントでも良いのでお教え頂けると幸いです。
>>255 寸法の合わせ方はチュートリアルが確かあったと思うけど、
俺は適当にSEから書き出したシーン全体にスケールをかけて合わせてる。
1ユニットを1mとか適当に決めておけばいいだけだし。
257 :
名無しさん@お腹いっぱい。 :2009/03/03(火) 22:17:09 ID:qq9bbnKd
SEになったんだ。。。
258 :
名無しさん@お腹いっぱい。 :2009/03/03(火) 23:44:12 ID:FCKBBwkm
>>250 傍観してないで翻訳に参加して・・・・。
>>257 システムエンジニアorサウンドエフェクト
意味が通じてれば何でもいいよw
これからCG始めようとしている俺からしたら、ここの住人みんなすごいよ・・・ blender、メタセコ、modo、mod、lightwave、mayaple、gmax、なにから始めたら皆さんみたいになれるのでしょうか。
>>265 なるほど、スケールで合わせるって手もありますね。
ただ、合成するCGオブジェクトのサイズがリアルな必要がある場合は
ちゃんと寸法が分かった方が良い気もします。
あれから色々と調べてみたら一応、方法が分かりました。
2007版で日本語訳マニュアルのSize Constraintsの項に載ってますね。
http://geino.sakura.ne.jp/syntheyes/manual_jp/SynthEyesUM_jp.htm 要約すると…
距離の分かっている2つのトラッカーA・Bがあるとして、まずAを選択、
次にALTを押しながらBをクリックするとBがAのターゲットとして設定され、
座標パネルのDIST欄がアクティブになるので距離を入力。
その後、解析(ソルバ)パネルの"Go!"を押すと再計測して正しいサイズになる
てな感じです。もっと良い方法があるのかな…?
>>258 英語本当に苦手すぎて…私が参加したら酷い事になりそうです
263 :
名無しさん@お腹いっぱい。 :2009/03/04(水) 07:51:20 ID:Z3l0mZ9a
>>262 ああ、そう使うのか。
意味わかってなかったw。
なんとなく正解っぽいよ?
264 :
名無しさん@お腹いっぱい。 :2009/03/04(水) 13:01:12 ID:qkvj2xGy
原文残してウエブ翻訳のコピペでも全然オッケー
>>261 このスレにいる人って映画やCMやってそうなプロが多そうだから、
初心者が趣味で3D始めるなら他スレやMOMOみたいな所のが良いのでは。
266 :
261 :2009/03/04(水) 16:47:50 ID:Vk2tOPyu
>>265 いまは写真のレタッチの仕事をしています。中学の頃からILMのような仕事がしたいと思いつつも今は写真の仕事をしています。
しかし、35ミリデジ一眼でHD動画が撮れるようになってから、段々と「これからはやはりムービーをいじれなければならない」と思うようになり、MACからWINにPCを買い替えました。
仕事はとりあえず1年続ける、その間にCGを勉強して、1年後に専門学校に通おうかなと思っています。
趣味でなく、ゆくゆくは仕事でVFXをしたいんですが、ここまで勢いできたため今少し躓いています。
ゆくゆくはMAYA、MAXにしたいんですが、今は、練習ということでフリーか安いソフトで練習したいと思ってます。
でもどれがいいのかわからず…
このスレの方が現場の人達が多そうなので質問しました。
スレチスマソ
3Dの実写合成全般を本気でやろうとするなら ●フォトリアルな3DCGが作れる。 ●映像に対する知識の習得(撮影方法や映像のフォーマットとか) ●合成ソフトを使って実写とCGを馴染ませられる技術。 大雑把にこんな所でしょうか。 「実写合成の仕事」と言ってもCG側に特化したり(マット画とかもあるし)、 コンポジット側に特化したりと色んなアプローチやポジションがあります。 両方を極めるのは中々困難で長い道のりだと思いますので、その辺も考えてみてはどうでしょうか。 3Dソフトはそれぞれ癖があるのでまずは体験版で触ってみるのが良いでしょう。 専門学校は独学で習得出来るレベルと大差無い事も多いです。設備の良い所は学費も結構しますし。 ゼロから始めてどうやったらピンポイントにこの仕事に就く事が出来るのかは 分かりません。(人生のタイミングや人間関係もありますし) 頑張ってください。
268 :
名無しさん@お腹いっぱい。 :2009/03/04(水) 22:24:54 ID:qkvj2xGy
ど素人もいると思うよ。 映像の仕事なんかしたことない奴が翻訳とかしてるんで要注意w 半年くらいの独学にすぎん。
269 :
名無しさん@お腹いっぱい。 :2009/03/05(木) 00:14:06 ID:qUfzlsLN
>>254 「見えてる範囲を適当にモデリングをして、それに元ムービーをカメラマップ」
ってもうちょっと具体的に聞きたいんすけど、
まわりの壁とか道とか建物を箱庭みたいに荒っぽくモデリングして
ムービーの映像から抜き取った素材をテクスチャとして貼りこんで
その箱庭をCG車のボディに反射させて反射素材として使うって解釈で正しい?
(車の移動によって変化する反射を表現)
空の写りこみが欲しいから環境全体は空部分のあるHDRI環境で用意するとして
その場合、周りの反射素材の箱庭はHDRIで作る必要はないのかしら?
・・・なんか的外れたこと聞いてます?
素人なもんで・・・・。
>>269 254じゃないけど、その解釈で合ってると思います。
箱庭部分をHDRで作る必要は無いですね。
既にカメラマップした箱庭オブジェクトからGI・FGは計算されますし。
271 :
名無しさん@お腹いっぱい。 :2009/03/05(木) 01:42:33 ID:qUfzlsLN
>>270 ありがとうございます。
カメラマップした箱庭オブジェクト自体を照明する光源は
環境となるHDRIになりますよね・・・?
箱庭オブジェクトはそのままでOKですか?
それとも自己発光100%とかにしなきゃダメでしょうか?
すいません
GIはグローバルイルミネーションで
FGはファイナルギャザリングでいいんすよね・・・?
(一応確認)
272 :
名無しさん@お腹いっぱい。 :2009/03/05(木) 02:22:30 ID:qUfzlsLN
>>271 に追加
「元ムービーをカメラマップ」って
どこかの1フレームを選んで取り出ってことですよね?
動画そのものをテクスチャ素材としてマッピングってできないですよね?
周辺物も時間変化がある場合はそれがベストではあるんだけど・・・
方法が思いつかない。。。無理だよね?
カメラトラッキングちゃんとできてるならできるよ トラッキングしたカメラからオブジェクトに連番テクスチャを投影 よっぽど合成がシビアなショットでもない限りやる意味無いが
274 :
名無しさん@お腹いっぱい。 :2009/03/05(木) 03:08:12 ID:qUfzlsLN
あ、そーか、カメラ位置を割り出してるんだから カメラマップなら動画そのままでピタリあうんだ。馬鹿だな。。。。 しかし反射するのはカメラ方向とは逆側からみた面すよね・・・。 (だから大体なのか・・・・) >よっぽど合成がシビアなショットでもない限りやる意味無いが やっぱそういうもんすか? (それがもっとも有益な情報な気が。感謝)
275 :
名無しさん@お腹いっぱい。 :2009/03/05(木) 03:29:02 ID:qUfzlsLN
GOOGLEストリートビューから環境マップ作成するプラグインとか 誰か作って
>>271 映り込みや光源代わりにカメラマップした箱庭オブジェクトを使う場合は、
発光マテリアル扱いですね。
すでに現実世界のライティングがされた陰影のあるオブジェクトになってますので
わざわざCG空間でライティングをしなおす必要がありません。
何の為にどういった使い方をしたくて箱庭を置いたのか考えてみると分かると思います。
カメラマップに連番ファイルを適用する事もあります。
基本的に実写合成といっても「違和感がない」「現実っぽく」見えればいいだけの事です。
あまり難しく考えずに色々と試してみると面白いと思います。
>>276 の補足ですが、
合成するオブジェクトや実写素材に対してさらに影やハイライト
の調整をする場合は、それ用の素材をCGで作る必要があります。
細かくやり込もうとすれば素材はジャンジャン増えますw
SynthEyesマニュアルの日本語訳ってかなり頻繁に更新されてるのね。感謝! 訳す順番ってどういう基準なんだろう。手動のトラッキングチュートリアルが欲しいぜ。
279 :
名無しさん@お腹いっぱい。 :2009/03/05(木) 17:17:50 ID:qUfzlsLN
>>276 >>277 多謝!!
マジで良スレ。専門学校以上の内容になってきている気がする。
ふと思ったんですが
ピカピカのCGロボットが実写の人間と会話する
なんてのを作る場合、写りこみに凄く困る気がするんだけど、
箱庭のアプローチじゃつらいっすよね?
皆さんならどうしますか?
>>267 ありがとうございます。
とりあえずCGに慣れようと思います。
現時点ではLIGHTWAVEかMAYAPLEで作業を進めて行きます。
勉強の意味も含め、Syntheyesの翻訳参加させていただきます!!
281 :
名無しさん@お腹いっぱい。 :2009/03/05(木) 18:16:32 ID:qUfzlsLN
>>278 >訳す順番ってどういう基準なんだろう
そりゃ自分の知らないとこ、知りたいとこでしょ。
既に自分が知ってる所はいらないもん。
>>278 Wikiにさ、PayPalのDonate機能つけて
投げ銭させてほしいよねw
ま、実際にやるとなると管理とかいろいろ大変だろうけどw
でも実際に訳してる人になんか利益ないと申し訳ないぜ
283 :
名無しさん@お腹いっぱい。 :2009/03/05(木) 18:34:14 ID:qUfzlsLN
ありがたいお言葉。 そのうちamazonアソシエイトかgoogleアドセンスでも貼ろうかな。 多少でも他に訳してくれた人がいるので悪いかなって思ってたんだけども。 VFX関係の良本へのamazonリンクとかなら有益かな。 このスレ本関係の情報も欲しいね。
>>279 撮影の時に映り込みに使えるように人物を別アングルで撮ります。
CGで人間の演技まで起こし直すなどという手間をかければ出来ますが
(やりたくありませんが)、初めから想定していたのであれば回避出来ます。
カメラマップは使い方を知っているとかなり便利ですが、用途に限度があります。
単純にカメラ正面からの投影ではありますが、投影位置から数度程度はカメラが
回り込む動きをつけたりもできます。(投影素材のアングルや解像度次第ですが)
基本的に映画やCMでは撮影に入る前に合成で必要になる素材をあらかじめ想定して
撮影時には後の作業がやりやすいように可能な限り素材を押さえておきます。
とにかく準備が大事です。
285 :
254 :2009/03/05(木) 18:53:43 ID:nLsC9D+q
254だけど、知らん間に話が進んどるww
>>279 一番手っ取り早いのは、会話してる人をロボットの位置から撮影して、
それを適当なダミーにマッピングしたものをロボットに反射させる。
カメラが動いてると面倒くさいけどね。
286 :
254 :2009/03/05(木) 19:07:19 ID:nLsC9D+q
かぶった orz
287 :
名無しさん@お腹いっぱい。 :2009/03/05(木) 19:53:51 ID:qUfzlsLN
ニュースゼロで「ヤッターマン」のCG特集してるね
一瞬でオワタw
290 :
名無しさん@お腹いっぱい。 :2009/03/06(金) 01:55:06 ID:BQq0w1zJ
フォトリアルなVFXで使われるレンダラーって 何ですかね? CMなんかじゃMAX+Vrayも多いって聞くけど・・・・。 CGアプリ次第か・・・。
292 :
名無しさん@お腹いっぱい。 :2009/03/06(金) 03:07:35 ID:BQq0w1zJ
ハリウッドの大手だとレンダーマン 次点でメンタルレイ デジタルドメインがMAX使ってたと思うけどメインのレンダラーはメンタルレイだったはず ベンジャミン・バトンは凄いクオリティだったが何で作ったのかな? 向こうの大手では映画に合わせて大規模なツール開発・パイプライン整備したりするのと レンダーマンを使いたいってのでMAYAが選ばれる事が多いけど 会社は日本以上に無数にあるし余り名前が上がらないHoudiniも使われていたりする 日本でVFXやってる大手はMAYA+メンタルレイorMaya Softwareが多い レンダーマンや同系列のレンダラーの3Delightなどを導入してたりする所もあるが数はそう多くない 中小だとMAX+Vrayの割合が高めかも エフェクトだけMAX+色んなプラグイン、それ以外MAYAってのも結構ある
294 :
名無しさん@お腹いっぱい。 :2009/03/06(金) 03:37:35 ID:IRBbvgmI
>>292 これは何のソフトでトラッキングしたのですか??
296 :
名無しさん@お腹いっぱい。 :2009/03/06(金) 12:46:17 ID:EnFJkXTN
292はSynsEyesっす。
やりたいのは二つ。
ダッシュボードの上でなんかキャラが遊んでるってのと、
対向車線にへんなものがたくさん走ってるってシーンです。
>>292 え、これもSynsEyes?
>>291 SynthEyes初心者だけど自分もやってみたよ。
オートマチックトラッキングだと分析にやたら時間かかって
上手くいかなかったので、手動で1フレームずつトラッキングしてみたのだけど…
なぜか300フレームで計算がストップしちゃうみたいで、そこからカメラが動かないんだ…なんでかな。
↓SynthEyes2008用プロジェクトファイル(動画は291さんのを使用)
http://3dcg-yotuba.com/uploader/src/up0111.zip >>292 こんな風にトラッキングできたら自由自在っすね。
凄い…これ、ロトスコープ(1フレづつ手動追っかけ)ですか??
あ!全然勘違いしてました…恥 SynthEyesのロトスコープって手動って意味じゃなかったのですね… トラッキングに不要な要素を別で用意したアルファチャンネルや SynthEyes内のスプラインでマスクするって事でした。 今度はロトスコープ+オートで挑戦してみます
300 :
名無しさん@お腹いっぱい。 :2009/03/06(金) 19:42:15 ID:EnFJkXTN
アニメーションスプラインでダッシュボードを範囲外に切るようにしたよ?適当だけどね。
301 :
名無しさん@お腹いっぱい。 :2009/03/06(金) 20:08:25 ID:EnFJkXTN
ちなみにロトスコープ以外はオート一発。マシンパワーにも依存するのかなぁ。
レンダリング速度には関係しても、解析結果には変わりは無いでしょう。 素材に圧縮がかかってたりすると精度は落ちますが。
ところでsyntheyeって登録のメールってどのくらいで帰ってくる? 今朝買って落として最初の起動のメール送ったんだが帰ってこない
304 :
名無しさん@お腹いっぱい。 :2009/03/06(金) 22:38:57 ID:BQq0w1zJ
292です。
>>302 たぶん298は時間かかりすぎてあきらめて止めたと思われる。
マシンによっては永遠かと思われるほどかかるんすよ。
Pen4とかだと20分くらい終わらないと思う。
>>297 ダッシュボードと道路っつーのが難しいな。
道路だけは例の通りアニメーションスプラインで切ってAUTOで終わるんだが
問題はダッシュボードで、こいつはカメラと一緒に「移動」するオブジェクトとして
認識してくれないと困る。つまりオブジェクトトラッキングになる。
ところがダッシュボードはほとんどトラッカーが取れないときてる。
どうしたもんかね・・・。
>>303 会社の稼働日なんで丸1日あれば来ると思うよ。
あっちは10時間ずれだから今朝買ったなら向こうにとって夜で
今やっと朝の8時だ。
>>304 この動画で試してはいないけど、
ダッシュボードにトラッキングポイントが出るように
素材の閾値を変えてみたらどうでしょうか。
トラッキングセッティングの項目にあったと思います。
あんまり上手くいったことないですがw
>>303 手動返信みたいだからタイミング次第でちょっと時間かかるかもね。
俺の下手糞な英語でも丁寧に返事くれるんで助かってます。
306 :
名無しさん@お腹いっぱい。 :2009/03/06(金) 23:56:44 ID:BQq0w1zJ
Feature PanelのAdvancedでトラッカー化の精度を変えるんだったかな? でもこれは無理だと思う。 道路だけなら30分なんだがな。。。。
307 :
名無しさん@お腹いっぱい。 :2009/03/07(土) 00:19:11 ID:d/OevHGn
308 :
298 :2009/03/07(土) 01:54:36 ID:BgtQIvKg
>>304 恥ずかしながら、想像どうり途中で計算止めちゃいました。しかも開始3分程度で…
しかし、ロトスコープによるマスクとオートを組み合わせてみたら
道路は比較的綺麗にマッチムーブしてくれました。
ただ、292でUPして頂いた動画のようには綺麗にいかず、色々いじってます。
まぁ地道に挑戦してみますよ。
310 :
名無しさん@お腹いっぱい。 :2009/03/07(土) 03:26:57 ID:d/OevHGn
>>293 ありがとう。
メンタルレイってそんなに使われてるんだ?
しらんかったです。
何がいいんだろうか・・・・?
modoのレンダラは業界では使われてないのかな? 結構きれいだと思うけど
312 :
名無しさん@お腹いっぱい。 :2009/03/07(土) 03:49:31 ID:d/OevHGn
VrayはGIアニメのちらつきが問題だったけど今はないし。 メンタルレイはMAXについてくるのがでかいのかな?
313 :
名無しさん@お腹いっぱい。 :2009/03/07(土) 03:56:22 ID:d/OevHGn
PRManやmentalrayが使われてるのはシェーダー書いたりレンダラー側で色々できる部分がでかいんだろう mentalrayは今じゃXSIMAYAMAX全てに標準搭載されてるけどそこまでやる所ならスタンドアロン版も使ってるだろうし そういう事ができないならお手軽なVrayとかで十分
315 :
名無しさん@お腹いっぱい。 :2009/03/07(土) 12:58:40 ID:d/OevHGn
今って合成用のフォトリアルCGの場合、GIがあたりまえ?
>>315 そんなことはありません。
レンダーパスを分けて合成時に調整するのは普通だけど
レンダラーや計算方法を固定するなんて事はありません。
早くて有効な手段をその都度選択するだけです。
最終的に馴染めば何だって良いんです。
>>313 おお!アドバイスありがとうございます。
今日明日はSynthEyes触れないので週明け早速試してみます。
ワイコンとかつかった映像ってトラッキングしにくくなる?
>>318 歪むからそのままトラッキングはかなり厳しいので歪み補正かける必要がある
じゃないとほとんど合わないだろうな
ディストーションが目立つぐらい広角(_数分かってれば補正で) ズーム有り(boujouでも厳しい時は多い) 速すぎる移動(合成カットなら編集で可変を選択) コントラストの無い絵(マーカーが無いと何も取れなかったり) ↑ どれか一つでも当てはまれば厳しくなるよ
322 :
名無しさん@お腹いっぱい。 :2009/03/08(日) 11:46:51 ID:d7GE7uxi
歪み補正ってなんのソフト使ってます?
>>321 これは凄いね。
自分が同じ事やろうとしたら撮影して合成して、結局うまくいかず撮影しなおして
もういちど合成しての繰り返しで永遠に完成しない気がする…orz
324 :
名無しさん@お腹いっぱい。 :2009/03/09(月) 02:02:39 ID:H/N5OghC
>>323 同意だけど
たぶんもっとずっとすごいことをやろうとしていたが
妥協しまくってこの結果のような気がするんだよな。。。
妥協しようがなんだろうが 一本完成させるだけの実力と努力はすごいと思える
そりゃ仕事だから当たり前だろう・・・
ポスプロに二年て、趣味じゃないとしたらえらい遅いぞ? CG部分は微妙だし、全体的に馴染みもイマイチだ 会社の規模にしては良くやってると思うけど、 こういうの見るとハリウッド大手のすごさを改めて思い知るな
趣味の自主映画じゃないの? 演出志望だけどまだ演出できてないプロがその足掛かりの為に 2年構想してポケットマネーで作ったとかさ。
329 :
名無しさん@お腹いっぱい。 :2009/03/09(月) 09:44:47 ID:qLeSSvBi
新参者の質問なんですが voodooはどこからDLできるのでしょうか? なんか日本語マニュアルのページから開発した大学のページにとんでもどこからDLできるのかさっぱりで・・・
親切やのう
333 :
名無しさん@お腹いっぱい。 :2009/03/09(月) 19:21:08 ID:yG2mvvZ2
しかしマッチムーブのブームが来ているのか?やっぱり皆やりたかったことなんかな?
>>333 手に入りやすくなったからねぇ
3DCGやってれば実写合成をやってみたくなる人は昔から多いでしょw
Blenderなどの3Dソフト、マッチムーブソフトのVoodoo そして動画がデジカメで撮れるなど、低コストでやれるようになってきたのも一因かもね。
336 :
名無しさん@お腹いっぱい。 :2009/03/10(火) 00:41:28 ID:ortjtLbE
2Dの合成はAfterEffectなんかがあって本も資料も多いけど 3Dの合成はなかったもんね。。。日本語のアプリはまだないし。 3DCGでモデリングする人も、実写をPCで編集する人も多いのに 2つをつなぐ手段が無かったからねぇ・・・・。 実写の空間に自作のCGが出現した時は、「ぞわっ」とした。 たぶんCGやってる人の多くが存在すらしらんのと違うかな。
337 :
名無しさん@お腹いっぱい。 :2009/03/10(火) 00:44:36 ID:/aoWQr43
あのニコ動の奴で知った人も多いだろうね。ボーカロイドとかそういう有名な要素ないわりに伸びてるようだし。 あれでマッチムーブwikiが紹介されてたから、それ見て興味もつ人がいると思う。 まあ試すことは簡単でも、うまく作れるかどうかとはまた別の問題だと思うがな。
339 :
名無しさん@お腹いっぱい。 :2009/03/10(火) 02:07:18 ID:ortjtLbE
実写動画の入手が難しいな 自分で撮って公開するとストリートビューみたいにクレーム付けられそうだ かといって写ってる家一軒一軒回って許可取るのも現実的じゃないし ドラマとか映画はちゃんとビラ配って「映されたくなかったらここに電話してね」ってやってるらしいね
>>340 売るんじゃないなら別にいいんじゃない?
自分の勉強用とか就職用とか利益目的じゃなきゃおkだと思う
ま、社会的に写っちゃいけないものが写ってたらアレだけどさw
そうだ!映ってる建物を全部CGに差し替えればいいんだ!
そうだ!そうだ!
商用じゃなければ気にしなくていいです
何で今更・・って気もするが・・
347 :
名無しさん@お腹いっぱい。 :2009/03/10(火) 22:03:34 ID:TgCVT2Xa
携帯の動画で撮ってマッチムーブしてた奴もいたな。
>>347 携帯をコマ撮りかなんかして動かすのか?
動画っていってるから特段おかしいことはないと思うが・・・
350 :
名無しさん@お腹いっぱい。 :2009/03/10(火) 23:28:37 ID:ortjtLbE
実写とCGを合成する場合、HDRIってどの程度使うんだろう。 @使わない。スカイライトのみとか。 AHDRI照明をするが、適当な別の場所のHDRIで照明してカラコレだけ行う Bミラーボールを撮影して現場のHDRIを自作する C魚眼レンズ撮影で現場のHDRIを自作する(Bとあんま変わらん) DHDRI撮影可能なカメラをレンタルするか業者に頼む E他 さて最も多いのはどれ? また手法の選択の判断基準は? 予想ではAか もしくはBでもHDRIじゃなく反射マップとして使うだけとか。
そりゃシーンによって違うだろ 広場だとか住宅街だとか夜景だとか光源は全部異なる
HDRIが無い頃からちゃんとした実写合成はされてます HDRIが無ければ合成用のCGが作れないとか思ってるの? 映り込みが詳細に見えるというわけでもなければHDRIが 無くたってCG作れるよ 手法をもっとフレキシブルに考えた方が良い
要求されるクオリティにもよるわな。 現場でHDRI用に撮影しといた方がトータルの作業時間が短くて済むってこともある。
354 :
名無しさん@お腹いっぱい。 :2009/03/14(土) 13:01:32 ID:4FNeVyyq
Syntheyes翻訳疲れた・・・・ やってもやっても終わらない・・・・。 誰かリファレンスだけでも手伝ってくれまいか・・・。 ・・・三脚モードのHOLDボタンの意味がやっとわかった。
まだ買ってないけど、いつか買おうと思ってます。 英語まったくわかんないっす…、ここの人達の姿勢には実に頭が下がります…。
ううむ、私も英語はなあ・・・。いつもほんとにお世話になります。 とりあえず、前回よりもうちょっと詳しいマッチムーブの説明動画でも作ってみようと思います。
357 :
名無しさん@お腹いっぱい。 :2009/03/15(日) 01:55:08 ID:9FyegzIx
そうねぇ、オブジェクトトラッキングにでも挑戦してみてくれると 動画のバリエーションとしては面白いかな
358 :
名無しさん@お腹いっぱい。 :2009/03/15(日) 03:14:20 ID:9FyegzIx
361 :
名無しさん@お腹いっぱい。 :2009/03/15(日) 22:33:32 ID:9FyegzIx
>>359 車で移動している時点で三脚モードじゃないですけど
これはダメです。
理由は撮影対象(山)が遠すぎる。移動はしているけど移動による視差が発生しない。
一応手前の海は視差がありますが、固体でないのでトラッキングできない。
最も手前のガードレールは一瞬しか映らずライフタイムが短かすぎる。
AUTOだと失敗するでしょうね。
もしも手前が海ではなくて街だったら多くのトラッキングポイントがあるので
成功したんじゃないですかね。
遠すぎるトラッキング対象は三脚モードの時と同じで3Dにはならないです。
http://www.ssontech.com/content/warehouse.htm なんだかトラッキングできない見本みたいな映像ですね・・・・。
>>361 そうですか、やはりだめですか・・・・。海からなんか出てくる動画作りたかったのが。
まだやり方がイマイチわかってないけど、手動を頑張ってみるかな・・・。
トラッキングポイント置いたあとがよくわからんです。
363 :
名無しさん@お腹いっぱい。 :2009/03/16(月) 00:35:41 ID:/SzjQVC7
>>362 手動でも無理だと思いますよ。
FeaturePanelのBlips all Framesを実行してみてください。
海面とガードレールの特徴点がほとんど取れないのがわかります。
364 :
名無しさん@お腹いっぱい。 :2009/03/16(月) 00:56:56 ID:/SzjQVC7
誰かニコ動にSyntheyesのWEBチュートリアル動画をUPして 字幕を付けてくれないだろうか? (怒られっかな?)
本気でトラッキングするなら目合わせでカメラ合うように動かすぐらいじゃないと無理だろうね 仕事だとそういう事が発生するから困る
>>359 みたいな動画も仕事なら何とかしちゃうけどね・・・
予定にないカット使われても「出来ません」が通用しないから困る
367 :
名無しさん@お腹いっぱい。 :2009/03/16(月) 21:13:43 ID:/SzjQVC7
>>359 のようなカットへの
無理矢理なアプローチを考えるのも意義があるかもしれないですね。
それこそ必要な知識かも。
極力手作業なしで。
368 :
359 :2009/03/17(火) 00:59:08 ID:sLhg86yR
369 :
名無しさん@お腹いっぱい。 :2009/03/17(火) 01:10:47 ID:J0CMvIg+
368>> すごいっ!!
371 :
名無しさん@お腹いっぱい。 :2009/03/17(火) 19:19:56 ID:l5cP5Ttf
すげ〜。巨大なモノってインパクトあるな〜!
372 :
名無しさん@お腹いっぱい。 :2009/03/18(水) 01:20:31 ID:HETugeTg
>>368 AEでシャープとコントラストをかけてみたけど
AUTOでトラッカーとれるようになりました?
海の上とか。
なんか結果かわらんです。
AEの使い方悪いのかな・・・。
シャープにした動画も見せていただけると・・・・。
373 :
名無しさん@お腹いっぱい。 :2009/03/18(水) 01:56:58 ID:HETugeTg
夜のシーンで発光体のCGが移動してくるようなショットを作りたいんだけども 発行体の周りの近景がCGの光でライティングされてほしい。 で、思いついたのが、同じ場所を昼と夜で2回撮影しておいて、 夜のシーンをトラッキングして箱庭を作って 昼のシーンもトラッキングしてドッキング。 夜のシーンの箱庭に、昼の映像をカメラマップでマッピングしてやると なんとなーくできそうな気がするけど 夜のCGショットって昔からあるからそんな回りくどいことしてない 気もするな・・・・。
374 :
359 :2009/03/18(水) 02:56:31 ID:CavlRAfq
>>372 シャープにした奴自体は容量の関係で消してしまいました。
359でアップした動画は圧縮してあるので、あれでは多分無理かと。
こちらでは撮影した生データ(AVCHD)をそのまま使いました。フルHDですので細部が違いすぎます。
しかもサイズがめちゃくちゃでかくなりますのでアップできるようなものでもありませんし。
すいません。
375 :
名無しさん@お腹いっぱい。 :2009/03/18(水) 23:47:08 ID:HETugeTg
>>374 なるほど。理由がわかった。
ところでずれる理由は樽型歪みとちがうかな・・・・。
微妙にあるような気が。
377 :
名無しさん@お腹いっぱい。 :2009/03/20(金) 12:32:03 ID:VJSM/Up7
>>377 英語わからないけど、少し参考になった。ありがとう。
終盤、マイクロソフトペイントで書いた落書きを使う意味がよくわからんけど少し笑えた。
冗談かな。
379 :
名無しさん@お腹いっぱい。 :2009/03/22(日) 18:47:57 ID:oYSpzAB5
381 :
名無しさん@お腹いっぱい。 :2009/03/22(日) 21:34:34 ID:oYSpzAB5
382 :
名無しさん@お腹いっぱい。 :2009/03/22(日) 21:48:43 ID:oYSpzAB5
一応手順の覚書。 オートで解析を済ます →Shot/Image Preparation →車のトラッカーをいくつか選択(固定したい対象) →Translation:Filter Rotation:Filter CutFreq:0.5(これは結果を見ながら調整) に設定 →AUTO-Scale押下 →OUTPUTに切り替え、SaveSequence あたりまえだがあまり補正量が大きいと解像度が落ちていくのが難点。
>383 英語の発音としては、エクスポートよりイクスポートの方が近いかも。
別にどっちでもいいのでは・・・。 非常に参考になった。ありがと。
カタカナ表記は一応ルールがあるけど強制も統一もされてないんだよな JISとか国語審議会とか意見が分かれてる それでもエクスポートはエクスポートだが
nurbsをナーブスかナーバスのどっちなんだ、というのもあるな 俺はナーブス派だが
388 :
名無しさん@お腹いっぱい。 :2009/03/24(火) 00:19:41 ID:PCw10YSi
389 :
名無しさん@お腹いっぱい。 :2009/03/24(火) 02:13:33 ID:37J5dxP4
箱庭+カメラマップやったけどうまくいかんス・・・・。 写って無い所はいかんともしがたい。。。 適当なHDRIをカラコレで誤魔化した方がよほどいい結果になる。。。。
>>381 その解像度が問題ですねー。フルHDで撮影、3Dを合成、その後スタビライズして
適当な大きさにトリミングできればいいのでしょうが・・・。
まずは撮影自体の質を上げたいですね。プロは歩き方とか練習してたりするのかな。
391 :
名無しさん@お腹いっぱい。 :2009/03/24(火) 07:51:36 ID:37J5dxP4
プロはドリーかステディカム使うだろw
少し前にこのスレで質問させてもらった京都きもの友禅のCMのメイキングが 今月のCGワールドにのってるよ!
これ面白いねー。 自分の恐竜映画作れたら楽しいだろうな
394 :
名無しさん@お腹いっぱい。 :2009/03/27(金) 22:06:18 ID:XeZduyt1
>>380 しかしCGがよくなじんでますよね。。。。
Vray+AEでカラコレでしょうか?
そんなに簡単にああいう感じには持って行けないと思うんですが。。。。
マッチムーブ以外の環境や設定を明かしてはくれませんでしょうか?
395 :
名無しさん@お腹いっぱい。 :2009/03/28(土) 01:08:53 ID:vxalpr4Q
おお良く出来てる! 機体のテカリがすごいリアルだなー
397 :
名無しさん@お腹いっぱい。 :2009/03/29(日) 03:38:09 ID:++GCnkln
ぐああ、Syntheyes翻訳終わってないのに2009が出てしまう。。。。
398 :
名無しさん@お腹いっぱい。 :2009/03/29(日) 18:23:46 ID:++GCnkln
!!ホントだ紹介されてる!! これでますますSynthEyesユーザーが増えそうですね。
400 :
名無しさん@お腹いっぱい。 :2009/04/03(金) 02:46:38 ID:AGy4uQrn
京都きもの友禅のCM、柄だけじゃなくバンプマップもアニメーションさせてるのかな。 腕の血管が徐々に浮いて出てくるようなエフェクトって わりと簡単にできそうな気がしてきた。
401 :
名無しさん@お腹いっぱい。 :2009/04/04(土) 03:59:39 ID:jvAnw1YJ
三脚ショットってうまくいきます? やりかたがよくわからない。。。。
402 :
名無しさん@お腹いっぱい。 :2009/04/05(日) 14:54:50 ID:XXOJd6x7
videocopilotは高クオリティAEサイトで有名ジャン
そういやスレだと紹介されてなかったかもね〜 マッチムーブやトラッキングの情報が多かったせいか
syntheyesの数値の単位って何になってるんでしょうか。 2点間の距離を入力しようとしたら単位がわかりません。 edit PreferencesのExport Unitsかと思ったが、なんか違うようだし。
406 :
名無しさん@お腹いっぱい。 :2009/04/05(日) 20:20:57 ID:XXOJd6x7
有名なんだー。しらんかったよ。。。。 2Dトラッキングも結構でてくるから組み合わせる手は アリかもね・・・・。
407 :
名無しさん@お腹いっぱい。 :2009/04/05(日) 22:18:43 ID:XXOJd6x7
出力先のアプリによっては その単位は無意味かもしれない。
Export Unitsであってる気がするけど違う?
>>408 使用アプリはMAXですが、ここを変えたらMAXのシステム単位が変わりました。
ここはインチのままで変えたくないですね。ディスプレイ単位がかわってほしいです。
・・・ひょっとしてだめか?
world sizeの方とか?
CoordinateSystemControlPanelで 3*で座標指定しているなら、2点目のトラッカー(LockPoint)を選択。 デフォルトなら(20,0,0)になっていると思うので これを(200,0,0)に変更してSolverPanelでRefine→GO。 これで全体が10倍になるはずだけどもそういうことではないんだよね・・・・?
>>410 world sizeとは?
>>411 いや、その10倍ってなんの十倍なのかってことです。
一つ目を基準で、二つ目が基準から1mの位置にあるのが分かってる時に
それを指定したいんです。
>>412 システム単位が強制的に変えられちゃうんだ。。。。
スクリプトに
units.SystemType = #Meters の1行があるせいなんだろね。
システム単位をメーターにして
MAX上で20mの長さのBOXを作っておいて
SynthEyesのExport Unitsをメーターにして出力すると
原点からLockPoint(20,0,0)の位置までの距離と
BOXの長さが一致するんで
まんま座標の1ピクセルがシステム単位1mみたいなんだけども。
1m=39.37インチとして
LockPoint(39.37,0,0)にすれば1mになるかな・・・?
カメラ吐き出した後にMAXでスケールかけて補正すりゃ良くね?
そだよね・・・・。 あと、CG側が先にある場合は、SynthEyesはインポートもできるので CGをobjで出してSynthEyesに取り込んで 大きさがあうようにLockPointの値をいじるとかいう手もあるかなって思った。
カメラからトラッカーまでの距離(ピクセル数)を知りたい場合は、 スクリプトのCamera to Tracker Distanceが便利
ローリング(回転?)シャッターが何のことだか分からない・・・ 誰か教えてください><
シャッターを切る際にスリットの開いた回転盤でやっているのが 回転式。これで早いパンを撮影すると映像が伸び縮みするのかな?
>>419 左右方向に振ると -|- が -/- になるんじゃない?
421 :
名無しさん@お腹いっぱい。 :2009/04/16(木) 20:30:24 ID:9U4srLes
>>421 なるほど〜。
記録時にスキャンするから画像が伸びるのか〜!!
勉強になりました。
トラッキングは移動撮影が必要になるから、CMOSカメラだとよろしくないってことかな。
走査線毎に順次シャッターを切るシャッターをローリングシャッターと
いうらしい。
マッチムーブってMaya Unlimitedでもできるらしいね。金ないけど・・・ マッチムーブ専用ソフトと比べてどうかな? Syntheyesくらいの性能があれば文句なしなんだけどな
Mayaに搭載されてるMaya Liveはオートトラッキングが無い トラックポイントも全て手動で追加 精度も低いのでSynthEyesの数倍以上時間がかかると思って良い Boujouぐらいしかマッチムーブソフトが無かった頃は使っていたが今じゃ使う意味無いな
Syntheyesの購入って インディゾーンと直接購入と比べると 2万も差があるんだけど インディゾーン経由だと何か特典があるの?
サポート代と思えば良し。 ライセンスやインストール等でトラブルが起きたときに 英語でやり取りできるんなら直接買えば良いんじゃね
Boujou Bullet2って6万3000円らしいけど同じくらいのSyntheyesと比べてどう? 使いやすい?
桁がイッコ違うからw
431 :
名無しさん@お腹いっぱい。 :2009/04/19(日) 12:23:53 ID:/rs2xL8U
俺はおもっくそ騙されたw 「え そんなに安くなったの!?前はウン十万だったような」と思ってサイトいったら ただただ桁を間違えてるだけだったという
ごめんなさい\(^o^)/ でも買ったとしても、プロ向けだから使いこなすには時間がかかるんだろうなぁ おとなしくSyntheyes買っときます。
Boujou Bullet2は機能制限されてて 設定いじれるところ少ないから簡単だよ。 まぁ、個人で使うのはお勧めしない。高すぎるから 海外だとSilver bulletがでてるのに、日本の代理店がいないんだよなぁ 会社のBulletアップデートしたい
>>432 内容的にはboujouもSyntheyesも大して変わんないよ
使いやすさは慣れの問題だし(それでもboujouのが使いやすいとは思うが)
解析の精度がboujouのが良いな〜ってぐらいで
10倍以上の価格差を考えれば…ねw
boujouは値段なりの精度を感じられる 難しいショットもSEより速くできる そこら辺に200万以上の価値を感じるかどうかだな
>>435 まあ、CG WORLDとか見てても、CM作ってるようなフリーの人はSynthEyesだし、
普通に業務を回す限り、200万以上の価値を感じないってことなんだろうなあ・・・
うちは基本SyntheyesでどうしてもBoujouってときはNWライセンス回してもらってるよ。 規模にもよるだろうけれど何本もBoujou抱えてられるのは大手だけだろうし、保守料もやばいからね。
SynthEyesってボタンを左クリックすると設定だが ボタンの上で右クリックすると設定の削除 shift押しながら右クリックすると全削除のインタフェースになってる ・・・・どういうセンスのGUIなんだよ。。。。。
トラッキングしても制作費を余計に貰えたりしないから困る。 フリーでboujouなんて買える人はいないだろう。 だからsyntheyesでやれる範囲で済ます。 でも編集室だとマッチムーブしてる時間までお金貰えててウラヤマシス;;
440 :
名無しさん@お腹いっぱい。 :2009/04/26(日) 02:29:12 ID:7ooRXXvh
>>440 すごいけど、きっとそのページの他のサービスと同じ価格帯だろうから、高嶺の花だな・・・orz
444 :
名無しさん@お腹いっぱい。 :2009/04/26(日) 11:41:49 ID:7ooRXXvh
ソフト売った方が儲かる気がするけどね。
446 :
名無しさん@お腹いっぱい。 :2009/04/27(月) 02:20:39 ID:B7BAjHEj
>>447 一枚の静止画にしてレタッチじゃない?
結構手間だね
TVの3次元NRみたいに時間変化のない部分を保持すればできそう。 「背景に対して」動いてないってのもこいつなら拾えるよね?
451 :
名無しさん@お腹いっぱい。 :2009/04/28(火) 01:49:28 ID:+z0ldCPj
ごくり…逆転の発想とは言え、よくこんな事考え付いたなぁ…
453 :
名無しさん@お腹いっぱい。 :2009/04/28(火) 02:29:18 ID:+z0ldCPj
マスクが1枚で絶対ずれないって凄いことだよね・・・・。 なんか、動いてない背景が作れるってことは それをキーみたいにして 逆に動いているもののだけを抜き出すことっていうのも 可能になる気がするけど・・・・。 それができればロトスコープはいらなくなる?
mpegがそういう発想だったね 動いてる部分と動いていない部分を分けて考える その技術を応用すれば可能か
>>453 AEの差分キーのこと?
あることにはあるよ
ただ仕上がりの美しさとかを考えるとあんまり信用できるものではないけど
>>447 動画や複数の静止画から、動いている物体を消去するのは古典的な技法だね。
それだけじゃ綺麗にならなかったのをレタッチで消しているけど、
そのレタッチが1枚で済むってのはコロンブスの卵だ。
その筋の人なら車輪の再実装は難しくないだろうけど、特許を押さえられているか?
457 :
名無しさん@お腹いっぱい。 :2009/04/28(火) 07:09:13 ID:ctKlEoMO
おもしろいね、おっちゃんは伊藤高志のSPACYをちょっと思い出した。
>>457 おもしろいな。どんだけ手間掛けてんだ…見てる方まで疲れるぞw
462 :
名無しさん@お腹いっぱい。 :2009/04/28(火) 21:40:37 ID:+z0ldCPj
>>455 ああ、差分キーってあるんだ。へぇ。
>>457 デジハリの今年の卒業生作品じゃなかったっけ?
時間があればいろいろ試して見たいんだけどなー。 趣味だと時間が限られているのが悩み・・
>>461 つい作る手間を考えてしまうので、素直に楽しめないよなw
>>462 自己紹介に、現在ニートって書いてあったのが、泣けた。
こんだけ頑張っても、すくい上げる企業ってないのな。
466 :
名無しさん@お腹いっぱい。 :2009/04/29(水) 01:06:56 ID:lNeQGakH
>>465 だってCGじゃないんでしょ?
そりゃCg業界ににゃ就職できんよw
TV局やら広告、企画の方なら入れると思うけどな これでCG業界入ろうってのは間違いだw
>>468 局は新卒枠あるんだから無理でしょ
広告・企画のほうも人員削減で無理じゃないの?
製作会社に入ろうとしても
ストップモーションしかできないんじゃ、とてもとても…
デッサンなんてできて当たり前だしさ、AEぐらい使えないとお話ならんし…
ソフトなんてツールなんだから今使えなくても覚えればいいだろ。 これを作った根気と、構成を考えた頭が重要 ――なんて悠長なことが言えない社会状況が問題。 育てるという感覚が欠落しているもんな。そりゃ社員に逃げられる。 でも彼の就職先の話はそこまで。 ただこの動画の面白さは、努力の果てに作ったというのが見る側に伝わることと、 実写の存在感だと思う。
つーかなんで
>>457 ストップモーションしかできないって決定してるのw
他の技術だってそれなりにあるでしょ、多分
なんだかなぁ、まずCG業界に入りたいというのが完全な妄想じゃ? そういってたの?その次にAEくらいとか的外れもいいとこ。 みたらこの人、美大の院卒じゃねぇか、芸工出なのでデッサン(しかし この板にはコンプレックスな人多いねぇ)は知らんが、就職しないのは 個人の都合でしょ。
たった今、
>>457 の動画と作者が目覚ましTVで紹介されてたよ。
「話題の動画」らしい。編集はAE使ってた。
日本語でおk・・・
…便利だねこれ。どんな仕組みなんだろう。 原理さえわかれば自作できそうな…
なにやってんだろうと思ったら交通安全とかに使う再帰反射素材?を バックに使うということなのね。
480 :
名無しさん@お腹いっぱい。 :2009/05/05(火) 17:21:36 ID:nlL2l92D
フロントプロジェクションみたいなものね・・・ 今でもスクリーンプロセス使えば抜けを気にせず 一発で合成できるのに 現場のテマヒマ考えたら選択肢から外れるのは当然だろうけど
481 :
名無しさん@お腹いっぱい。 :2009/05/06(水) 02:51:11 ID:SJ5+dn2f
ヌケがいいかどうかよりも背景とライティングの違いからくる 違和感を解消する方法ってないもんだろうか。 現場ではどうしてるんかな。 合成背景と同じようなライティングになるようにできればいいんだろうけども カラコレだけではいかんともしがたいと思うのだが。
背景合成するときは、全合成にしないで近くはセット組んでもらったりしてる。 後は撮影前にイメージ画を作って合わせてもらったり。 まぁ、ある程度理解のあるDir&スタッフとじゃないと無理だけど
撮影する背景の情報をできるだけデジカメなどで撮影、HDRI撮影が可能であるならそれで ってのは当たり前の話で ライティングを実写と全く同じ設定にできたとしても違和感があったりする場合もあるし 後は本人のスキル次第になっちゃうよね
484 :
名無しさん@お腹いっぱい。 :2009/05/06(水) 23:51:22 ID:SJ5+dn2f
実写どうしの違和感の解消テクニックがあれば是非知りたいっす! マッチムーブというより2D合成になるけど知っておいて損はないはず。 このスレに出てきているのは 色味を合わせるカラコレとグレインマッチくらい?
3Dとのマッチムーブとはいえ最終的な合成は結局2D作業な訳だし、 ここでもいいのでは。コンポジションのスレ最近人少ないし… カラコレとグレインマッチとライティング。 あと個人的にはインターレースが合ってないと違和感を感じます。 第一線の人はこんな事するかわからないけど、 自分の場合、後々のレタッチ考えて、3Dソフトでインターレース書き出しはせずに 60FPSでレンダリングしてます。あと合成時に少しだけアルファチャンネルのエッジをぼかしてます。 動きに関しては結構違和感無くなるんだけど、いかんせんレンダリング時間2倍…
487 :
名無しさん@お腹いっぱい。 :2009/05/07(木) 06:52:51 ID:ea7KduIg
実写どうしの合成作業でライティングってどうやるんすか? CGモデルの場合の話かな・・・?
ージュー使えばいいんじゃね
一文字目の発音が難しいな
バビブベボのいずれにも聞こえるような発音でごまかしとけばおk バァィェォゥージューみたいな
>>492 InterBeeでデモ見てきたけど、まだまだこれからって感じだったよ。
抜けの品質が低すぎてグリーンバックの代用として使うには…ちょっと難しい感じ。
値段が書いてないのは未だ実験的にサービスを始めたばかりだから。
ブース担当者の暴露話では、いざ受注しても上手く出来ずに結局ロトスコープで
手作業になった事もありますとかなんとか…
とは言え用途を限定すれば使い道ゼロって訳でも無い気がする。
494 :
名無しさん@お腹いっぱい。 :2009/05/09(土) 02:37:41 ID:XjrAnppS
おお! なんかできそうだよねって書いたまんまのソフトじゃんか。 値段が不明だけど、5人1週間→1人2日って書いてる所を見ると その合計工数単価の差分以下はありえない。 こういうソフトって 人を減らすためのソフトなので高いとみた。 全員に買い与えるタイプのソフトは安く多売できるが。
・・・あら、抜けの品質悪いのか。。。 無意味なコメントつけてしまった。。。。
>>493 技術者のグチがでちゃったのか
そういうやつとは飲み会しといたほうがいいぞw
色々しゃべってくれるかもw
>>492 デモぐらいのことがコンスタントに出来ると本当に革命的なんだけどなぁw
今までの差分キー的な解析だと相当不安は残るよね。
お手軽な値段なら、カットによっては運次第で使えるレベルかもしれない。
>>497 そのレベルのは何年も前から出来てるよね・・・
500 :
名無しさん@お腹いっぱい。 :2009/06/06(土) 23:31:05 ID:Kd4EUyxh
落ちそう?なのでage
どんだけ過疎なの
マッチムーブ@wikiを編集して下さってる方ってここ覗いてるのかな? いつもありがとうございます
503 :
名無しさん@お腹いっぱい。 :2009/06/20(土) 01:19:24 ID:NdfAnfIp
どもです。マッチムーブ@wiki管理人です。 ちょっと私用で忙しくて放置中です。 また時間ができましたら続きやりますので。。。。 でわでわ。
同じく翻訳している人として申し訳ないです・・・
505 :
名無しさん@お腹いっぱい。 :2009/06/22(月) 00:28:03 ID:nhRtIzL7
>>503 これからもがんばってください。陰ながら応援してます。
すいません マッチムーブ初心者です 解析に向かないカメラがあると聞いたことが合ったのですが 「パンした時に被写体が歪む」ような携帯電話での撮影はマッチムーブ不可ですよね? CMOSがダメって事なのでしょうか? また、市販のビデオカメラを購入しようと思うのですが、CCDカメラだったら何でも大丈夫でしょうか? 詳しい方宜しくお願いします
携帯電話事態がトラッキングに不向きってwikiに書いてあったような…。 初心者ならある程度調べような。
そもそもケータイでトラッキング素材作るとかありえない
509 :
名無しさん@お腹いっぱい。 :2009/06/29(月) 07:30:58 ID:gMxSlNPY
携帯の映像でもマッチムーブしてる人いましたよ? あくまでお遊びレベルですが。 CCDカメラならば何でも大丈夫だと思います。 あと、CMOSだと絶対だめって訳ではなくて 手ぶれが激しいとか移動スピードが速いとかっていう場合のみです。 歪みに強いかどうかはCMOSカメラによってまちまちなので 一概には言えませんが。 最近のハイビジョンの綺麗なカメラはCMOSのことが多いので 仕上がりを考えると選択としてはアリだと思います。 ちなみにニコ動で有名なアノ人は キャノンのiVIS HF S10らしいですよ(CMOSです)。。。
トラッキングが難しくなるってだけで不可能では無い 解像度も低いし手ブレも酷そうだし 一番きついのは歪みだろうけど、そこはソフトとやり方次第 ビデオカメラ買うならプログレッシブで記録できる奴の方が楽
そういや、ニコ動にマッチムーブ動画がちょっとだけど増えてるみたいね。 携帯動画でやってる人はいないけど・・・。
>>507 >>508 携帯で素材を撮る訳ではありません・・・
言葉足らずで申し訳ないです
>>509 市販カメラは、ほぼCCDですもんね
安心しました
ありがとうございます
>>510 デジ一眼でも動画撮れますが
どこかのサイトで見たレビューだと
高速パンした時に荷台が、ひし形に歪んでいたので少し不安になりました
30P記録出来るモノが希望ですが、最悪インターレース解除することにします
>>511 Voodooでもある程度精度取れますし、遊ぶには十分だと思いましたね
>>509 すいません
教えていただいたビデオカメラ良さそうですね
CMOSと言っても携帯とは性能違いますしね。。。
値段も張りますが欲しくなってきました
デジ一眼のゆがみはレンズ次第だと思うが? ふつーにムービー撮るのにも楽しいし、金あるならこっちもあり?
516 :
名無しさん@お腹いっぱい。 :2009/07/01(水) 18:34:18 ID:SQJJaEtO
歪曲収差じゃなくて動体歪みな。。。
>>514 CGカメラじゃないから、レンズ何使っても端っこは歪みますよ
その話じゃありません
520 :
名無しさん@お腹いっぱい。 :2009/07/02(木) 02:32:17 ID:PnSJWPK3
カメラの動画素材の写りが悪いと、動きはマッチしても CGがなじまなくて、せっかく綺麗にレンダリングしたCGを わざわざ汚すような作業をしなくてはならなかったりするので あまりローリングシャッター問題にこだわるよりも 写りが綺麗なもので選ぶのが正解のような気がしますね。。。。 CCD方式はスミア出まくりのものもありますし。
521 :
sage :2009/07/04(土) 00:44:39 ID:ACmf4uVX
基本的なことなんですが、影とかのテクニック以前に 背景のドリーショットと人物クロマキーのドリーショットが なんで合うのか謎。。。。 モーションコントロールカメラとか使ってるわけじゃないんだよね???
向こうだとモーションコントロールカメラとか普通だろうけど、>>影とかのテクニック は、背景が3dだから、普通にマッチムーブだよ。 モーションコントロールカメラじゃ無くても距離はかって、レール敷いて撮影すれば簡単な合成には合わせれる。
524 :
名無しさん@お腹いっぱい。 :2009/07/06(月) 01:05:30 ID:UDTfCt+6
>>レール敷いて撮影すれば簡単な合成には合わせれる そうなんすか??? 521のサイトのRECEIVING SHADOWS & LIGHTですけど、 背景も人物も実写ですよね? 両方実写でドリーの移動スピード違ったらずれますよね?? そこをマッチムーブで合わせるってできるんですっけ??? ワカラナイっす。。。。
>>524 移動測度とか多少違ってもコンポジットで見た目だけなら合わせられるでしょう
カメラ揺れまくりとかの下手な撮影でなければね
526 :
名無しさん@お腹いっぱい。 :2009/07/06(月) 02:25:49 ID:UDTfCt+6
>>525 コメントありがとうございます。
そういうもんですか〜。知りませんでした。
マッチムーブがどこで生きるのかいま一つわかりませぬが。。。。
>>524 521のRECEIVING SHADOWS & LIGHTのメインのカットは、背景はCGだと
思うけど。影の色の調整のところで、影だけαで見せてるじゃない。
あと、1:52以下の、柱の間の幅のところで、「先に3D Setがあるので」云々って
説明してる。(影を落とすダミーの柱を、3D Setに合わせたってこと)
528 :
名無しさん@お腹いっぱい。 :2009/07/07(火) 00:04:46 ID:jmiighh3
背景CGなんすね。。。だよなぁ。。。。 影の位置の合わせ方ってことですか。 どもです。
このDVDに日本語字幕がついてれば欲しい
530 :
名無しさん@お腹いっぱい。 :2009/07/20(月) 09:28:04 ID:6snrMytn
CG合成技術って一般のハンディカムやパソコンなどで出来るんですか? 教えてください!
できますよ より高度な合成を目指すなら相応の機材や準備は必要になりますが
532 :
名無しさん@お腹いっぱい。 :2009/07/20(月) 10:56:04 ID:ClZr0mNX
なんで日本人は合成技術が低レベルなんだ? 脳みそでの色の判断力が欧米人に比べて弱いとしか思えん。
単にあなたが、欧米の低レベル作品を見ていないというだけの話ですが。 自分の視野の狭さを日本人全体に転嫁するのはどうだろう。
Voocat入れてみたんだが、いまいち綺麗にポイントが取れないな。 再生中に少しづつズレてくるというか。
日本人の視覚は平面的な配色や図形の認識に優れてるという説が。 浮世絵VS写実画じゃなあ。 しかし真の原因は器用貧乏だと思う。 中途半端に色々器用にこなすから分業制が発達しない。
なんで日本人は 日本人ってのは大抵 こういう切り口の話は根拠がないと思われることに気付かないなんて、これだから日h…おっと
>>532 英語圏の巨大なマーケットを相手に出来る人たちと、
日本語圏だけで商売をしている人たちの違いじゃないかな?
英語圏なら、多少ニッチな事をしてても食べていける可能性は
大きいけど、日本内ニーズだけだと、ある程度色々出来なきゃ
難しい。
日本で合成の専門家で果たして何人食べていけると思う?
だから、その根本的な問題は言葉の問題だと思う。
多くの人が英語が使えるようになれば劇的に変わると
思うけど、今の日本の英語教育じゃあなぁ・・・・。
全部フリーソフト(または1万以下の安価なソフト)ばっかりで それなりの実写合成って可能なんだろうか? モデリング メタセコ テクスチャ GIMP マッチムーブ VooDoo 統合ソフト Blender GIレンダラ Povray? 合成 Jahshaka? ・・・ほんまかいな?
マッチムーブ VooDoo モデリング 合成 Blender テクスチャ GIMP でいける。 レンダリングもAO+Blender標準でほぼOK あとはノード使って色とか合わせたりマスク処理したり あとは腕次第でそれなりと言わず満足出来るはず。
Blenderの場合はGIレンダラはVidro&YafRayがメジャーみたいね。 実写と合わせるのに2DカラコレでAfterEffectもどきが欲しくならないかな?
使い勝手が良いとは言いにくいが、Blenderでカラコレまでの一連作業は出来る。 何てったって実写のキーイングまで出来るんだから。 まあカラコレ程度ならフリーの動画編集ソフトあるし、NiVEとかでも良いと思う。 Jahshakaは更新止まってるし?若干操作が特殊だけどAF今頃+がきわどく対応した3Dデータ読み込んだり出来るのは面白いよな。
>>542 もっといろいろできるはずの、Blenderでこういうムーブメントが起これば面白そう
なのに、と思う。(MMDモデルが変換されたりはしてるが)
でも、Blenderスレ見る限り、そういうことは起こりそうにない感じ。
ARTOOLkitは流行ったのにねぇ。
突如 マッチムーブ・オフ会〜とか あおったらどうなるんだろ。 ここの住人全国バラバラかな? それ以前に過疎すぎて来ないか。。。。 色んな業界の強者様方にお会いできるやも。。。なんて思いましたが。
>>546 当日来てなかった人がレポート動画上ではわんさか集まったことになってる悪寒
>>547 真っ先にそこを考えるのはプロだな・・・・。
>547 空絵で会場だけ撮影してどっかにアップしとけば みんなどんどん参加するだろうなw
数人だけマッチムーブ失敗して滑ってたり、浮いてたりしてそうだな
マスク切ってるうちに投げ出しそうだな
問題は誰が根性マットをやるかってことだろうなw
ロトスコープの境目ってうまくなじませるコツってありますか?
>>54 ロトしたプレートと背景をなじませるって事?
AEで2Dのマッチムーブができるって聞いたことがあるんですがどういうものでしょうか? アイマスMADでキャラクターの動きをカメラに合わせるようなのですかね?
2Dのマッチムーブ→2Dトラッキングで良いかな? 攻殻の笑い男がイメージしやすいかな?映像の顔から一点を選んでマークを追従させる的な あとは4点を選んでテレビとかに画面のはめ込みとか出来たり。
>>555 >ロトしたプレートと背景をなじませるって事?
そうです。2D合成ですれ違いなのかもしれないんですけど。。。
マスク切りを根性でやっても
やっぱどこか浮いている違和感があって。。。。
ライティング等はあってる前提ですが、
なんかマスクの境目をボカすとかごまかしのセオリーみたいなのって
ありそうな気がして質問してみました。
>>558 LinaxもMacも持ってないや・・・
ウブンツでも動くのかな?
>>559 モーションブラーについては考慮してる?
昔のロトスコープはガベージマスクで地味にそれっぽい事をしてたが・・・
>>559 >モーションブラーについては考慮してる?
確かにいい感じになりました。思い切り考え抜けてました。
564 :
556 :2009/07/30(木) 19:47:15 ID:sRoMeVrT
>>557 攻殻は見てないんでわかりませんが、なんとなくイメージできました。
遅くなりましたが、レスありがとうございました。
VooCatを試したんだけど、HDサイズだと全然ダメだ。 ・途中でポイントが分からなくなると落ちる ・800フレームくらいを過ぎると数フレーム戻ってしまい、ループして結果はめちゃくちゃ。 ・VGAサイズまで落としたらまあ成功したが、さほど長い動画では試していない。 買おうと思ったがちょっと使い物にならない。 以上報告おわり。
567 :
556 :2009/08/02(日) 01:59:34 ID:7yyMJywQ
>>565 これは面白いですねw
2Dトラッキングをよく理解できました(これ自体はトラッキングとは言わないでしょうが)。
ありがとうございました。攻殻も見てみたくなったw
>>558 AppleがShakeを開発中止したのでそれでなんでしょうね。
Motion向けに新製品だすとしたら少し楽しみ。
今ニコでsm7862347を見掛けたんだけど…これ、前ここにうpしてた人じゃないですか? ねないこのおばけとか、ガイコツとかの。
570 :
名無しさん@お腹いっぱい。 :2009/08/07(金) 21:39:01 ID:RKdxyHRW
そだね。同一人物だね。あれがマッチムーブ処女作かな?
デイリー1位になってた! あれで1位になると仕事とれたりするの?
んなわけねーだろ 仕事をなめんな
舐めるお仕事…ゴクリ
>>572 ぶわははは! そだよね。
すごい労力割いてるから何かメリットがあるのかと思った。
オタのマスカキか。。。
>>572 自身は大したことしてないのに、何得意気になってるんだコイツwww
お前もくだらん煽りをするなよ
で、実際どうなんすかね。お仕事だと。 あのレベルは、仕事で合成やってる人なら楽勝なんでしょうか? 自分はSynthEyes買ってみたけど、まだよくわかんない。 よくわかんないけど、オートでこんなにできるのか凄いなーって感じ。
ちなみにドコで買いました? 海外から直接? 俺も欲しいんですがVooCatと迷っています VooCatは体験版触ったところ、エラー吐きまくって全然解析してくれないので 不安なのですが解析してくれる素材もあって謎です 180fぐらいの連番なんですが
>>578 VooCatはオレも使ったがダメだった。
とにかく落ちるし成功率が低い。
でもSynthEyesは高いし・・・
>>579 やはり・・・
FreeのVoodooの方が何かと安定して安心して使えましたね
マスク切ったり出来ないので撮影は工夫しなければいけませんが・・・
SynthEyesは日本円にして5万くらいなので買っても良いかなと・・・
VooCatで3万ぐらいでしたっけ?
もう少し様子見た方がいいのかな
>>578 サイトから直接です。
PayPal使うと、カード使用確認の電話が英語で来るんですね。めっちゃ焦ったw
で、自分もVooCatと比較検討した上でのアドバイスでけど、ホントSynthEyesの体験版は試しておいた方がいいです。
使い勝手もスピードも、全然違います。びっくりします。
って、単にVooCatを使いこなしてなかっただけって可能性もありますが。
ちなみに、自分が買ったときは値段4万でしたね。
高いけど・・・その価値はある!・・・と思う。
582 :
名無しさん@お腹いっぱい。 :2009/08/16(日) 20:16:44 ID:aOyXty2z
SYntheyesはマッチムーブだけでなく 単にスタビライザーとしての用途にも使えるのがでかいと思う。 ハイビジョン動画も問題ないし。 静止画との合成にもパース取りに使えるし。 英語が不安ならインディゾーン(6万だっけ)通す手もある。 どう考えても機能に対して強烈に安いソフトだと思いますが。 Maya2010にはAutodeskが買収したREALVIZのMotchMoverが まんま付くらしいので元々単体120万のソフトだけに Mayaユーザはいいですなぁ。。。。。
なんだな 実際Maya付属のMatchMoverは ちょうどSynthEyesとPFTrackの間を埋める感じの価格帯でいい感じかも 実売だと40数万だろうし ついでに3Dソフトもついてきて(本来は逆だがw)お得 まぁ精度にもよるんだろうけど
SynthEyesだとトラッキングしたあと、3点を指定してできた平面を床とする機能がありましたが、 boujouで同じ機能はあるでしょうか?
以前御祭りにいろんなキャラが合成されてるムービーを見たのですが、 このスレで紹介されてなかったのでしょうか。 見直したけど見つからなかった。 ものすごい長尺だったけどあれって人月どれくらいかかってるのだろう? 仕事でもちょっと面倒だと思ってしまうくらいだった。
>>584 boujouにもあるよ
地面に設定したい点を選んで設定できるよ
壁にしたい点を選んで地面に対して垂直にとかも出来るよ
ああ、569のことでした。 あれってどんな感じで作っているかご存知の方います?
ワクワクしながらも必死な感じで?
?? よくわからんがあれ作るのにどれくらいかかっているのかなって? あのサイズだとよくわからんが仕事だとあのサイズでは作らないでしょ。 そのサイズで見て結構いけるクオリティだとしたら マスク処理やらなんやらで面倒そうだなぁと。 すくなくとも数週間から一ヶ月くらい係り層と思ったわけ。 でそうなると数十万のお金が稼げるじゃない。 それを趣味的に作る人って何をどうやってるのかなって 個人的な興味です。
おまえは何一つ趣味はないのか? 帰宅してから睡眠時間削ってまで毎日10時間ゲームするだとか貯め撮りしたアニメを延々と見続ける人とか沢山いるんだ 同じように絵を描いたりCGに時間使う人だっているだろ
SynthEyes2009って出ないんですかね? アップグレードとかあるのかな
最近マッチムーブに興味を持ったばかりなのですが、
voodoo+blenderで特に不満のない結果が得られました。
(エラー吐かれない動画撮るのに苦労はしましたが)
有料のソフトを導入するメリットは主になんなのでしょうか?
voodooより勝手がいいならLinax環境導入して
>>558 で紹介させているPFMatch試してみようと思うのですが。
Voodooって解析速度遅い気がするな
Voodooめっちゃ遅いね〜 boujouとか使った後だと特に でも、Freeで出来るし文句ないかな・・・ 俺はVooCat買う予定だけど・・・
>>594 有料だと動いてる被写体をマスクで目隠ししてトラッキングに影響させないようにしたり
解析が早かったり、ココとココの点が地面でコノ点は壁ですよって教えてあげたり
撮影したビデオの歪み補正を考慮してトラッキングしたり色々と出来るよ
必要かどうかは仕事次第なところもあるけど、撮られた素材って必ずしもトラッキングに
都合の良いように撮られている訳じゃなかったり・・・なんて事もあるから
上記のような機能があるtpとっても便利だったりするよ
すみません 質問です カメラで自宅のテレビ(何も映ってない状態)を右から左に移動しながら撮りました そのテレビの画面に動画を合成したいのですが、voodooで出来ますか? 撮った動画のテレビの前に猫が通るのですが、難しいでしょうか 宜しくお願いします
>>598 テレビ画面への合成ならわざわざマッチムーブソフト使わなくても
AEなど合成ソフトでコーナーピンと2次元トラッキングの組み合わせで十分なのでは…
画面から3Dでオブジェクトが飛び出してくるとか??
そうなんですか!? 今voodooでトラッキングしてます 飛び出さないです AfterEffectの略ですよね…? 持ってませんでした
テレビ画面に緑とか青の画用紙貼って撮ればいいじゃん それでフリーのビデオ編集ソフトでも合成できる
604 :
594 :2009/08/27(木) 21:02:47 ID:WgfZyspI
やはり対価に見合った機能の違いがあるんですね。皆さんありがとうございました。 どちらにしても金欠だし、voodooの限界にでも挑んでみようかな。
動画ファイルを3Dにしてあらゆる角度から見るにはどうしたらいい?
どうでもいい
どうでもいい
>>607 本屋でちょっと見てきましたが
タイトルの文字を実写に合成するとか文字を光らせるにはとか
AEの基本的なテクニックを有名作家さんの作品を題材に紹介する感じで
マッチムーヴとはあまり関係がなかったです
>>609 そうなんだ。マッチムーブネタは無しか…残念。
教えてくれてありがとう。
それだったらまだスタジオテクニックのほうがいい
そもそも日本にマッチムーブの本を執筆できる人がいるのか??
いるんじゃね?まだ執筆してないだけで。
マッチムーブって3DCGとの連携が必要不可欠だし どちらのソフトもデファクトスタンダードが存在しないから 解説本を書くとなるとかなり難しいように思う。 加えて素材となる動画の撮影も独特のコツが必要なわけで これをすべて含んだ解説なんておそらく不可能じゃないかと。
であればこそ役立つし売れると。
>>614 、応援してるぞw
WEB上に動画付きのチュートリアルだって沢山あるのに 今さら本出したって大して部数出ないぞw
>>612 一杯いるだろ
でも買う人そんなにいるとも思えないので出す労力が無駄だ
>>612 日本は海外ほどノウハウがないので、ある程度のワークフローは確立していても、
その場その場でかなりのトライアンドエラーが必要なことが多いみたい。
あとは海外でもそうらしいけど、結局カメラデータがうまく取れなかったときに、
力技であわせるので書籍化しにくいかもw
日本では予算の都合上、海外の様にマッチムーブ自体に対しての
予算を引っ張ってくることができない。
向こうだと本撮影の前日に同じ環境でテストしてトラッキングを取りやすい
準備ができるらしいからね。
>>618 そのDVD購入したけど、ソフトでの細かい対処法を乗せているわけじゃなくて、
撮影時の注意点とかが主な内容だったよ。
だいたい理解していたことが多かったけど、役には立った。
昔さあ 孫正義が報道ステーションでしゃべってる動画にいろんなカツラを乗っけていく爆笑ニコニコ動画があって すげえ人気だったと思うんだけど あれって3DCGだったのかな?かなり前だと思うんだが 見られるところもうないかな
今の技術は文章や絵じゃ理解しにくいから実践に関しては本じゃ無理だろ 理論だけなら本でもいいかもしれんが
>>619 予算って以前に、そもそもマッチムーブを理解してる映画人がどれだけいるか・・・。
日本っていまだに「でかいセット作って燃やす」みたいなのを崇めてるからね。
もしくは「ここCGで作っといて」って感じの丸投げがほとんど。
脚本やコンテの段階からCGのプランを立てて撮影するって発想がまるでない。
「これ撮ったんだけど合成しといて」 って気軽に言われると仕事だけどカチンと来るね 今みたいにマッチムーブがそれなりに手に届く前はFixでとっといてくれ と言ったはずなのに手持ちでブレブレで撮ってきておいて「カメラ動いてないから」とか おめえが手でカメラ持って突っ立ってるのはFixっていわねえんだよ! てゆう程度のディレクターは結構多い
>>623 だよなあ。打ち合わせで怒りを通り越して呆れることもしばしば。
「CGなんて邪道だ!」って言う人はこの世界じゃ珍しくない。
Fixで言えば日本のカメラマンは単に「静止画」と思ってるからね。
何のためFixにするのかって目的を考えない人が多すぎる。
絵が止まってればいいんだろ?なんか問題あるの?って感じで
あとはお前がなんとかしろって言い出すから始末に負えない。
アマチュアはもちろんこのスレにいる人にしてみれば
マッチムーブは合成技術よりも撮影が重要って理解してるけど
プロは相変わらず「CGって何でもできるんだろ」だもん。勘弁しろと。
仮にマッチムーブの本を出すとしたら、どんな内容がいいのかな。 俺的にはVoodooを使い撮影や合成の基本を説明して欲しい。 もちろんカメラや3Dソフトを持ってない人を考慮して各種素材付き。 とにかくマッチムーブとはなにか、どれだけ楽しいかがわかって 基本的な概念やテクニックが身につく内容だったら買う。
現場で一番使われているboujouかsyntheyesになると思うよ Voodooはさすがにない どっちかっていったら撮影時の立ち回り、CGが複雑に絡むショットの撮影の仕方とか中心の方が参考になるんじゃないかな ソフトなんて覚えりゃ済むので素材がちゃんとしてりゃ上手く行くし
以前名前の挙がったAfterEffectsスタジオテクニック いつの間にか日本語版出てたんだね。即買いしたよ。 この本凄いね…マッチムーブ関連記事はわずかだけど物凄いためになる。
細かいテクニックや理論以前に マッチムーブの裾野を広げなきゃどうしようもないと思ってる俺からすれば 無料ソフトで誰にでも取り組めるっていう敷居の低さが重要。 裾野が広がれば情報が増えるのは初音ミクで証明済みだしね。
>>628 と
>>630 の違いって、判っている人が欲しい本と、興味がある人が欲しい本の
温度差だよなあ。
SynthEyes使い始めたんですが、急にムービーの読込が 全く出来なくなりました。ファイル形式、codec、サイズなど 色々試しましたが、読み込み後エラーも出ずに真っ黒なまま。 プロパティ見てもムービーが読み込まれて居る形跡がありません。 環境はMacPro E2800 Leopard です。 FCSをバージョンアップしたあたりでおかしくなった気もしますが、 AVIを読ませても同じです。 SynthEyesの初期設定ファイルを捨てたり、再インスコは 試しました。 どなたか同じような症状になった方、いらっしゃいませんか?
マッチムーブソフトを再インストールで直るような気がする
>>631 つーか、そもそも一般ユーザーが少ないから書籍が出ないわけで
とにもかくにもユーザーを増やさなきゃ話にならないのは事実だと思う。
・・・などと言いつつ今夜も徹夜。
サーバーの順番待ちでレンダリングが進まねえよう。
ニコ動とかでもっと増えそうな気もするんだけどなあ。ソフトは全部フリーで手に入るんだし。 さらにマニュアルも日本語であるしね。MMDなんかと合わせられないものかねー。
>>632 アクセス権修復みた?
・・・あとはお祈り(ry
639 :
名無しさん@お腹いっぱい。 :2009/09/16(水) 20:30:24 ID:fpPB7jtt
>>632 仮IDのまま正式IDに変更せずに使い続けると
そうなるんじゃないっけ?起動できなくなるんだっけな?
基礎的な事で恥ずかしいのですが、 民生用のDVカメラで撮影したソースにマッチムーブを行う際、 手ぶれや光量不足によるノイズで特徴点をトラッキングできない事や 途中でトラッキングポイントを逃してしまう事がよくあります。 一般的に合成を目的としたショットにはステディカムやドリーを使うべきでなのでしょうか? また暗所での撮影素材にマッチムーブを行う事は無謀ですか? ハリウッド映画などは暗いシーンでも、とても綺麗に合成がされていて 凄いなぁと思う事が多くあります。
>>640 >途中でトラッキングポイントを逃してしまう事がよくあります。
そうですか。
>ステディカムやドリーを使うべきでなのでしょうか?
そんな事はありません。
使いたいなら使えば良いし、そうでなければ使わなければ良い。
それだけです。
>マッチムーブを行う事は無謀ですか?
別に無謀でも何でもありあせん。使用者の工夫次第でどうとでもなります。
>とても綺麗に合成がされていて
それはそうでしょ。機材も、人の数も、人のレベルも、かける時間も、全て違います。
僅か30フレームの合成に時間を半年間以上、高技能をもった人間を100人以上数チーム使って、処理する事もあります。
しかも重要な所は人の手で行い、アプリケーションを使わない事が多いです。力技ばかりです。
>凄いなぁと思う事が多くあります。
で?
>>641 マジレスだし、異論はないけど、言い方キツいなあ・・・
いいんだよ。たまには言ってやらないと、ソフトに頼りきった勘違い野郎が出てくるからさ。
えっと 力技ばかりと言うところに引っかかりました。 本当にそうなのでしょうか? ILMやピクサーでは3DにMayaと言うソフトが使われていると言われてる記事を 良く目にしますが、その実体はそんなことないわけで。 言い切れるだけの根拠を聞きたい。 つまりは力技ならそのうち中国、インドが勝つわけですよね。 でも僕はそうは思ってないので見解を聞きたいです。
>>644 実態として、アメリカのCGの外注は、カナダやシンガポールを経て、現在はどんどん
中国の会社に出すようになっており、その流れはもう止められません。
>本当にそうなのでしょうか? 本当にそうだよ。もともと人の手だけでやってた事の一部を効率良くするために 部分的に機械に頼ってるに過ぎないんだよ。技術の発達とともに多くの事がPC上で処理できる ようになったが、画質がアップした事で、やっぱり人が直接手で処理しなけりゃどうにもならない所も 過剰に増えてるんだよ。過去より今の方が人手(力技)がかかる箇所が多い位だ。 >ILMやピクサーでは3DにMayaと言うソフトが使われていると言われてる記事を MAYA程度の汎用ソフトは素材作りでしかない。 MAYAに限った事では無いが、ソフトをそのまま使う事はありえない。ってか使えない。 シーンやカット毎にオリジナルのパッチを作ったり、スクリプトを書き加えたりして使ってる。 そのシーンが完成する頃には、元のソフトとはまるで違うアプリになってる事も少なくない。 雑誌等で「○○を使ったよ」っていってるのは単純に機材や資金を提供してくれてるスポンサーの為の 宣伝に過ぎない。
>>644 結局なんでも力技だよ
ソフト側でトラッキングできない場合は全部手作業だ
モーションコントロールカメラだって実際のカメラの動きはずれが激しいからそこら辺手作業で修正だし
>>640 マッチムーブはソフトウェアの仕様ではありません。
映像制作における合成作業の総称と思ってください。
マッチムーブが映像制作のひとつである以上、
ソフトウェアだけですべてを完成させるのは不可能です。
当然ながら露出や手ぶれ、トラッキングポイントの計算など
撮影や演出での工夫が必要不可欠になります。
ハリウッド映画で暗いシーンを綺麗に合成しているのは
そういう映像を作るための工夫をしているからです。
すなわち「表現したい映像」が最初に存在して
その映像を実現させる手段としてマッチムーブが用いられ
必要ならばステディカムやドリーが登場する。それだけです。
マッチムーブで重要なのは機材やソフトの使い方ではありません。
どんな映像を作りたいのか、そのために何が必要なのかを見極める
映像全体を踏まえた総合的な視点です。そこをお忘れなく。
凄いスレだな 母数が少ない分濃い意見がワンサカ
>民生用のDVカメラで撮影したソース なぜ誰もここを突っ込まないんだ? ステディカムやドリーの話をする前に、せめてHDVやFHD対応のカメラで撮影しなよ。 力技はもちろん必要だけど、Autoでトラッキングしやすいように撮影するのも大事だよ。
>>650 別に突っ込む必要もないでしょ・・・
カメラ買い替えてない人だっているだろうし、金とか色々事情はあるでしょ
民生用のDVカメラで撮影したってマッチムーブ出来るし
必要ならばインターレース解除したり、コントラスト高めて解析しやすいように素材作ることも出来るよ
ステディカムやドリーが必要な事もあるだろうし、民生用のDVカメラの方が作品を効果的に見せる事もある。 作品や、シーンやカットをどう見せるか、動画にどんなメッセージを載せるかで撮影手段や方法は変化する。 ケースバイケース。 決して、トラキングの為の絵を撮りたいわけじゃない。
653 :
650 :2009/09/20(日) 00:02:35 ID:0FwAPWyu
>>651 ,652
言ってることは正論なんだけどさ、640は合成のためにステディカムやドリーを
使うのかって聞いてるんだぜ。
ステディカムやドリーってのはそういう絵が欲しいから使うもんじゃん。
そっちに金かけちゃうぐらいなら、カメラ変えた方が悩みは解決するんじゃないのって話。
このスレの流れはかなりためになると思うけど、実践的なアドバイスも必要だろうと
思ったのさ。
654 :
名無しさん@お腹いっぱい。 :2009/09/20(日) 00:09:59 ID:oPJTv42O
650 に同意
>>653 基本的に間違ってるよ。
もともとステディカムやドリーは合成の為に使うもんじゃないよ。
手段を目的にしちまったら、何の意味もなくなってしまう
656 :
650 :2009/09/20(日) 00:26:04 ID:lKIfS+uM
>>655 ごめん、言葉たらんかった。
そういう絵ってのは合成のための絵じゃなくて、撮りたい絵ってことね。
657 :
名無しさん@お腹いっぱい。 :2009/09/20(日) 00:29:32 ID:oPJTv42O
スマン、2回に分かれた。
>>641 言いたい事は分かるけど、質問者はまだ好感もてる方だと思う。
ひどいのになると、ほんと自分で何も行動せず&考えずに聞いてくるよ。
一応それでお金もらってる立場なのにね...
>>640 ステディカム、ドリー撮影がカメラトラッキングに有効なのは確かだけど、
要因のひとつでしかないよ、日本のプロの現場だってひどい素材はいくらでもある。
やっぱりそれなりの機材を使うにはお金が必要だから。
最近は、みんなが目にしない低予算作品なんかでも普通に何気に3Dトラッキング行われてる。
必ずしもその機材でなくちゃならないって事はない、要は演出サイドの「どんな画が欲しいか」、
がすべてだから。
だからCG側としてはそれに応えるべくいろいろ工夫するよ。
話題にでた職人的な手合わせ3Dトラッキングを行う人も存在する。
ハリウッドでは確実に存在すると思いますよ。
概論ばかりもよくないのでアドバイス。暗い場所(照明足りないのも)では
トラッキングガイド(マーカー)に工夫をこらしてみては?
豆電球LEDや反射率の高いテープなど。
与えられた素材が暗い状態だったらしょうがないけど、 撮影の段階から入れるのなら、(監督に言える立場なら)現場では暗い撮影なんかしなくて良いじゃん。 合成後にゲイン下げたり、フィルターかましたりすりゃいいんだし。 夜中のシーンを昼間に撮影する事は昔から良くあるよ。太陽や反射、影だけ気を付けときゃいいんだからさ。
644です いろんなレス参考になります。 僕の聞きたかったのは例えばILMで使われているソフトは Mayaをカスタマイズしたもので市販のものとは比べ物にならないほど と言うのは良く聞きますが、そうでなく実際はホニャララという まったく市販されていないソフトではないのか? 以前のピクサーのレンダーマンのように自社開発の一般人には手に入らないソフトを 使っているのではないかと言うこと。 それも10年先に市場に出てくるような機能満載のソフト。 そうなると如何に力わざといっても日本人がかなうはずがないのではと思いました。 同じ能力のドライバーがいても一方はF1で一方はゴーカートならどんなに頑張っても 勝負にすらならないのかなと思いました。 結局力わざというのであれば頑張ったらもしかして勝ち目なければ むなしい努力の積み重ねになってしましそう。 どうなんでしょ? 事情通の方教えてください。
644です いろんなレス参考になります。 僕の聞きたかったのは例えばILMで使われているソフトは Mayaをカスタマイズしたもので市販のものとは比べ物にならないほど と言うのは良く聞きますが、そうでなく実際はホニャララという まったく市販されていないソフトではないのか? 以前のピクサーのレンダーマンのように自社開発の一般人には手に入らないソフトを 使っているのではないかと言うこと。 それも10年先に市場に出てくるような機能満載のソフト。 そうなると如何に力わざといっても日本人がかなうはずがないのではと思いました。 同じ能力のドライバーがいても一方はF1で一方はゴーカートならどんなに頑張っても 勝負にすらならないのかなと思いました。 結局力わざというのであれば頑張ったらもしかして勝ち目なければ むなしい努力の積み重ねになってしましそう。 どうなんでしょ? 事情通の方教えてください。
ILMはZenoというインハウスソフトでのワークフローをかなり確率させているけど、 個人レベルでは使いたいソフトを使っていると聞いたよ。 上杉さんのセミナーで本人はソフトはMax、レンダラにBrazilを使ってると言ってた。 ソフトは別に特殊なカスタマイズされてたわけでもないみたい。
レンダーマンは一般人にも売られてますが・・・ ついでに言えば、レンダーマン準拠で、別メーカーのものや、フリーのものもあるので、 レンダーマンを学ぶのは、あなたが仮に学生さんだとしてもすぐに始められますよ。 どんなアホでも始められるような、馬鹿丁寧な入門講座まであります。 書き込むたびに、どんどん自爆していくのは見ていて痛々しい。
そもそもハリウッドの国策CG技術に個人が努力すれば市販のPCとソフトで対抗できるはずっていう前提がおかしくない? 個人がハリウッドに対抗しうるとしたら「いかに合成するか」という技術じゃなくて 「このフィルムにこのオブジェクトを合成する手があったか!」みたいなアイデアの部分でしょ 向こうは1991年に「ターミネーター2」であの流体人間作ってるような国だぜ 実写とCGを矛盾なく合成するマッチムーブの技術なんておそらく15年以上前に完成してるよ
まず、デジタル素材をフィルムに焼く技術からして日本には無いんだよ。 (邦画で初めて使われたのは、たしかガメラだった。マッハ文朱が出演してた作品) 基本的にすべて輸入もんだ。 昔は「日本人は発明は出来ない人種だが、応用力に長けている」と言われてた。 現在では「会社仕事では発明も出来ず、応用力も無い人種(個人は別)」と言われてる。 CGに関してはアメリカより20年遅れてるというより、アメリカの技術をかいつまんで持ってきてるだけで 日本独自の技術力は皆無。 かいつまんで輸入した技術を持ってしても、マレーシアやインド、中国からすらも5年以上遅れとる。 今の高校生の知的レベルが国別のランキングで27位だそうだ。将来は暗い。
ガメラの前に、『宇宙からのメッセージ』があったな。すまん
>661さん そうなんですか。 僕もzoneはきいたことあります。 名前忘れてました。 それほどカスタマイズしてないのですね。 >662さん えっと売られる前の話です。 たとえば前述のZoneがうられることがあるかわからないですが、 (ILMはいんハウスものは売らないみたいですけど) 発売されてからいくら一生懸命勉強しても一生かなわないかと思いました。 自爆してるつもりはないのですが自爆してますかね? >663さん それを言うとそもそも何が勝ちでなにが負けというのもあいまいになりますが、 このスレでいうとガシガシカメラが動いてるのにまったく違和感無く合成 されているというところでしょうか? T2ではそれこそT1000が最初に打たれるシーンでは銃痕が消えるカットはスチルを 使ってますよね。 今だったら普通にカメラ動かしていると思うんです。 つまり、そのときはマッチムーブはそれほど簡単ではなかったのではないかと。 でも今はもしかしたらかなり難しいと思われるカットでもボタン一発的なものを 使っててもおかしくないんだろうなあと思ってました。 それが力技でやってますという書き込みがあったので、実際のところ、技術の差が どれくらいあるものなのか気になったのでちょっと聞いてみました。 ありがとうございました。
まぁなんにせよ、出来上がった動画が、素人に合成してるって簡単に見破られるほど嫌なもんは無いですな。 合成箇所に気が付かれなかった時に安心感を感じる事が私はありますけど・・・他の方はどうなんですかね?
>>666 入手出来るツールもロクに触らず、想像だけで語って一生適わないと言う人は
CGに向かないと言っておきます。
CGを始める/続ける気があるのなら、今、すごく恥ずかしいことを言っている
自覚をしたほうがいいですよ。
>668 あなたも自覚してょうがいいですよ。 同じ穴の狢と言う言葉をご存知ですか?
>あなたも自覚してょうがいいですよ。 『自覚してょうが』 すまん。オラ田舎もんだもんで、↑の言葉がよくわかんねぇんだぁ。 けったら、教えてくんろ
撮影のときに置いたマーカーは合成のときに消すことになりますが、 みなさんどうやって消してますか? マーカーの色、形とか、消すときのソフトとか何がいいんでしょう?
普通はトリミングする位置にマークングするだろう。。。。JK
マークングってなんだ?マーキングだよ・・・orz
>>672 ってかさ、おまえ自分でイロイロ工夫してやってみろよ。
ソフトはお前が使いやすい物なら何だっていいんだからさぁ。
クダラナイ質問はこれで終わりにしてくれ
>>675 さすがに言いすぎだろ
そこまでダメと言うと情報交換にならないし、前後がどうであれ質問自体はスレに見合ってるわけだし
677 :
640 :2009/09/23(水) 09:26:31 ID:DfyBqx3g
640です。 なんだか自分の書き込みがいつの間にか物議を醸してしまったようですみません。 自分の場合、今現在、何かの作品を作っている訳ではなく、 ARやマッチムーブといった新しい技術に触れてみたいという好奇心が先に立っていたのですが、 手段を目的にしては本末転倒という意見はその通りかもしれません。 映画やプロの現場では力技に頼る部分も多そうですね。 なんでも機械まかせにしちゃ駄目という意見には賛成です。 時間に限りがある訳ではないので、 ステディカム自作や、LED製マーカー自作に挑戦してみたいと思います。 様々なご意見ありがとうございました。
>>677 いろいろノイズが入ったけど気にしなくていいよ。
一部の良心的な書き込み以外は
素性の知れない自称プロ&評論家気取りが騒いでるだけ。
素晴らしい作品が生まれることを期待します。
>>679 東京タワーの使用料っていくら位かかるんだろ
voodoo camera trackerについて質問です。 直線に歩いた映像をvoodoo camera trackerでトラッキングしました。 その後、Blenderに移したのですが、 上手くトラッキングされていない事が分かりました。 カメラがまっすぐ動いてくれず、その場での手ぶれによる上下の動きだけ 再現しています。 そのほかにもいくつか撮りましたが、 最後の数フレームでカメラが、上を向いたり、やはり上手くトラッキングできません。 撮影にて気をつける事がありましたら、教えてください。 それと、もう一つ質問なのですが、 voodoo camera trackerに元々入っているサンプルのfree move用の画像を トラッキングしてみましたが、こっちはトラッキング終了後、 Blenderに移して確認してみると、全く動きがなく動かないのですが、なぜでしょうか?
>>681 もちろん読み込み時に「Move Type」は「free_move」にしてるよね?
サンプルの方は190〜210フレームを見てますか?読み込み画像の連番と同じフレームにキーが打たれます。
IPOカーブエディタで確認してみてください。
あとは映像の詳細は?連番数とか画像サイズとか。
結構雑な映像でもエラーで落ちなきゃ、それなりにはトラッキングしてくれるはずだけどなぁ
撮影時はトラッキングすると言っても極力ぶれは少ない方が良いと思います。
はっきりとしたポイントがあるとトラッキングしやすいです。
>>681 これは
>>682 も指摘してるトラッキングポイントの問題かと。
これは撮影の基本だけど映像はカメラが円心になるので
パンより手ぶれのほうが撮影後の映像に与える影響は大きい。
特に手前にトラッキングしやすいものが写ってると
その動きだけをソフトが認識してしまうことはよくある。
boujouなんかだと比較的正確に拾うけどvoodooは難しいかも。
対策としてはあらかじめトラッキングポイントになるものを探し
それを軸にして撮影の映像を組み立てることじゃないかな。
あとはちゃんとマーカーを貼る。やっぱ事前の対策は大切だよ。
返信遅れました。
>>682 サンプルの方ですが、きちんとトラッキングしていました。
最初の数フレームが動いていなかったので動きがないのかと判断してしまっていました。
その後、Voodoo Camera Tracker HP から
マッチムーブムービーのサンプルのオリジナルをDLして
ためしにトラッキングをしてBlenderで見てみましたが、きちんとトラッキングできているようでした。
>>682 さん
>>683 さんが書かれていたように次回撮影する時は、
トラッキングするポイントを決めて、それを軸に撮影してみます。
参考になりましたありがとうございます。次回というか明日、明後日にでもやってみます。
もうひとつ質問ですが、オブジェクトを映像に配置する時はどういう点に気をつけて置けば良いでしょうか?
youtubeに上がっていたチュートリアル動画ではオブジェクトを置いて全く微調整もせずに、時間を動かしても全然ぶれがなかったのですが、
自分が実際にムービーにオブジェクトを置いてみたら少しでも時間を動かすと必ずオブジェクトにぶれが出てしまいます。
何かテクニックみたいなのが存在するのでしょうか?
ぶれるのはフレームレートの違いじゃないかな? 連番で書き出した時のフレームレートとBlenderのレンダリング設定のフレームレートと (別ソフトで合成する場合そのプロジェクトのフレームレート)の設定を統一しないとフレームずれがでてぶれます。 (もし29.97fpの場合BlenderではNTSCの設定を参考) あとアドバイス?として自分は3d上で位置あわせをするときBlenderに読み込んだ時に出来ているエンプティでカメラの方を オブジェクトに合うようにしています。 youtubeだとオブジェクト動かしてるのが多いいですけど、オブジェクトをアニメーションするときこっちの方がいいです。 あとパースを合わすために撮影時比率の分かる物の長さを測るか、3dで隠れるなら正方形の紙を映しておいて、 Blenderに下絵として置いたときBOXか平面がそれに合うようカメラのエンプティを動かすと良いと思います。 とりあえず試行錯誤でやってみるのが良いです。
SynthEyesについて質問させてください。 SynthEyesのレンズパネルにある[Field of View(FOV):画角]の値は垂直方向の画角を示しており、 その下の[Focal Length:焦点距離]は35mmフィルム換算時の値だと思うのですが、 仮に焦点距離を50mmに指定すると、FOVが27.956度になります。 本来35mmフィルム換算であればビデオ・スチール問わず垂直FOVは27.0度になるのでは? と思うのですが、なぜ27.956度になるのでしょうか? ※ちなみにAfterEffectsやLightwaveで同様のセッティングを行うと垂直FOVは26.99度になります。 マッチムーブを機にレンズの事を勉強し始めたばかりで、 私のとんだ勘違いや、根本的な理解不足なのかもしれませんが、 よろしくお願いします。
>>686 よくわかんないけどFilmBackが35mmになってないんじゃないの?
>>687 ありがとうございます。
調べてみるとFilmBackという項目はありませんでしたが
プリファレンスにBack Plate Widthという項目があり、
初期値が0.980インチ(24.892mm)になっていました。
この値を0.945インチ(24.0mm)に変更して再起動したところ、
画角も他のソフトと一緒になりました。
モヤモヤが晴れてスッキリしました。
でもなぜSynthEyesの初期値はそんな変な値なんですかねぇ…
マッチムーブするなら、 撮影時に、カメラの焦点距離は絶対メモっとけ、と言うのは何故? マッチムーブソフトがあれば焦点距離は自動で解析されるのでは?と思うのだけど、 逆に焦点距離をメモって置かないと困るような事ってありますか?
>>689 自動解析で出てくる焦点距離じゃ手前と奥でパースずれまくるよ。
合成でポンと一つだけモノを画面中央にでも置いてある分にはバレにくいだろうし、
ショットによってはかなり良い具合にあがることもあるけどね。
楽したかったら撮影時のデータを取ってに越した事はない。
想定外の合成を頼まれる事も多いしプロなら色んな保険をとっておくものです。
691 :
名無しさん@お腹いっぱい。 :2009/10/12(月) 18:19:00 ID:Lp7IVA/P
自動解析の焦点距離は正しく出ないことがあるんだよ。 それに解析不能の場合でもカメラの焦点距離情報を足してやることで 可能になることもあるし。 正しく算出できるケースの場合は不要だけども、 それは撮影の時点ではわからないことだから。
プロや専門家のように振る舞う住人が多い割には ソフトの使い方や具体的なトラブルへのレスがほとんどつかず 漠然とした心構えみたいなネタにはやたら食いつきがいいという不思議。
>>689 あくまでも画像から判断して処理してるだけなんだから
必ず正しいとは限らないんだけど・・・
Blender、NiVE、Voodooのフリー三兄弟でやってるんだけど、 コレでどの程度いけるだろうか。 3DSMax、AE、SynthEyesと同等、それ以上のクオリティは出せるかな? あと、Voodooって動いてるオブジェクトを検出する機能はないの?
>>690 >>691 >>693 アドバイスありがとう。
たしかに解析不能の時に焦点距離情報を足せば可能になる事もありそうですね。
メモしておくに越したことは無さそうです…
ただ、カメラの焦点距離ってズームリングの見た目だけでは
コンマ数ミリまでは判断できないし結構アバウトですよね。
絵によっては、焦点距離が0.2ミリ違うってだけで
かなり大きなズレになってしまうような…
ひょっとして自分が知らないだけで
焦点距離は完全な値を入力しなくても
近似値を入れればソフトによって補正してくれるのかな?
>>696 俺はboujouとSyntheyesをたまに使う程度なんだけど
マッチムーブは基本的に撮影時の焦点距離データがある事が前提だと思う
解析時に入力するし、ソフトもその値を元に解析するよ
以前同じ仕事をしたCGプロダクションの連中が、撮影立会いしてるのに誰も
メモ取ってなくて自動解析頼みで壊滅してたのも目の当たりにしてるんで尚更
とはいえ、ズームリングのコンマ何ミリのズレまで気にした事はないな
データがあったとしても端から端までピクセル単位でピッタリ合ってるか
というとそうでも無い
歪み補正かけたりコンポジットの時に微調整するから
>>695 俺は真ん中AFだけど、することは合成と色調補正だから3Dがちゃんとしてればソフト何使ってるかわかんない位の物は出来てると思う。
ただNiVEだとグレインマッチが出来ないから大きい物合成したらノイズが無くてCGが浮く可能性はある。
とりあえずやってみろよ?映像制作は試行錯誤だ!
Voodooは名前の通り(Voodoo Camera Trackr)カメラトラッキングソフトだからオブジェクト検出は出来ない。
コレでの制限は勿論SynthEyesと同等と言えない大きな部分ではあるな。
頑張って3dのオブジェクトをアニメーションさせて動き合わせる力業でごまかせる可能性はあり?
>>697 自分は趣味なんで撮影もするんだけど、マッチムーブさせるショットは
動画を撮影する直前に、カメラをスチルに切り替えてそのままjpegで静止画像を1枚撮影しておく。
カメラにムービー機能だけでなくスチル写真撮影機能も付いているからできるんだけども
jpegにはExif情報がついてくるから、Exif情報リード可能なビューアーで見れば
撮影時の焦点距離は載っている。
Exif情報は下記参照
http://www5f.biglobe.ne.jp/~ayum/gazouhenkan/jtrim/047.html 無論撮影中にズームしたらダメだけども。
って、素人技なんだけども役に立つかな。
・・・・syntheyesのwikiほったらかしですんません。
(管理人)
>>699 おお!
気づかなかった。ナイスアイディア
697じゃないけど。
なんで今まで気づかなかったかなー
>>698 Voodoo使いじゃないんで
Voodooの吐くデータの詳細は見たこと無い無責任なんだけども
SynthEyesみたいにカメラの動作データがフレーム毎のXYZ座標の連続なんだったら
XYZ値を-X-Y-Zに変換するスクリプトでも作ってやれば
カメラじゃなくオブジェクトが動いているってことになって
オブジェクトトラッキングってことにならねーかな。。。。
(成功してから書けよな)
つか、ライトをカメラの子供にしとけば とりあえず見た目、オブジェクトが動くように見えるけどね。
>>699 Exifが参照出来る場合はそれでいけますね。
フィルムカメラでもビジコンにコンマ以下の焦点距離が出てたりもするので
それも同録したり。
必死にメモって準備したにも関わらず、手元に届いたショットが
極端なカラコレ&トリミングされた後だったりして泣きそうになった事もしばしばw
解析用の生素材をくれとアピールしておかないといけない事もありますね。
最近じゃ、映像にもメタデータを付けようって動きがあるし、 将来的には1フレ毎の焦点距離がデータに内包される日がくるのかも。 そうすればマッチムーブの困難なカメラズームとのリンクも 問題なく行えるようになるかもね。 加速度センサーをカメラに付けて その情報を元にマッチムーブするとか…無理かな?
705 :
695 :2009/10/16(金) 20:13:57 ID:TJu/uOwY
>>698 グレインマッチっていうのはしらなかった。
ただNiveでもグレインというエフェクトはあるのでうまいこと手作業で汚れをあわせればどうにかなるかもね。
やっぱAEは値段なりの能力はあるね。
>>702 >つか、ライトをカメラの子供にしとけば
>とりあえず見た目、オブジェクトが動くように見えるけどね。
詳しく!
>>704 まてよ
Motion JPEGフォーマットの動画の場合、コマ単位のjpegには
Exif情報はついてないんだっけか?
焦点距離と傾き情報があれば、あとはXYZの位置移動情報だけの問題になるね。
焦点距離と傾き情報が明らかなんであれば、
カメラ自体が撮影時に自身の撮影画像からリアルタイムにマッチムーブ解析して
コマ単位に情報記録してくれればありがたいな。
JpegはJpeg、ExifはExifで別規格 ExifがJpegの一部ではないよ コバンザメみたいなもんだ 距離も記録したいんならザクティがいいよ 動画撮りながら静止画も撮れるから距離が変わるタイミングでその都度静止画撮ればいい 他のムービーカメラでも同じように動画撮りながら静止画も撮れるのあるね
いきなり「距離」って何だ? 焦点距離のことか?
おまいら、焦点距離もいいがCCDサイズ(撮像サイズ)も調べとけよ。 これ、試験に出るぞ。
SynthEyesの購入を最近考えてるのですが、日本の業者から買うと6万円して 販売元で買うと約3万6千円です、日本の業者で買うメリットはあるのでしょうか?
>>710 日本の業者では買っていないけどメリットはあまり無いと思う。
やりとりのメールはもちろん英語になるので
そこを代行してくれるんだと思います。
ただし、購入時にメールで英作文した覚えはないですね。
wikiにはどういうメールが来て、どういう手順で認証するか書いてあるので
特に怖くはないと思いますが。
wikiを読んでみて不安だったら、また英語が非常に苦手だったら
日本の業者を通すといいんじゃないでしょうか?
一応、何をしてくれるのか業者に聞いてみたら?
たぶん問い合わせの英語代行だけだと思うんだけども。
>>710 とりあえず日本の代理店がない頃に買った英語は全く駄目な俺でも
辞書片手に何とかなってる。中学生程度の英文でも十分対応してくれるよw
今はwikiも作ってもらえてるんで安く買える方で良いと思われ。
syntheyesの手動トラッキングしているときに、人とか車とかで、追いかけているポイントを見失う事がありますよね。 このとき、再度ポイントが出てきたとき、新しくトラッキングポイントを作り直すということでいいのでしょうか。 途切れる前のポイントと再出現したときのポイントをつなげる作業みたいなのが必要ですか?
PFhoe使ってるひとはいないのかな?
>>711 >>712 なるほど、ありがとうございます。wikiを参考にして販売元で購入してみます。
最近は単一色の背景使わんで日常の背景でそのままリアルタイム合成できるんだよな
>>718 元のムービーのフレームレートとレンダリング設定のフレームレートの違いで起きているブレです。
そのため3d側が早く終了しています。
元動画が25フレームなのでBlenderのレンダリング設定も25フレーム(FPS:25 1.00)にして下さい。
合成がもし別ソフトの場合その設定も25フレームにしないとぶれる可能性あり。
過去に同じような質問もあるのでスレを見直すと勉強になることもあると思います。
最近は安くマーカーレスのモーションキャプチャー機材が売ってるから グリーンバックで実写素材を撮影しつつモーキャプしとけば 実写とデジタルダブルの動きをシームレスに繋げられると思うんだけど、どうでしょう? 安いモーキャプは上手くデータ取れないのかな?
お、そんなのあるのか。なんていうやつ?
MAYA2010になってMatchMoverが付いてくるようになったんだけど、 このソフトってどうなんでしょう? 単体で売ってたころからでも、評判を聞いたことが無いんだけど。
俺もすげー気になってる boujouとはいかなくてもそれに近いものがあるのなら 50万円のマッチムーブソフトとして本気で考えるけど・・・
725 :
723 :2009/11/02(月) 19:11:07 ID:YgXezhED
そうなのですよ。Boujouに比べると、 50万円のマッチムーブソフトに3Dソフトと合成ソフトが 付いてくると思ったら安いのかなあと。
syntheyesじゃ不満?
そりゃ、不満だろ。
20万くらいのマーカーレスのモーキャプ機材があったような
729 :
名無しさん@お腹いっぱい。 :2009/11/08(日) 03:15:54 ID:uJdW+SE1
MatchMover自体には元々各アプリへのエクスポート機能があるのに なんで3dsMAXには付けなかったんだろうか? 日本では実写VFXだとMAXユーザの方が多い気がするのだが。
Autodeskは明らかにプロ向けに「MayaMaxSoftImage3つとも買ってね戦略」を展開してる 本来それぞれ一つのソフトに搭載できる機能をあれはMayaこれはMaxと振り分けて 3つ合わせてウルトラハイエンドソフトみたいにしようとしている
亀田3兄弟みたいなもんか。 一人に絞らんかい。
>>719 返信遅れました。
指摘されたフレームレートに注意して
もう一度、最初から作り直してみたところ、うまく参考にした動画を真似る事に成功しました。
これで、ようやく自分もマッチムーブのスタートラインに立つことができます。
ありがとうございました。
映画でもゲームでも大手はもうmaxからmayaにシフトしてるからmaxは半分捨てられたようなものだな PCゲームだと今でもmaxが多いみたいだが
ところで10月に出荷されたboujou 5のうわさをまったく聞かないんだが、 会社で使ってる人いる?
735 :
名無しさん@お腹いっぱい。 :2009/11/12(木) 23:23:40 ID:elvlgK8V
素材がトリミングされてると解析不能になるんですっけ? トリミング枠が動的に移動したりするとだめかな? トリミング固定でも広角の場合は中心ずらされるとだめなのかな?? 生素材に超したことはないが、ダメってなると議論が終わるので トリミング素材の場合はどうなの知りたいです。
俺は今の所トリミングされてるから解析不能という事はないかな カメラのズームと連動してトリミング範囲を変えられてたりすると 滅茶苦茶になった事があって、その場合は範囲を指定して何種類か 作って対応した事はある 広角で撮った素材より望遠で撮られた素材の方が悲惨だった 基本的には生素材で焦点距離が分かってる状態の方が解析に 余計な時間も手間もかからない
望遠したらFOVが変わるから誤認識するんじゃないの 焦点距離がわかってもFOVが標準値と異なってたら破綻する
>>736 、737
例えば、スタビライズ処理ってある種トリミングじゃないですか?
移動ショットはこれを実施してからの方がいいのかなと思ってたんだけど
間違いかな?
FOVっていまいち焦点距離との関係がよく理解できてないんですが
トリミングされた素材だと焦点距離やFOVを手打ちで入力してはいけない??
>>705 私は702じゃないけど回答しておくと、
カメラトラッキングはカメラがCGの周りを動き回る訳です。
オブジェクトトラッキングはカメラは固定でCGが動き回る。
下記はカメラトラッキングの場合。
顔の所だけをトラッキング対象にして(背景はトラッキングさせない)、
実際は顔が動いているが、
顔は固定でカメラが回りを動き回った映像だと誤認識させてトラッキングしたもの。
http://www.youtube.com/watch?v=wLcfWAHBYyI しかし、CGは動いていないのでライティングが固定。CGの影の面が変化しない。
下記はオブジェクトトラッキングの場合。
http://www.youtube.com/watch?v=DrQ7IWsX4Qo CGが動いていてカメラは固定なのでライティングが変化する。
んで、カメラトラッキングしかできないvoodooの場合、
前者のトラッキング結果はCGアプリ上ではカメラ側が動いているのだから
カメラモーションとライトを親子にして
ライトもカメラと一緒に動かしてしまえば
辻褄合うでしょうということです。
voodooについての質問です。 私は基本デフォルト設定で、トラッキングをかけていますが、 動画によって設定をいじったりしますか? 動画によってはトラッキングが上手く出来ない時があるのですが、 そう言う場合私は諦めていましたが、何か解決案が無いかと思いましたので・・・。
741 :
名無しさん@お腹いっぱい。 :2009/11/24(火) 12:29:01 ID:1050bdOF
5月の切り抜きのソフト(raybrid)が紹介されていて、未だ実用化段階でないと紹介されていましたが、 既にテレビ番組では使われていますので、紹介します。その番組とは 救命24時病棟24時でそのエンドロールを見た人はわかるかと思いますが、 渋谷の交差点、地下鉄の駅など東京の夜景が無人で撮影されていました。 東京で無人の時間なんて殆どありえないのに、なぜ撮影できたかといえば この会社のツールを使って、動くもの(但し、木、信号などは除外)を全て 消しているのです。これを使わない限り、このような映像は作れません。 これからも色々使われるようになるようなので、楽しみです。 という
日本語でおk
>>741 ふーん。うまくいかない条件と値段をはっきりさせてくれないもんかね。。。
>これを使わない限り、このような映像は作れません。 作れるよな 基本はmpegと同じで背景と動体を分離するだけだ 長時間撮影して背景部分を合成
745 :
名無しさん@お腹いっぱい。 :2009/11/25(水) 20:12:07 ID:NAtb3YD2
>>744 理屈はわかるが既存のTOOLの機能の組み合わせでなんとかなる?
この動画を見たことが無いけど、カメラが動いてないんなら、 マスクワークでなんとかなるわなあ。 まあ、めんどいけどww
>>745 ディファレンスキー使える動画編集ツールでできるぞ
動画トラック何本か並べてその比較で動体のマスクが作られるから、そのマスクを反転すれば背景だけ残る
静止画でできても意味がないだろ。。。 動画で自動でないと。
なんか勘違いしてた。。。 メインカメラのiphoneがCMOS歪みを持っているから 通常のトラッキングができず カメラの動きをトラッキングじゃなくてモーションキャプチャーで 算出したってことか。。。。
とりあえず、周りのカメラの位置から絶対座標はとれるでしょ。 駅の位置は大きさは、実際に寸法を測ればいいし。 あと、あくまでメインはリンゴで、周りの駅やらはばっちりあってる必要はないだろうし。
しかしカメラモーションが出せても CMOS歪みを持っている映像にCG足したら 歪みの部分がずれないのかな。。。
ゆがませりゃいいやん。
ゆがみ方は一定の挙動だろうから 速度に合わせてシアーすればいいんじゃね?
わざわざCMOS使ったのも気になるけど
Millが技術アピールと実験メインで作ってものだからじゃない?
>>756 最後はコンポジターが頑張ったって書いてある
こういうのは結局最後は全部2Dで手作業で力技だよ
762 :
名無しさん@お腹いっぱい。 :2009/12/13(日) 22:29:52 ID:wcqbmENq
>>762 板違い、スレ違い、場違い、あぁ勘違い、キ○ガイ乙
今泉隼介さんという海外で活躍するVFXアーティストが
海外のVFXチュートリアルを日本語訳する会社を立ち上げたらしい。
英語苦手な自分としては超ありがたいっす。
http://www.fxphd.com/の和訳も進めてるっぽい !
↑SynthEyesのチュートリアルとか和訳して欲しい。
署名とアンケートをしているらしいので協力しよう。
利用者の多いソフトとかから先に和訳するって事かな?
>>765 あれ、Syntheyesにそんな機能あったのか。今のバージョン?
そりゃ今年だろ 今年だけでも10本くらい3D上映されたんだぜ 上映施設自体はベオウルフの時にはもう整っていたけど今年になって作品が急増した
ナイトオブザリビングデッドもカラーで3Dでリメイクするし ブルーレイで家庭でも3D見れるようになるし 日本の名作を3Dでリバイバルする企画を今のうちに出してみたら?
・・・あれ、アップグレードってどうやるんだ?最初に送られてきたユーザー名とパスワードだと カスタマーサポートページに入れないし。わからん。 まあ撮影の仕方がわからんし、作れても3Dで見れる発表の場もないけどな・・・。
視差がある二つのカメラで撮影すればなんでもいいってことか。 そういうプレイヤーもあるんですね。 しかし、人に見せるならニコ動とかの簡単に見れるところがいいなあ。 フルHDとかもアップできるようだし、SDサイズを横に並べたやつも表示できるか。 もし作れたら出してみようかな。
デジカメでレンズ2つ付いて静止画も動画も立体で撮れるのあるじゃん あれが一番楽で早い
つべでFinePix REAL 3Dで検索したら沢山出てくる
質問です 適当にテーブルを上から撮ったものをSyntheyesでオートトラッキングして、MAXにインポートしたのですが なんていうか現実は上から撮ってるのにCGカメラでは横から撮ってることになってて、 いまはしょうがなくオブジェクトを映像に合うように横に向けてるんですが、 それだとシーンの構築が困難なので、どうしようか悩んでます。 SyntheyesもMaxも初めたばっかりなので 調整したと思っても、こんどは全然マッチできてなかったりと、大変です。
Finepix Real3Dはカメラそのものの性能がいまいちらしい・・・。
ペンタックスのステレオアダプターってのがあったけど、これなら今もってるカメラでステレオグラムで撮影できるかな?
>>776 Syntheyesで軸の変換をしてください。MAXはZ軸が上方向というちょっと変わった仕様なので、
それに合わせないといけません。上のメニューのEdit>Edit Preferencesで設定してください。
>>777 軸の変換の設定は最初からされていたようです。なので、
テーブルの映像はあきらめて、外の景色を撮ってトラックしたのですが、
カメラの角度?というか、地面が斜めになって、地面と合わせるためにはオブジェクトを
横に傾けておかないと合わないんです。
だから、平面ポリゴンを傾けたりせずに、実写の床にあうようにCGのカメラの角度を調整したいんです。
チュートリアルやったか? その手の話は最初にやったはずだが・・・。
>>チュートリアルやったか? チュートリアルというのは本家の動画チュートリアルでしょうか? どっちにしろ、さっと目は通したと思っていたんですが、かなりすっ飛ばしてました。 急ぎすぎたみたいです。 一応カメラの角度調整は何とかわかったので、ようやくMaxの作業に取り掛かれます。 Maxのほうもマットオブジェクトなど、あまりわからないところもあるのですが、 焦りすぎず、がんばっていきます ありがとうございました
たぶんヤマトもやってるスタッフのBALLADのメーキングセミナー見にいったけど、 CGディレクターが難しいカットで、スタッフにここどうやって合わせたの? と聞いたら時には手でとか、感でとか、答えが返ってきてたそうな マッチムーブ職人みたいな人がいるみたいね。
>感でとか、答えが返ってきてたそうな それが普通。プログラムにばかり頼ってたら経験値は上がらんし、お粗末な物しかできんよ
普通で切り捨てたらセミナーにはならんだろ。 名人紹介とセミナーは違うんだぜw
職人てw 手マッチムーブは普通によくやるよ。っていうかやらないとどうにもなんない。
>>785 付いてこれない負け犬は切り捨てられて当然。
感にばかり頼ってたらで同じように言いかえせるような身のない話楽しいか?
まぁセミナーだしTips的な事を期待していくのは当然だよなw
>>790 おまえはオームのセミナーと勘違いしてるだろ?
なんだ、図星か・・・ツマラン
>>788 >感にばかり頼ってたら
まてまてw
実際手元に来るのが全てがマッチムーブかけれれる
完璧な素材ばかりなんて実務ではありえんぞ。
結局どうにかしろと言われたらやるしかない。
それが現場なんどす
セミナーってのは「うちはこんなん出来ますよ、証拠にちょっとさわりだけ見せたげる」ってのが本心で 営業として、対外的な技術のアピールと、うちはこんなに注目浴びてますよってイメージ展開がメインだろ。 なにか教えてもらえると思って行ってる同業者は、ただのサクラとして利用されてるだけ。 まあ俺もふらふら行っちゃう口なんだけどw
つーか、
>>787 のようなというべきか。
切り捨てるような殺伐としたセミナーとか見たことないw
マッチムーブって再利用性ってもんがあまりない気がする。 TOOLを使うノウハウそのものは再利用できるっちゃできるんだけど。 モデリングはパーツとかテクスチャとか使いまわしたりできるし AEの効果なんかも効果をつけた映像の設定は結構そのまま使いまわせる。 時間が食う割にマッチムーブだけは資産化が少ない気がするね。
>>794 やるしかないんですうで済ませてるからろくでもないものできるんでしょ。
つーか、仕事でマッチムーブやるんだったら 極力、撮影現場についていって、あれこれ口出しできるようにならんといかんだろ。 ついていけんでも、オールスタッフでちゃんと注文出しとくとか。
ターゲットさえ存在してればなんとかなるし、他は撮影監督の全責任じゃないかなあ。 絵合わせでなんとなくあってれば別に良いし。 素材が抜けないってのは良くあるし、これはどうしようもない。 お天気の都合もあるし、影が動いてたとかいろいろある。これは運かな
マッチムーヴ職人の朝は早い・・・
いや?それが普通なんだが?
確かに、朝が早いのは普通のことだ
クマの影が左右で合ってないよ
807 :
名無しさん@お腹いっぱい。 :2010/01/17(日) 02:54:14 ID:1cq7WxZg
3Dマッチムーブのノウハウをいち早く持てば 意外とどこかでチャンスがつかめるのかな。
それはない。ネットレベルのノウハウなんぞ現場では全く役に立たん。 最初からバイトでも派遣でもいいから、現場に入り込む努力をした方がいい
そもそも3Dマッチムーブの現場ってのが日本にあるのか? これからできるんであればネットレベルのものでも意味があるかもしれんよ? 3Dに限らずネットで発表したものでも現場に入るチャンスになりうるし。
マッチムーブなんてCG屋が片手間にやってるぐらいで 以前のようにマッチムーブだけで金が取れるなんて事は滅多に無い というか俺はここ数年一度もマッチムーブ代を貰えた事がないw
マッチムーブってこんな流れでしかやった事ない 俺「できるだけFixで撮ってきてください」 D「了解」 数日後 D「撮ってきたよろしく」 ・・・・ 俺「手持ちでお前がじっとしてるのはFixって言わねーんだよ!」 で、しょうがないので合わせる。 客はマッチムーブされてるのも気づいてない。
マッチムーブをオプションにして別料金取れば客も気付くんでない?w
マッチムーブの位置づけが難しいよな。 ハリウッド映画とかだと専門職にしてる人もいて、始めからマッチムーブ前提。 日本だとそのへんが曖昧であとからこうしたいからマッチムーブ使わないと・・・みたいなのがまだ多いいような? ただマッチムーブはどちらかというと合成をサポートするプラグインだと思って使うべきってのが正しい気もする。 3Dで風景リアルに作りたいからVeu使うみたいな考え?マッチムーブだと気づかせないのがそもそもだし。 マッチムーブソフト単体じゃ作品は作れないわけだしね。
boujou代を償却するためには、マッチムーブ分上乗せしないとやっていけない
>>806 ん、そうですか?
カメラの位置が多少違うだけでほかを変えてるわけじゃないし・・・。
別に問題ないようにみえるけどなあ・・・。
>>815 ちょっと言い方が悪かったかな。
左右の画像で、実写の影とCGの影との位置関係がズレている部分がある。
たとえば135コマ目あたりで右の画像ではまだクマの影が植木の陰の上に乗っているのに、
左の画像では先に植木の影を通り越して分離してしまっている。
些細なことと思うかもしれないけど、立体視をすると、
このズレのせいでクマの足元のあたりを脳内で平面としてうまく合成できなくなり、
影がキラキラ光ってるように見えてしまったりして強い違和感が生じる。
ひょっとして立体視になると高いマスクの精度が 要求される?? レンダリング結果も、毎回誤差が発生するような場合は 厳しいのかな。。。。 良く考えたらあたりまえだが、撮影も2カメラで完全に同期とってないと 2台並べただけじゃだめなわけだしね・・・。
syntheyesなんですけど、 たとえば黒白動画をトラッキングのマスクとして使うことはできるでしょうか。
やりゃできるんじゃね?
Voodoo Camera Trackerのことで質問なのですが、 読み込む画像は予めOpenCVのcvUnDistort2などで歪み除去をしておいた方が良いのでしょうか? 事前にcvCalibCamera2で内部パラメータ行列、焦点距離を推定すればその結果はFocal Lengthの項目に利用できますし、 焦点距離、レンズ歪み、共に未知でトラッキングするより誤差は小さくなると思うのですが このあたりについて知っていればよろしくお願いします
その通りででOKです。歪みを除去することは精度を上げ、エラーを減らすためにするべきです。 お金を出せば機能的にソフトに内蔵されてるぐらいなので。
レスありがとうございます 書いてから気付いたのですが、Voodoo Camera Tracker自体には カメラキャリブレーション、レンズ歪みを計測する機能はあるのでしょうか? 一応サンプル画像の中にはZhangの方法を思わせるキャリブレーションボードの画像があります マニュアルでは内部パラメータや歪み係数の推定結果をVCT用のファイルとして出力するような機能については CAHV形式?でセーブできるようなことが書かれてますが…… とりあえずはOpenCVのキャリブレーション、歪み除去をしてから使ってみることにします
823 :
名無しさん@お腹いっぱい。 :2010/02/08(月) 13:51:22 ID:XIdI1yZU
クロマキー合成を自宅でしたいのですが 極力ノイズを減らす為にライト炊きまくって ゲイン下げてレンズ絞ってシャッタースピード上げるって事でいいでしょうか。 あとバックライトを当てないと合成時に違和感が出ると聞きました。 今は500wハロゲンライト3つ持ってるんですが、 あとどれくらいライト足りないでしょうか。 なるべく安価で低電力で行きたいです。 ソフトはROBUSKEY(AE版)を買う予定です
そのシーンでのカット割り、ライティングがどういうものかわからないと アドバイスもくそもないと思うけど。 グリーンなりブルーバックだって種類があるし、個人じゃかなり高いよ。 自主制作とかならとりあえず手持ちの機材で試してみれば? 安くやりたいのにトライ&エラーもせずじゃ何も出来ないと思うけど。
826 :
名無しさん@お腹いっぱい。 :2010/02/08(月) 16:46:04 ID:XIdI1yZU
わかりました。とりあえず試してみます。 グリーンの布なり紙なりはクロマキー用途でないもので代用して安く済ませます。 役者以外はCGなのでGOEMONのメイキングでも見てみます。
827 :
名無しさん@お腹いっぱい。 :2010/02/09(火) 00:49:19 ID:zWBUa6lB
823に便乗でご質問。 クロマキー合成でCGのステージと実写(人物)のライティングを うまくあわせるセオリーってあるんでしょうか。。。 理想的にはスタジオでライトの位置をきっちり決めて測定し、 CG側でそのライトを再現することなのかなぁ・・・・? 背景がほとんどCGの作品って結構多いけどよく合うなぁと不思議です。 金と手間を割いている場所がどこなのか、わかれば 安く済ませる代案も思いつけるかもと。。。。
>>827 そのためのライトプローブの撮影なんでないのかな
アレを観て事前にライティングのシミュレートして
実際の配置に役立てるんだと思うよ
830 :
名無しさん@お腹いっぱい。 :2010/02/09(火) 23:53:33 ID:zWBUa6lB
>>828 おおお。いいっすね。ネタかと思いきや良質な。
なんか動画はどれも綺麗にヌケるかどうかがメインなんだけど
それはもちろん重要として、
ライティングそのものは方向さえあってれば
カラコレで意外と騙せるものなのかしら・・・・。
831 :
名無しさん@お腹いっぱい。 :2010/02/12(金) 07:53:35 ID:wlYnUUWx
/\___/ヽ / ::::::::::::::::\ . | ,,-‐‐ ‐‐-、 .:::| | 、_(o)_,: _(o)_, :::| うわぁぁぁぁぁぁぁぁぁぁぁぁぁぁ…… . | ::< .::| \ /( [三] )ヽ ::/ /`ー‐--‐‐―´\
今だ!2ゲットォォォォ!  ̄ ̄ ̄ ̄∨ ̄ ̄ ̄ ̄ 。 。 || || /⌒ ヽ. / ⌒ヽ( /⌒ヾ ) ((゜Д゜,,))ゝヽのノノ ⊂⊂ _____つ )) ))
833 :
名無しさん@お腹いっぱい。 :2010/02/18(木) 04:05:29 ID:Jsx5I/ti
syntheyesの次バージョン(2010とか)出る予定はないのでしょうか。
SynthEyesをマッチムーブ用途では無く スタビライズ用途で使おうとしているのですが、 スタビライズを行った後、セーブシーケンスで無く、 回転・アンカーポイント移動をAfterEffectsのキーフレームとして、 CSVやテキスト等で書き出す方法は無いでしょうか?
>>834 AfterEffects via .ma でエクスポートしてAfterEffectsでインポートすればいいよ。
スタビライズ系のプラグインなんかよりも全然いける。
ニコンのカメラ買ったんだけど 焦点距離伝えるCPUレンズとか 俺や相手が回り込んでもAF追従する3Dトラッキングとか 変態過ぎて笑ったw ハリウドのカメラってもっと凄いことになってんのかな・・・
>ハリウドのカメラってもっと凄いことになってんのかな・・・ 合成素材用に撮影する時には、普通にムービー一眼レフカメラを使ってる。 市販されてるボディに、特注の玉や他メーカーの玉付けたりして。 最初にムービー一眼を使ったのは「24」で。普通のハイビジョンカメラなんかより安価で高性能で なにより物凄く使い勝手が良くてタフ。いまじゃ、ほとんどのハリウッド映画のサブカメラ用に使用されてる。
ちなみに、ティム・バートンとか、スピルバーグ、ルーカス達が好んで使うカメラはEOS系
>>838 YoutubeにEOS系のムービーで綺麗なの結構上がってるもんなあ。
ああいうのを見ると、ちょっと欲しくなるw
ムービー一眼からは圧縮動画しかとれないんじゃないの? 圧縮かかるとフリンジとか綺麗に抜けないから 大容量ストレージ併用で、限りなく非圧縮に近い素材を得るはずなんだけど。
4:2:0は合成にゃ向いちゃおらん やめとけ
>>843 他はどうかしらんが、少なくとも「お前だけには」向いていないのは確かなようだな。
自分で告白してるんだから、間違いないだろ?
>>842 君は本当に無能だな。もともな思考が出来ないらしい。
>>828 をちょっと見ただけでも、解るだろ?それとも目は飾りかね?
飾りだからカタログと雑誌の読みかじりで実際に手足を動かすこともできんのだろ。
君は本当に無能だな(笑)
>>835 アドバイスありがとうございます。
私の操作が間違ってるのかもしれませんが、
RunAuto-TrackerからImagePrepararionでスタビライズしただけでは.maで書き出しても1フレームもキー情報を持たない空のファイルになってしまう様になんです。
通常のマッチムーブの際には.maで正しく書き出されるのですが。何かコツとかありますでしょうか?
スタビライズだけ実施してない? AUTOで解析してからスタビライズかけないとあかんのとちゃう?
たとえばAEとかでスタビライズした動画だと、本来ありえないカメラの動きとかになるからトラッキングが難しくなりますよね。 syntheyesでやるとそのあたりはちゃんと問題ない動画になるんでしょうか。ちょっと気になってた。
>>844 が何を言いたいのかわからんが
>>843 が言ってるのはこのあたりのことでしょ?
http://www.depth-of-field.jp/main/beginner/beginner_003.php 確かにクロマキーするのにはHDVとかもYV12の4:2:0だからエッジの抜けは良くないな。
一度連番シーケンスに書き出すだけでもエッジラインは若干解消はするけど。
一眼はAVCHDかH.264だから同じくだな。
ハリウッドでも合成カットは一眼じゃ無いだろ?
まあ実際そんなこと言ってたらきりがないけど。
ムービー一眼も良いけどマッチムーブだけで考えると機種によってAFの問題が出てくるよなレンズにもよるし。
だからその辺考えるとCMしてるサイバーショットとかのコンデジの方が良いかも。趣味範囲ではね…
>>850 精度を出そうと思うとパースの問題があるから始めからブレを最小限にするべきかな。
復活
SynthEyesを買ったんですけど永久ライセンスの認証って 仮ライセンスが切れてからじゃないとダメなのですか? もしそうだとしたら仮ライセンスって いつ切れるのかしら…?
855 :
854 :2010/03/02(火) 23:14:37 ID:c3pzr7k2
すいません。 仮ライセンスの切れる日付はメーカーからのメールに書いてありました…。 引き続き永久ライセンスの認証は仮ライセンスが切れてからじゃないといけないのか 教えていただけないでしょうか?
>>852 最近映像合成の勉強始めた者ですが、
>>851 のどの部分が情弱なんでしょうか?
勉強のためにぜひ知りたいです…
ティムバートンは実写の方は知らんけどコープスブライドの時には デジ一使ってコマ撮りして、直接PC上でプレビューして撮影するシステムでやってた。
コープス・ブライドは人形の出来にうなった。 しかし、あれスムーズ過ぎてCGアニメに見えちゃうんだよなw もっと粘土アニメみたいな素朴な味わいがあったほうが良かった。
>>851 そうだよ
普通はHDVやH264なんて使わない
だからコーデック変換して補間する
あとはソフトの出来次第だな
だいたいハリウッドはHDCAMでもレート足りないって世界の厚木に文句言う世界だからね
よほど困窮?してる現場でも無いと
「ソフトの出来」っつっても、自分ところのスタジオで大道具や小道具を作るみたいに、 自分等の都合の良いように、ソフト自体を0から作ってしまうからなぁ〜。 デジイチみたいな精密機器じゃなけりゃ、カメラやレンズですら0から作ってしまうし。
HDVもデジイチもクロマキーに向かないのか。 じゃあ何で撮るの?
HDVもデジイチもクロマキーに向かないと思うのなら、何故向かないかを考えて、 解決策を見つけ、自分が使う機材ではクロマキーに向くように作り変えればいい。 それが、ハリウッド的考え。 日本の厨房は、市販品をマニュアル通りにしか使うことが限界だと思い込んでいる。 しかも、その機能をほとんど使いこなせないで文句言ってるのがほとんど。
仰せの通りでございます。
ハリウッド的考え(キリッ (笑)(笑)(笑)(笑)
どんだけ茶化そうと、実際のところ、863の言うとおりだしなあ
YUV的にブロック毎にクロマ情報が変わらず輝度が変化するから ブロックノイズになるのを避けるために クロマ情報にのみちょっとブラーかけてやるのがセオリー
しかし実際やってみるとぼやけた感じであまり意味無かったりするw ま、そういう手法もあるって事で。
撮った後にスイッチャーで4:4:4で取り込むのかな?
他人がどうやってるかは問題じゃない。お前が、お前の環境の下でどうするかが問題だ。 自分で考え、自分で問題を見つけ出し、自分で解決策を考えて対応策を纏めろ。そしてそれを成功するまで試せ。 途中で辞めなければ、失敗はありえない。がんばれ。
屋内だったらカメラ側で記録せず スルって直でキャプチャする方法もあるでよ。
キーイングはRGBの G or B とかを判断して抜くんだからYUVじゃなくてRGBの色情報で記録するのが理想ってことでしょ。 だからたまに自然界に無い原色系なら何でも抜けるんでしょとか言ってるバカは… HDMIスルーとか最近普通に付き出したからキャプチャはしやすくなったのかな? それよりマッチムーブの話が減ったな。
ネタを自分から。 まだまだ初心者の自分なりに、初心者が的確にマッチムーブするコツ?をメモってた物をさらす。 間違いや足りないことを大いに指摘してくれ。実際やってないこと書いてるし。 ・撮影時のポイント 早いカメラワークは避ける。(トラッキングのエラー要因) カメラ揺れは最小限に。(見やすい、エラー・ズレを減らす) ズームは極力避ける。(焦点距離、レンズの歪みの変化はトラッキングに対して理想的でない。ズレが出やすい。) ぼかさない(ポイントが取れない) ---より精度を上げるには。--- 焦点距離をメモ。 トラッキングのアタリとなる物をおいて撮影(紙、テープなど)。 カメラに収まっている物の実測計測。(アタリのモデリング・合成物のサイズ合わせ用。) 合わせて周辺のスチルショット。(テクスチャ用、モデリング資料、環境資料) 光源、影の方向、長さのチェック、メモ。参考となる無地のボックス、球体などを撮影しておくとなお良し。(3dライティング参考用) (曇りの日は陰が少なくのちの合成はしやすい。) 歪み除去の効率化のため、方眼用紙の撮影。(精度が必要なシーンでは必須?) DHIR素材用銀球の撮影。(映り込みがある、想定される場合・IBL)
・マッチムーブソフトでのポイント。 フレームレートの確認。 インターレースの有無。(始めに除去した素材が理想) 地面、平面の指定(Voodooは3dソフト側で手直し) ---より精度を上げるには。--- 先に撮影した方眼用紙のショットからレンズの歪み数値の算出。 算出データをもとにトラッキング素材の歪み除去、除去後のシーケンスの書き出し。 焦点距離の入力(可能であれば)。 トラッキング後スケール合わせ。(計測データをもとに) ・3dソフトでのポイント スケール合わせ。確認 位置関係の確認。 必要に合わせてアタリのモデリング。(正確にトラッキングできていればトラッキングポイントを結ぶようになる。) ライトの位置合わせ、影の調整。 書き出し時のフレームレートの確認 ・合成時のポイント フレームレートの確認(素材取り込み後から合成まで統一すること) カラコレを的確に。(3dは彩度を少し落とすなど。) グレイン(ノイズ)をCG素材に加える。(重くなるが、リアルにするなら必要) 必要に応じて要素の書き出し。(合成の効率化のためカラー、スペキュラ、反射、AO、影、Zバッファなど…) モーションブラーに配慮。(馴染みに大きく影響)
DHIR素材ってなんだろうと暫く考えてしまった
HDRIですね。はい その前はHDIRって打ってたしwww
Hitoride(一人で) Dekirukara(できるから) Rikutu wa(理屈は) Iranyo(いらんよ)
Syntheyesで今まで読めていたAVI(MotionJPEG)が読めなくなりました。 PC(windowsVista)を再起動しても変わりません。 再インストール以外に、いい方法はないでしょうか。 仮になかっても、原因がわかればいいと思っています。
AVIのファイルをコピーして別なHDDやフォルダに移動してみるとか
880 :
名無しさん@お腹いっぱい。 :2010/03/16(火) 04:58:23 ID:ml7cS/gj
881 :
878 :2010/03/16(火) 19:50:20 ID:Dntgt/x4
>>878 のことはとりあえず連番BMPにしたらいいので保留。
ところがほかの現象が。
ttp://www.youtube.com/watch?v=mblOdiY6UtI のチュートリアルを参考に順調にトラッキングを進めて、
Perspectiveビューにして、もとのQuadビューにしたところ、アプリが応答しなくなって落ちました。
もう一度Syntheyesを再起動してビューモードを変えたところ、全部落ちます。
それどころか、Perspectiveを選択しても落ちます。
これはバグでしょうか?解決策はありますか?
3dsMAXのサブスクリプションからmatchmoverを落として使ってみているのですが、 マウスで画面をドリーとかすると、すぐに、間違いなく、たちどころに 無反応になるのですが、解決方法を知っている方、いませんか。
質問 syntheyesでAftereffects via maで書き出しするとAEで読み込んだときに アスペクト比がおかしくなります(映像ソースは640x480、書き出した.ma 480x480) どのパラメータをいじれば640x480で書き出せますか?
886 :
名無しさん@お腹いっぱい。 :2010/04/11(日) 09:35:42 ID:Xv/v+XYy
ところで、久しぶりに映画クローバーフィールド見たんだけど、強くモーションブラーがかかってる中で
綺麗にマッチムーブできてるなーと関心したが、あの手振れはマッチムーブした後に揺らしてるのか、
ゆれた映像に合わせてるのかどっちだろうか
自分がやるなら前者だが、自然に揺れてるから後付けには見にくいけど、最初から揺れてたらポイントが
満足に取れなくて手動でやることになるだろうし。
一応クローバーフィールドの予告を張っておく
http://www.youtube.com/watch?v=s-8ISAzYvns
887 :
名無しさん@お腹いっぱい。 :2010/04/11(日) 09:40:42 ID:0wmmw9m1
何のためのマッチムーブだよ
888 :
名無しさん@お腹いっぱい。 :2010/04/11(日) 10:19:55 ID:Xv/v+XYy
基本的な動きはマッチムーブして歩きながら撮ってる様に上下の揺れを足してるのかなーっていいたかったんです。
なんてレベルが低いヤツなんだ・・・
890 :
名無しさん@お腹いっぱい。 :2010/04/13(火) 03:07:40 ID:Y6uWHKQf
合成は、最後はお前の目できまる、
マッチが動く。
893 :
名無しさん@お腹いっぱい。 :2010/04/20(火) 06:06:56 ID:br9eU8IN
SyntheyesのオブジェクトトラッキングはLWには読み込めない?カメラトラッキングのみなのかな。
movimentoってどうなったの?日本代理店は先日取り扱い中止になったようだし、 メーカー自体はオートデスクに吸収されたみたいだけど。 matchmoverがサブスクで手に入ったから、movimentoも期待してるんだけどね。 ひょっとしてmatchmover2011と合体したとか?今サブスクで手に入るmatvhmover2011はなぜか起動しないけど。
897 :
名無しさん@お腹いっぱい。 :2010/05/23(日) 12:36:12 ID:UKVYT6qf
もう一度投稿させていただきます syntheyesでAftereffects via maで書き出しするとAEで読み込んだときに アスペクト比がおかしくなります(映像ソースは640x480、書き出した.ma 480x480) どのパラメータをいじれば640x480で書き出せますか?
syntheyesで読み込んだ時の初期設定のアスペクト比はOK?
900 :
897 :2010/05/25(火) 22:40:06 ID:9nK6A7X/
>>898 メニューのShot - Edit Shotで見てみたんですが、MemoryStatusのところに
Images:640x480
Final Aspect:1.333
と書いてあるので、大丈夫かと思います。
それと、Back Plateが 0.980 0.735 in
となっていますが、BackPlateって何なんでしょうか?
matchmoverのソフトでトラッキングしたポイントを、 エクスポートする際に.msで出して、3ds maxでスクリプトを読み込んだのですが、 各ポイントがすごく大きく表示されていて見づらく、困っています。 matchmoverでのエクスポートの際に、ポイントの形を小さくする設定が あったような気がしたのですが、見つかりません。 ポイントを小さくする設定をご存知の方いらっしゃいましたら、 教えてもらえないでしょうか。
902 :
名無しさん@お腹いっぱい。 :2010/06/09(水) 18:40:56 ID:btPRhGgw
syntheyesとかに人間の顔をトラッキングする機能ってないんだろうか? 目・鼻・口などをポイントにして 一番需要があると思うんだが
>>902 おおお、面白い。
今は個人でも結構なものを作れるほどだから、最先端だとすごいね。
こういう技術が個人レベルに降りてくるのはいつになるかな。
個人といえば、最近の菅直人が車に轢かれる動画はよい出来だな
>>905 思った。尺短いのもあるけど、クオリティ的にはすごい。
プロの手抜きって感じ。
908 :
902 :2010/06/09(水) 21:45:29 ID:btPRhGgw
これ、AECS5の宣伝じゃないか?
>>908 ありがとうございます
CS5はたぶん使ってないと思う
アイデア勝ちじゃないかな?
でも政治ネタはコメントが荒れるね
912 :
名無しさん@お腹いっぱい。 :2010/06/21(月) 02:28:20 ID:up4VL7Q9
MAYA2011とmatchmoverの体験版をやってみました 3dのキャラを読み込みは出来たんですが背景の映像のインポートが分かりません mp4形式のカメラで撮った映像は取り込めませんでした。。 一応ヘルプを参照したのですが知らない拡張子ばかりです。 背景の映像は何の拡張子にすれば入るのでしょうか?
拡張子て…わからん単語はクグって理解しようよ 連番でいけるはず
914 :
名無しさん@お腹いっぱい。 :2010/06/23(水) 01:21:53 ID:ccFWBoyq
しこうさくごでggrks
マッチムーブと関係ないような.... ALLCGだろこれ。
マッチ売りのおっさんがなんだって?
手作業は当たり前だ。ソフトは補佐的にしか使い物にならん
921 :
名無しさん@お腹いっぱい。 :2010/06/24(木) 17:03:57 ID:RxSHLA2w
mocha for AEってマッチムーブソフトとしてはどうですか? syntheyesとかboujouとか無しでも十分使えるって感じですか? うちはまだAE CS3なのでmochaがどんな感じなのかわからなくて。
>>921 あれは2.5Dトラッキングで、3次元空間としてトラッキングしてるんじゃなしに、
コーナーピンで擬似的に3Dにしてる。
自分はテレビの画面をはめ込むときとかに使ってる
SynthEyes体験版の制約ってなんでしょうか?
924 :
名無しさん@お腹いっぱい。 :2010/07/22(木) 01:30:38 ID:FkGJHYWw
>>923 解析はできるが出力ができない。
Syntheyes上でマッチした状態を確認するだけ。
外部のCGアプリへデータを持っていけない。
>>924 なるほど。
回答ありがとうございました。
http://gimon.blog.ocn.ne.jp/blog/2010/07/syntheyes_2011p.html 【マッチムーブ】SynthEyes 2011、Pixel Farm 新技術発表予定:SIGGRAPH
今月開催されるSIGGRAPHで、マッチムーブ ソフトの SynthEyes 及び PFTrackを開発しているPixel Farmが新商品を発表します。
SynthEyesは、バージョンアップして SynthEyes 2011 となり、7月以降に現行バージョンのSynthEyes 2008を購入すると無償アップグレードできます。
Pixel Farmは、新しいアプローチの製品で、PFTrackとは違う製品のようです。
Mark Christiansen氏の記事に現段階で予想できる機能を挙げられています。
・New architecture based around “node-based flowgraph architecture”
・Procedural, non-linear environment in which to experiment with, and combine, various tracking approaches
・64 bit native
・Python integration
・ “low cost”
ローコストが気になるところです。SynthEyesと競合する価格帯なら迷いますね。
何も無い机の上に CGで制作したオブジェクトを配置し、 マッチムーブをおこないたいとかんがえています。 フリーのマッチムーブソフト Voodoo Camera Trackerをつかっていますが、上手く解析できません。 ソフトへ解析データを移してみたら カメラの動きを上手く再現出来ていませんでした。 フリーのソフトの限界もあるでしょうが、 やはり、何も無い机の上など、 トラッキングする物の少ない映像は、解析し辛いものなのでしょうか?
結果が不良ならブルーバックについてるようなトラッキングポイントいくつか置いて見たら?
>>927 「トラッキング」(追跡)なんだから追跡対象が明確じゃないと無理。
カメラの動きに合わせたトラッキングポイントを設置しなきゃどうにもならない。
100円ショップで売ってるポイント用の丸シールでも貼ったら?
マッチムーブはカメラワークの合成なんだから撮影が一番大切なんだよ。
>>929 機械翻訳をちょいと整えた程度なんで、間違ってるかもしらんが、一応。
Andersson Technologies社(低価格で非常に優秀なマッチムーブ機能を備えたSyntheyesのメーカー)は、
来週シーグラフ2010でSyntheyes2011を発表するでしょう。
このリリースでは、セットの再構築に注力しており、新機能としては、ビジュアルエフェクトアーティストが
あらかじめ記録したセットの3Dモデルを作成できます。
CGIクリーチャーなどの新しい効果を加えるか、あるいはセットの外観を良くするために、例えば機能拡張して
アートディレクションしやすくなるでしょう。
コンポジットアーティストは、新機能である3D空間のレイヤー構築が使えるようになります。
>>932 この翻訳見る限りは期待しちゃうんだけど
シーグラフ2010が終わっても何にも発表がない
それどころかシーグラフ2010で何が展示されたのかという情報も全然出てこない
>>926 のPFMacthITって言うソフトは公式HPでアナウンスされてるけど
これも情報がなくてどんなソフトなのか全然わからない
建造物を3DCGで製作して、カメラで撮った風景写真に合成したい。 風景写真は色々な角度、状況で撮影します。だから建造物を3DCGで作成すると使い回せる こう考えているのですが、正しいのでしょうか?そして必要になる手法はカメラマッチと聞きましたが、 そういうのに対応するスレがわからないんですが、このスレで何かとお聞きしてもよろしいのでしょうか?
>>934 間違っていないよ。間違っているのはスレが違うって事だけ。
ここは静止画ではなく動画だからね。
一番安価な方法は、Shade8.5以上のカメラマップ。
他のソフトでも当然出来る。3DソフトじゃなくてもPS CS3以上なら可能なんじゃない?
君が使いやすいと思うソフトで、他を当ってくださいな
全然書き込み無くなったな。 sysntheyesの新しいバージョンはどうなった? PFmatchitってどんな感じ?
自分もそれが知りたいのですがまったく情報がないです 結局シーグラフではsysntheyes2011はプレビューされなかったのでしょうか 海外サイトをぐぐっても情報ない
だからなに?
941 :
939 :2010/10/25(月) 00:09:12 ID:KWyRVNbm
どんなことが新しくできるようになるのか、このスレの人なら分かるんじゃないかと 自分は初心者なのでさっぱり。。。
だから?
943 :
名無しさん@お腹いっぱい。 :2010/11/07(日) 20:06:21 ID:p6c5lMYD
それを聞いてどうする?何の価値がある?答えて、なんの見返りがある?あん?
走りだしてからは1カットかなあ? カメラマンは途中まで車に乗って移動(すぐに降りれる状態) →途中から降りて引き続き撮影 てなもんじゃないかと 2分過ぎの布をかぶせるところから明らかに画面のブレが大きくなってるから あそこで降りたんじゃないかという気がする 飛行機墜落部分はいかようにも出来そうだからなんとも 墜落まで別カット→大きく右にパンするタイミングでつなぐ とか 墜落部分も1カットで それだと墜落後のセットが見えてしまうから そこは丸ごと墜落シーケンスをかぶせる とか
946 :
943 :2010/11/08(月) 19:14:09 ID:yXQWHByi
やっぱりそんな感じですよね。 でも、あれだけブレてもきっちりCG(炎とか)の動きをマッチさせてるのはやっぱりプロですね。 ブレとかズームとか少し加えたりしてるんでしょうかね。
948 :
名無しさん@お腹いっぱい。 :2010/11/24(水) 23:12:55 ID:4Im9chDi
SynthEyes2011ってもう発売されたの?
でてる。昨日アップグレードした。
新機能どうですか? 劇的に変わった部分ありますか
新機能はいらないが、 精度の向上と、長い動画でも使えるようになってほしいな。
まったくだ。そこが大切だよね 何も出来ないヤツは,スグに新機能新機能って言い出すからいやなんだよね。 新機能が付いたら、自分でもできるようになると思いこんでやがる。愚かとしかいいようが無い
953 :
名無しさん@お腹いっぱい。 :2010/11/28(日) 09:12:19 ID:9+lPb1tA
静止画写真の背景にCGキャラを合成したいと考えています。 CGはMAYAで作業します。 写真の画角にMAYAのカメラをあわせる最もいい方法はなんでしょうか。 目視でなんとかあわせていくのが一般的でしょうか。 matchmoverを使ったほうが正確に効率よくできるでしょうか。 matchmoverで静止画のトラッキング?はできるのでしょうか。 よろしくお願いいたします。
954 :
名無しさん@お腹いっぱい。 :2010/11/28(日) 10:55:01 ID:/FONI2IU
静止画なら見た目でも問題ないと思うよ。 Syntheyesとかあるならそっちのほうがいいかも。 あと、Syhtheyes2008って結構頻繁に落ちるんだけど、2011は改善されてるの?
SynthEyesとcamera trackerってどっちのほうが性能いいの? 値段同じぐらいだから迷ってるんだよね。。。
CGが実写の物の裏側に回り込む表現は blenderではどのようにすれば実現できるでしょうか? 具体的には自身は透明なのに、その後ろのオブジェクトだけ見えなくするオブジェクトは作成できるのでしょうか? それとも別途マスクとして出力する必要があるのでしょうか?
動画編集ソフト使って手作業マスク作るに決まってるじゃん。 3Dだけでそこまで正確にできることはあまりないなあ。
なるほど。回答ありがとうございました
まあできることもあるか・・・・。 とりあえずマットオブジェクトとかそういう単語で調べてみて。ブレンダーは知らん。
ありがとうございます。マットオブジェクトにすることで実現できました。
>>960 ちなみに、マッチムーブソフトは何を使ってますか?ソフトによってかなり、違和感の差が出るみたいですが。
インディゾーンと本家で36000円も価格差がある。ほぼ倍。 みなさんどっちで買ってますか?英語苦手なら日本代理店通すべき? 日本語マニュアルとかは特にないみたいだけど
963 :
962 :2011/02/11(金) 09:11:28 ID:OGAA/L+4
s、syntheyes2011のことです。すみません。
>>962 インディゾーンは円建て決済で日本法人としか取引できないようになっている古い経理が
残っている会社の法人取引のための窓口であって、個人はメリットないでしょ。
知っての通り日本語化されてるわけでもないし、インディゾーンを通して英語でどうにか
するくらいなら、ずるっこ!(
http://zurukko.jp/ )でも使ったほうがいい。 タダだし。
Voodoocameraしばらく使ってみたけど、さすが、フリーなだけあって、あんまりよろしくないね。 解析エラー多いし、画像シーケンスで解析だから、あんまり長いのは無理だし。あれで、作品とかつくれるものかな。
>>965 だから、あれをベースにした商用のVooCatがあるわけで。
>>966 ですね。Voodoo見つけた時、
「お金を払わないで、マッチムーブが、出来る時代が来たのか」
と、思ってしばらく使ってたけど、
中々、あれでは作品作る事は難しいね。
やっぱり出てきたな。自分らの無能さをソフトのせいにするヤツラが
>>964 あ〜ありがとうございます!
このサイトはいわゆる自動翻訳より便利でいいですね
>>965 Voodooがイマイチなのは同意だけど
>画像シーケンスで解析だから、あんまり長いのは無理
コレは意味がわからない
そろそろ新スレ立てたほうがいいかな?
この速度じゃ990いってからでもいいだろうね、これじゃすぐ落ちちゃうよ。
ってか、一旦落としてから、適当な時にスレ立てれば良いよ。 別に必要でも、急ぐスレでもないしな。
>>970 誰も声の大きい奴が有能なんて話してんじゃねえんだよ
どんな仕事でも、声の小さい奴は例外なく無能だって言ってんだ
どんな仕事って言っても正社員で経験したのは4社だけど
バイト時代も含めて声が出てない人は必ず仕事も出来ない人だった
一人の例外も無くだ
まだ12年の短い社会人経験から得た経験則だが、
まともに働いてる人間ならほぼ共通する認識、つまり常識のはずだぞ
976 :
名無しさん@お腹いっぱい。 :2011/04/03(日) 01:51:23.28 ID:95lKsAiD
>>974 いろんな業界、職種がありますので、、、
一緒くたにされましても、、、、。
コンビニ、居酒屋とかですか?
コピペに構っちゃダメ
でも映像業界も声の小さいやつというか自分の意見を言えないやつはやっぱり長続きしないかずっと貧乏だろ
>>978 たぶん
>>974 の文意では、「声が出てない」と言う記述があるので、物理的(音響的?)な声の大小を言っているような気がします。
>>979 ああそうか
でも、そういうのもあるよね。
必ずとは言えないけど能力を声量のでかさで補えてる人はいる
ハキハキしゃべるだけでも周りの印象違うし
簡単に撮影現場を3Dモデル化する方法って無いのかな
>>981 Autodesk ImageModeler