>1 乙
「Avisynthを絶賛」というのは聞いたら答えたり報告したりなどギブアンドテイクな作業を指すのだ。
厨房と呼ばれて当然の調べもしないで人に訊くバカや前スレ993が住み着くスレではないので、
以下の日本語解説サイトぐらいは読んでおくように。
ι ょ ぅ ょ
ι ょ ぅ ょ
元気があれば何でも出来る
こんなもんか?
後は自薦他薦問わず広告したいなら今のうちだ>all
前スレのラストで誘導できなかったのが心残りか。
>>前スレの987
板違いだが、
にーやんのお陰で2chに来るようになり、
書き込むようになり、
スレッド立てるようになり、
えまのんを導入した。
そういう意味でも恩師。
離散量子化放送評判悪いな。
調子に乗って放送開始前にディジタル放送対応チューナーなんか買うからだガハハ
質問
インタレ保持でフィルタかける場合は
AssumeFieldBased().ComplementParity()
で良いんですか?
スレ跨いでるが。
UnDot()は輪郭線を潰さずにドットノイズを潰せる。
よほど細かい模様じゃないと悪影響が出ない。
パラメータが調整できないのと効果が確認しづらいのが難点だが。
一度お試しあれ。
>>21 それはDeDot()
UnDot()はそこまで重くない。
少なくともMipSmooth()やConvolution3D()に比べれば速い。
SpaceDust()なんて相手にならない(速度限定だが
ついでだが、VDMの最新版、高速再圧縮でも映像をプレビューしながらエンコするようになって、
プレビュー切らないと重い。
Dustが重いので代わりになるものを考えてみた
KenKunNRT(160,1,12).KenKunNRT(160,2,6).KenKunNRT(160,3,3)
いつも使ってるのはこのくらいだが副作用も少なくなかなかいい感じ
KenKunNRT(176,1,10).KenKunNRT(176,2,5)
27 :
名無しさん@編集中:03/12/05 22:18
結局、時間軸NRの副作用なんてある程度真剣に見てないと分からないわけで。
髪の毛がのっぺりしてると凄く目立つ
MipSmoothのpreset="animHQ"ってアニメでも強すぎない?
ソースが十分美しければNRはかけないが吉
もちろん実写の話ね
アニメでも作画云々言うならそんなにNR掛けないほうが良いだろ。
デブロックもデリンギングもOFFにしてな。
VDM、フレームキャッシュが強化されてない?
一度出したフレームはスラスラ出るんだけど。
>>29 うむ、すべては髪の毛だ
あれのせいで実写はほとんどノイズ除去できない
使えるのはFaeryDustぐらいだ
C3Dをごく薄くとかダメ?
>>34 人肌も死んじゃうね。
奥行きがなくなり、ツヤツヤ度というかキラメキ感というか鮮度が落ちちゃう感じ。
髪の毛よりよっぽど気になる。
>>30 個人的にはMovieHQでも強いと思う。特にspatialが。
downsizer/upsizerをイジるのもボケ対策に有効。
MipSmooth(preset="movieHQ",spatial=2,downsizer="lanczos",upsizer="lanczos")
>>33 VirtualDub 1.5.10もそうだね。
Filters are now notified whether a render is for preview or output purposes.
って変更でプレビュー時にはガリガリキャッシュするようになったのかな?
3DNRだとPixiedust(limit=6)ぐらいがヲレ的には限界かなぁ。
通常はlimit=3〜4で使ってる。
40 :
名無しさん@編集中:03/12/06 01:04
>>39 うちはFaeryDust(2)
たまにPixieDustも使うがこれも2以上はやらないなぁ
漏れもFaeryDust(2)ばっかり。
Pixieは2DNRの効き具合が調節できない。
弱・中・強で言うと中・強しかない感じ。
Deen!!
前スレでDedotを話題に出したものです。
Undotを紹介して下さった方ありがとうございます。
Dedotの重さが解消されて調子が良いです。
やはり目に見えた効果は体感できませんが、
プラシーボだと思って使い続けますw
●Undot()の実験
アニメ300フレームをXviD(QT2.0)でエンコ
--------------------------------
OpenDMLSource("xxx.avi")
trim(1000,-300)
Undot()
_2DCleanYUY2(0,3,2,2,0,3,3)
KenkunNRT(72,2,8)
return last
--------------------------------
Undot無し 10,717,184 バイト 100%
Undot有り 9,850,880 バイト 91.9%
Undot無し+NR(2DClean,KenkunNRT) 5,926,912 バイト 100%(55.3%)
Undot有り+NR(2DClean,KenkunNRT) 5,570,560 バイト 94%(52%)
他のNRと併用したら効果は埋没するかと思ったけど、予想よりは効果はあった。
●Undot()の補足実験
インタレ解除してないと縞が影響するかも知れないのでインタレ解除してテスト
--------------------------------
OpenDMLSource("xxx.avi")
trim(1000,-300)
Undot()
IT() or Auto24FPS()
_2DCleanYUY2(0,3,2,2,0,3,3)
KenkunNRT(72,2,8)
return last
--------------------------------
Undot無し+IT 5,744,640 バイト 100%
Undot有り+IT 5,388,288 バイト 93.8%
Undot無し+Auto24FPS 6,279,168 バイト 100%
Undot有り+Auto24FPS 5,920,768 バイト 94.3%
ITの方がAuto24FPSより縮んだのは、このソースの場合
より正確に縞解除できたからなのではないだろうか。
>>45は間違いあり。
スクリプトはインタレ解除後に300フレームになるようにtrim値を修正してた。
--------------------------------
OpenDMLSource("xxx.avi")
trim(1000,-375)
Undot()
IT() or Auto24FPS()
_2DCleanYUY2(0,3,2,2,0,3,3)
KenkunNRT(72,2,8)
return last
--------------------------------
Dustは2.5系で使えないのがなぁ
使えるって
YV12では使えないだけ
UnDot()は体感できるほどの差は無いけど、
輪郭線の周りを見ると鉛筆の粉みたいなノイズが消えている。
MipSmooth()のspatialを少し弱めにするといい感じ。
MipSmooth(C3D)->UnDot
が個人的には綺麗。
>>27 かちゅーしゃなんって初期のものは今開発中のものより使いにくいだろうと思ったので知らない。
私は2chブラウザを比較しているサイトに行って
マイクソのえんい〜コンポーネントを使わず、
スレ立てが出来て、
マシン語で配布されている、
名前がヤヤ萌へなソフトなのでこれを選んだ。
少々メニューが整理されてないけど使いにくいというほどでもない。
つうか、殆どAviSynthと関係ねぇよ
このスレにウカガ教徒が混じっている
にーやんのサイト、2ch過去ログの全文検索機能があるともう少し使いやすいんだけどな、とか言ってみる。
ググるでも良いけど
ノイズ除去かけないとLanczosResizeのほうが綺麗だけど、
かけるとLanczos3Resizeのほうが綺麗ということに気づいた
フィルタはC3DとUnDot
UnDot - Simple Deringing Dot Remover
リンギング除去フィルタだったのか・・・・
それにしては滲むことも無いし、よく消えるな
非MPEGソースにはあまり意味が無いかもね
MipSmooth()のscalefactorパラメータってLPFの設定?
DEENてバグ持ちなんじゃなかったっけ?
長時間エンコには怖くて使えん。
>>54 >44-46を見てから言ってる?リンギングって何か知ってる?deblockingとは違うよ。
リンギング除去フィルタ->輪郭矯正フィルタでは?
リンギング、簡単に言えば2重の反転ノイズでミニミニゴーストノイズ状態
勉強になりますた
>>19 「Avisynthを絶賛」というのは聞いたら答えたり報告したりなどギブアンドテイクな作業を指すのだ。
厨房と呼ばれて当然の調べもしないで人に訊くバカや前スレ993が住み着くスレではないので、
にーやん氏の日本語解説サイトぐらいは読んでおくように。
コピペ厨が住み着く板でもない。
時間軸NRはフリフリに弱いので却下
AviSynthにもマスコットキャラクターが必要だ。
「アニヲタ嫌いはお帰りください」みたいな萌へなショタマスコットが。
UnDotアニメに使ってるが軽くて副作用でにくいな
UnDot.MipSmooth.UnDot.KenKunNRT.UnDot
みたいな使い方してもあまり不都合を感じない
にーやん
とうとうAviSynthスクリプトに触れなくても良いフロントエンド切り捨てたな・・・
ゴミレス除去フィルタ下さい
↑名無しさんブラウザEN
糞レス除去フィルタは難しい
Waveletは不可
動き検索なんて人工知能でも組まないと無理
>>65 アニメなら、
MipSmooth->
UnDot->
KenKunNRT->
しつこくUnDot
のほうが綺麗になるよ
>>63 この文章のフリフリが意味わかんないんだが。
何?
>>72 フリル。
ロリータファッションとかゴシックロリータとかエプロンドレスとか・・・
アニヲタかコスヲタだな
Undotって説明ファイルにもあるように、単なる手抜きメディアンフィルタってだけなんだが。
KenKunNRのパラメータ弱めてあるようなもんか
KenKunNRの範囲を3にして、強さを極小さく(1桁台)にすれば取れた・・・
いずれにしろDeDotの代わりではないという事だね
UnDot()に対応するのは、
KenKunNR(1〜2,3,16)
ぐらいだと思われる。
範囲3だと効果が強すぎてアニメでも設定がシビア。
↑strength=1だと思われ。
2にしては副作用が少なさ過ぎる
kenkunは移動平均NRじゃないっけ?
メディアンフィルタって何だか知ってるのか?
単に中央値を選択するってだけだぞ。
1,5,2,4,3,2,3,4,4ってあったら
1,2,2,3,3,4,4,4,5と並べて、中央の3をとるだけ。
範囲がどうだとか強さがどうだとか関係ない。
もし100,200,1,256,150だったら、
1,100,150,200,256と並べた中央値150になる。
なるほど。
メディアンフィルタは輪郭を保存できるのか。
>メディアンフィルタを
>中心とするフィルタが進歩,発展を遂げてきた大きな理由は
>メディアンフィルタが線形フィルタでは相反するエッジ保存と
>インパルス性ノイズ除去を同時に成し遂げることができる
>性質にあると考えられる.
ヲレの脳では詳しくは理解できないが。
なお中央値ってのは、並べた順番で真中に位置するって意味で平均するとかじゃないから
値が偏っていた場合、離れた値は対象外になる。
1,100,100,102,5だったら、1,5,100,100,102で中央値は100
AviUtlにもメディアンフィルタがあって、(GNBの館)
そこの説明には、
>★電車、原付のスパークで発生する、白点ノイズを少なくするフィルタです
ってある。
>移動平均法は、フィルタサイズを大きくしたり、処理回数を
>増やしても、処理を擦るのに時間がかからない。これは、
>処理が単純であるからだ。それに比べ、メディアンフィルタ法
>やエッジ保存フィルタ法は、処理が複雑でフィルタのサイズを
>大きくしたり、処理回数を増やすと、そのぶん時間がかかる。
>しかし、移動平均法は、雑音(ノイズ)を除去するのと同時に
>エッジまで、なくしてしまうので、フィルタサイズを大きくし
>たり処理回数を増すと、画面全体が、ぼけて見える。
>その点、メディアンフィルタ法やエッジ保存フィルタ法は、
>エッジを保存するのでその心配はない。
非常に参考になりますた。
2D限定だけど。
>>83 へぇ
そういう仕組みを知るとどういう時に使えば有効なのかが分かるな
白点ノイズがたまに乗るチャンネルがあるから今度使ってみよう
まとまったドットが逆に悪化するのは平均値を取るからなのか・・・
>>85 残念ながら、Undotはちゃんとしたメディアンフィルタじゃなく、手抜きしているので
スパークノイズ(メダカノイズとかも)に対する効果は低い。
ちゃんとメディアン値をとるように作るには、処理時間が結構かかるフィルタなんだよ。
(本来なら平均化するよりよっぽど重いフィルタなの)
_2DCleanYUY2も移動平均法らしい。
メディアンフィルタって減色効果があるようだから、見た目あまり変わってないように見えてもサイズ減るんだろうな・・・
AviUtilのメディアンフィルタ以外に、メディアンフィルタやエッジ保存フィルタがあれば教えてくらさい。
漏れは何を考えていたんだ・・・
ベタ絵が多いアニメはあまり縮まなそうだな>メディアンフィルタ
でも使っておこう。
2DCleanは平均法といっても条件付なものなので
エッジをあまり崩さずにノイズをとることが出来る。
結構すぐれもんだよ。
ではUnDot()をサイズを縮めるのに使うときはフィルタがけの最後に使うと良いのですね?
_2DCleanYUY2ってKenKunNRより遥かに遅いじゃん
この調子でスレ消費すると、
・・・一ヶ月も持たんな。
>>93 普通は初めに使うものだと思うけど、後に使っても問題は無いだろう。
上の仕組みから判ることは、かけ離れた値(周りと異なるポツンと存在する値)は
中央値に選抜されることは無い、つまり排除されるということ。
こういう性質だから、エッジ周りに存在するドット妨害やモスキートノイズには効果あり。
また、平均化するNRではかけ離れた値が混ざると値が大きく歪む(エッジが崩れる)
Undotはなだらかな状況では効果は無く、山谷の値の時効果が出る。
例
あるピクセルで、1,1,2,2,3,3,3,4,4の場合、中央値は3
隣のピクセルが、2,2,3,3,3,4,4,5,5だと、中央値は3
あるピクセルで、1,50,2,2,3,100,3,4,4の場合、中央値は3
隣のピクセルが、50,2,3,100,3,4,4,50,5だと、中央値は4
これが平均値を取ると、
あるピクセルで、1,50,2,2,3,100,3,4,4の場合、平均値は19
隣のピクセルが、50,2,3,100,3,4,4,50,5だと、中央値は25
平均法NRの前で(このかけ離れた値を排除するの)と後でどう違ってくるのか考えてごらん。
>>94 2DCleanは近傍25点を処理するのがデフォルト。
_2DCleanYUY2(0,x,1,1,x,x)と半径(radius)を1にして、近傍9点にしてみろよ。
結構高速だぞ。
>>97 つまり、KenkunNRやConvolution3Dが近傍9点の処理だから
もともと_2DCleanYUY2は同じ土俵に立ってなかったわけなんだ,,,
>>96 つうことはメディアンフィルタかけると毛穴は消えちゃうってことですか
毛穴が1ピクセルなわけないから消えない。
>>96 >上の仕組みから判ることは、かけ離れた値(周りと異なるポツンと存在する値)は
>中央値に選抜されることは無い、つまり排除されるということ。
この排除される点が「俺」みたいに思えてきて、ちょっと泣けてきた。
日本人メディアンフィルタ常時作動させっぱなしだからな。
>>102ガンガレ!
メジアンヒルタ
>>102 日本社会にぴったり適合したフィルタでつね。
と思ったらUnDotの上にSTMedianFilterという3DNRがあった罠
>>52 ご要望にお応えして全文検索つけました。
2ちゃんねる過去ログのページに入り口があります。
Namazuもあるので、とりあえず2ちぇんねるの過去ログのみが対象になっています。
おお!
やはり2桁台もあると全文検索使わないと無駄が多いからな。
乙です>にーやんd
DVDリプにSTMedianFilter()使ってみた。
MipSmooth()とほぼ同じ時間がかかるが、
ボケないし、UnDot()よりモスキートノイズは消えている。
ただ、移動平均法フィルタとは違うタイプなのでどのへんが副作用として出るのかどこを弄れば良いのか・・・いろいろ試してみますか。
動画編集入門書にも、NRの種類と特質ぐらい書いて欲しいよな・・・
サンプル写真ばかり載せて、移動平均法フィルタの解説文で「2DNRはボケる」とか書いてるからそういうものかと思ってたよ
>>111 そりゃ、STMedianFilterは時間軸方向もやってるからモスキートには効果があるだろう。
ただしUndotと比較するのは公平じゃない。Undot+時間軸NRと比較すべき。
メディアンフィルタの閾値ってのは、平均からどのくらい離れていると弾くかでおk
?
マニュアル読んだら処理するときにどの位まで画素を変更するかでした、スマソ
「大きくすると損失が増えるかも知れないが、それほど気になるまでもない」と強気な解説ですた。
メディアンフィルタ
閾値上げすぎるとテロップかけるとか同じように色した領域をわける輪郭線周りで移動平均法よりも如実に副作用が出るな・・・
移動平均法フィルタよりも自然な絵だけど。
後でWarpSharpかける位ならメヂアンヒルタのほうが(・∀・)!<イィッ
何となくメディアンフィルタの弱点がわかった。
強くかけすぎるとグラデーションを潰す
時間軸の副作用が強い
>>83のGNBの館のメディアンフィルタを使ったらパルスノイズが面白いほど消えてくれた
かなり感動した
こんなフィルタがあったのか
カラーバーなのに同色で結構波形が動くようなノイジー環境でキャプした画を
綺麗にしてくれるフィルターはどれになりますか?
Wavelatは重すぎでした
MipSmooth()が最近流行
クロマノイズならcc()も試してみる価値あり
2DNRで潰すなら_2DCleanYUY2()が良く使われている
一時的、孤立的にポツポツ出るドットノイズならメディアンフィルタが効くらしい
時間軸NRってYV12->YUY2の色差補完に使えるのかな?
>>121 avisynthですね
いつか使う時には参考にさせてもらいます
ところで、aviutlならどれですか?
>>123はそこそこスレ違い。
AviUtlスレに(・∀・)!<カ・エ・レ
・・とは言わないが、ノイズ除去統合スレッドでも嫁
>>122 まったく無理
どういう発想なんだ???
YV12->YUY2の補間ならどのCODECでもやってる(もちろんAvisynthのフィルタでも)
から、不必要。
ι ょ ぅ ょ
ι ょ ぅ ょ
m2v.vfpのVer.UPだそうだ。
>更新履歴
>2003, 12/9 Ver. 0.6.46
>オーディオのシーク時に無限ループに陥ることがある不具合の修正
時間軸ドット妨害除去の副作用の残像が
メディアンで消えるか試して見るか
結局、STMedianだけじゃ我慢できないので
最後に軽くMipSmooth
それもそうだな。
じゃあ_2DCleanYUY2で逝ってみる
オマエら、名前欄にアニメか実写か明記しろ。
まぁNR関連はほとんどアニヲタのカキコだろうけどな
ι ょ ぅ ょ
135 :
名無しさん@編集中:03/12/10 05:34
微笑みに分かった振りしないでさー
ビビアンフィルタください。
>>92 2DCleanの場合、アニメの輪郭みたいなのは、
かなり維持してくれるけど、背景がぼけやすいですね。
特に木の茂みの濃淡とか消えやすいんで、
田舎が舞台のアニメには気を使います。
【117】Re:【116】MTV1000アップデータがでたようです
2002/2/23(土)01:13 - 裕之@花札大会CHU!
>mtv112βが公開されたようです。
ですね。
mtvapi.dll eb2d:72→eb
STMedian確かにいいけど重すぎる・・・
UnDotでいいや漏れは。
MipSmoothよりは軽いんだけどな>STMedianFilter
undot()は肌の精気が無くなるから却下
>>143 メディアンフィルタ―は控えめにしないとグラデーション潰すね
145 :
名無しさん@編集中:03/12/11 23:11
はいはい
●或る日記に対する戯言
にーやんとこ結構充実してきましたね。
俺の期待通り(以上か)の出来です。
スクリプト入門は本当は自分でもやりたかったネタだったんですが、マンパワー(リソース)が
足りなかったため、やってくれそうなにーやん氏に話題を振ったわけです。
俺は従来通り、このスレとか関連BBSでチョコチョコとサポートするだけです。
(また暖めている別のネタとしては、Avisynthの内部処理(プログラミング解析)についての解説があります。
にーやんがやりたかったら、これもやってもらって不服はありません)
これが一応完成すれば、きっと入門本の執筆依頼が舞い込んでくることでしょう。
ヘタレな940=791より。
|-`).。oO(入門本→ゆでたまごレス・・・)
148 :
名無しさん@編集中:03/12/12 13:11
実写動画を主にエンコしているものですが
AviUtlで作った動画ってここの人たちからみると
糞なんですか?
初めてアビシンスでエンコしたとき少し使いづらいと感じたのですが
死糞タン・・・
AviUtlは決して糞じゃないと思う。
絶対画質って点じゃ上だろう。
でもMPEG-4系に圧縮する場合は、その差は極わずかなので、それよりも速度や自由度をとったわけだ。
また慣れればAvisynthの方が使いやすいし、管理し易いと感じるけどね。
それに別にAVSファイルをAviUtlで読み込んで両方使うという選択肢だってあるし。
ただ、0.99については、YUY2ソースは色差がズレるバグがあってちょっと使いにくくなってるけど。
まあ俺自身は1年以上ももはやAviUtlは実用に使用することは無くなったが。
激しく(゚Д゚)ハァ?
150じゃないけど
画質だけでみればAviUtlが勝っているのは間違いないだろう
YUV12bitからRGBに変換するのとYUV8bitからとでは滑らかさが結構違う
透過ロゴ消しとかの微妙な精度が必要なフィルタを使うときや
何個もフィルタを掛ける場合には確実に上だと思う
ま漏れは低レートエンコが多いからあんまAviUtlつかわんけどな
cc()使ったら・・・
ボケてる背景が滲んだ!
動いてる輪郭線周りに発生するザラザラしたノイズを取るのに最適なプラグインを
教えてください。
>>154 リンギングならLGhost
モスキートノイズならBlockbuster、BlindPP、メディアンフィルタ関係
>>155 どうも
動いたら輪郭のラインが崩れるようになるので
とりあえず全部試してみます
LGhostは設定が難しい。
デフォでも綺麗に消えるAU_RingingCancellerに逃げてしまう俺。
そんなもんですか
じゃあしばらくは両方使って色々試してみようと思います
画面の一部分にだけフィルタを掛ける方法とかないですかね?
>>159 どうぞ、ご賞味くださいませ。
src = ColorBars(640,480).trim(0,-300).ConvertToYUY2()
#ZoneFiltering(src, 100, 100, 320, 240, """Convolution3D("animeHQ")""")
ZoneFiltering(src, 100, 100, 320, 240, """ColorYUV(off_Y=100)""")
return last
function ZoneFiltering(clip clip, int x, int y, int w, int h, string "filter")
{
Assert(clip.IsYUY2(), "ZoneFiltering: requires YUY2 input.")
x = default(x, 0)
y = default(y, 0)
w = default(w, clip.width())
h = default(h, clip.height())
new = Eval("clip."+filter)
new = new.Crop(x, y, w, h)
return Layer(clip, new, "lighten", level=255, threshold=0, use_chroma=true, x=x, y=y)
}
>>160 なんじゃあこりゃああ!!
無理だろうと思ってたけど一応聞いてみてよかったマジサンクス
これだからAvisynthはやめられない
バグがありました。訂正します。
function ZoneFiltering(clip clip, int x, int y, int w, int h, string "filter")
{
Assert(clip.IsYUY2(), "ZoneFiltering: requires YUY2 input.")
x = default(x, 0)
y = default(y, 0)
w = default(w, clip.width())
h = default(h, clip.height())
mask = clip.BlankClip(width=w, height=h)
new = Eval("clip."+filter)
new = new.Crop(x, y, w, h)
clip = Layer(clip, mask, "add", level=255, x=x, y=y)
return Layer(clip, new, "lighten", level=255, threshold=0, use_chroma=true, x=x, y=y)
}
いやー、まだバグがあった。ハズカシー
function ZoneFiltering(clip clip, int x, int y, int w, int h, string "filter")
{
Assert(clip.IsYUY2(), "ZoneFiltering: requires YUY2 input.")
x = default(x, 0)
y = default(y, 0)
w = default(w, clip.width())
h = default(h, clip.height())
new = Eval("clip."+filter)
new = new.Crop(x, y, w, h)
return Layer(clip, new, "add", level=255, x=x, y=y)
}
ちなみに、
new = Eval("clip."+filter)
new = new.Crop(x, y, w, h)
を順序を入れ替えれば高速化されますが、境界付近のピクセルがフィルタの効きが悪くなる可能性があります。
new = clip.Crop(x, y, w, h)
new = Eval("new."+filter)
正式版
関数名が長いので短く(RectFilter, AreaFilterという候補もある)、また引数を名前付きに修正。
function ZoneFilter(clip clip, int "x", int "y", int "w", int "h", string "filter")
{
Assert(clip.IsYUY2(), "ZoneFilter: requires YUY2 input.")
x = default(x, 0)
y = default(y, 0)
w = default(w, clip.width())
h = default(h, clip.height())
new = Eval("clip."+filter)
new = new.Crop(x, y, w, h)
return Layer(clip, new, "add", level=255, x=x, y=y)
}
かっけーよアンタかっけーよ
これのおかげでいろいろできるぞ!
テロップの部分だけドット妨害除去とか
画面上のいらない部分を塗りつぶすとか
暗い部分だけ明るくするとか
動いてる部分だけインタレ除去とか
とにかく可能性は限りないな
本当にありがとう
にーやんぽいな
気が変わって高速化を取った。
●改定版
src = ColorBars(640,480).trim(0,-300).ConvertToYUY2()
ZoneFilter(src, "NR()", x=100, y=200, w=200,h=100, fast=true)
return last
#-----------------------------------------------------------------
function ZoneFilter(clip clip, string "filter", int "x", int "y", int "w", int "h", bool "fast")
{
Assert(clip.IsYUY2(), "ZoneFilter: requires YUY2 input.")
x = default(x, 0)
y = default(y, 0)
w = default(w, clip.width() - x)
h = default(h, clip.height() - y)
fast = default(fast, true)
new = fast ? clip.Crop(x, y, w, h) : Eval("clip."+filter)
new = fast ? Eval("new."+filter) : new.Crop(x, y, w, h)
return Layer(clip, new, "add", level=255, x=x, y=y)
}
#-----------------------------------------------------------------
function NR(clip clip)
{
clip = clip.Convolution3D("animeHQ")
clip = clip.KenkunNRT(72,2,8)
}
function NR()の方、
最後の行(return clip)が抜けてた。
>>166 要らない部分を塗りつぶすとか、明るい部分を暗くするという用途向けに
矩形だけでなく不定形領域を対象に出来るように修正。(詳しくはマニュアル参照)
op = "add", "subtract", "fast", "lighten", "darken","mul"
level = 0 - 255
threshold = 0 - 255 (lighten,darkenのみ)
#-----------------------------------------------------------------------------------------
function ZoneFilter(clip clip
\, string "filter", string "op", int "level", int "threshold", bool "use_chroma"
\ ,int "x", int "y", int "w", int "h", bool "fast")
{
Assert(clip.IsYUY2(), "ZoneFilter: requires YUY2 input.")
op =default(op, "add")
level = default(level, 255)
threshold = default(threshold, 0)
use_chroma = default(use_chroma, true)
x = default(x, 0)
y = default(y, 0)
w = default(w, clip.width() - x)
h = default(h, clip.height() - y)
fast = default(fast, true)
new = fast ? clip.Crop(x, y, w, h) : Eval("clip."+filter)
new = fast ? Eval("new."+filter) : new.Crop(x, y, w, h)
return Layer(clip, new, op, level, x, y, threshold, use_chroma)
}
#-----------------------------------------------------------------------------------------
ちょっとうまく行かないなあ。
暫定修正版(多分ダメ)
もうちょっと試行錯誤しないとダメかな。
#-----------------------------------------------------------------------------------------
function ZoneFilter(clip clip
\, string "filter", string "op", int "level", int "threshold", bool "use_chroma"
\ ,int "x", int "y", int "w", int "h", bool "fast")
{
Assert(clip.IsYUY2(), "ZoneFilter: requires YUY2 input.")
op =default(op, "add")
level = default(level, 255)
threshold = default(threshold, 0)
use_chroma = default(use_chroma, true)
x = default(x, 0)
y = default(y, 0)
w = default(w, clip.width() - x)
h = default(h, clip.height() - y)
fast = default(fast, true)
new = fast ? clip.Crop(x, y, w, h) : Eval("clip."+filter)
new = fast ? Eval("new."+filter) : new.Crop(x, y, w, h)
new = Layer(clip, new, "add", level=255, x=x, y=y)
new = (op != "add") ? Layer(clip, new, op, level, 0, 0, threshold, use_chroma) : new
return new
}
#-----------------------------------------------------------------------------------------
なお指定時は名前付きを推奨。
src.ZoneFilter(filter="ColorYUV(cont_y=100)", op="lighten", threshold=128, x=100, y=200)
取りあえず、
>>171はチャラにしてください。
ちょっと汎用は難しいみたいです。
#-----------------------------------------------------------------------------------------
function ZoneFilter(clip clip
\, string "filter", string "op", int "level", int "threshold", bool "use_chroma"
\ ,int "x", int "y", int "w", int "h", bool "fast")
{
Assert(clip.IsYUY2(), "ZoneFilter: requires YUY2 input.")
op =default(op, "add")
level = default(level, 255)
threshold = default(threshold, 255)
use_chroma = default(use_chroma, true)
x = default(x, 0)
y = default(y, 0)
w = default(w, clip.width() - x)
h = default(h, clip.height() - y)
fast = default(fast, true)
new = fast ? clip.Crop(x, y, w, h) : Eval("clip."+filter)
new = fast ? Eval("new."+filter) : new.Crop(x, y, w, h)
return Layer(clip, new, op, level, x, y, threshold, use_chroma)
}
#-----------------------------------------------------------------------------------------
●使用例
ColorBars(640,480).trim(0,-300).ConvertToYUY2()
ZoneFilter(filter="NR()", x=100, y=200, w=200,h=100, fast=false)
return last
●輝度が+30以上UPしてるので、効果なし
ZoneFilter(filter="ColorYUV(off_y=30)", op="darken", threshold=30, x=100, y=200, w=200,h=100)
●輝度が+31以上UPしてないので、効果あり
ZoneFilter(filter="ColorYUV(off_y=30)", op="darken", threshold=31, x=100, y=200, w=200,h=100)
●ブレンド
ZoneFilter(filter="ColorYUV(off_y=30)", op="add", level=128, x=100, y=200, w=200,h=100) #or op="fast"
実写でのブロックノイズ消せて尚且つ軽いフィルターどれですかね
>>175 オレはUnDotより2DCleanを使ってるけどな
>>174 KenKunNRTと2DCleanでも使っとけ
すみません、avsfilter.vdf.avsって何かに同梱されてるものでしたっけ?
最近スクリプトをdubmodに食わせるとエラー吐いて読み込みに失敗するのですが・・・
テンプレサイトはもちろん、散々ググってみたんですが、warpsharpの更新履歴のavsfilter.vdfしかひっかからなくて。゜(゚´Д`゚)゜。
くだ質を自覚してますが・・・どなたかこのヴァカを導いてやっていただけないでしょうか(´Д`;)
ヴァカ-------------------------------------→地獄
顔文字が無ければな…
>>173のZoneFilter早速使いたい動画がキャプれたので使ってみた
いい感じに狙ったテロップのドット妨害が取れた
実際に使ったのは
>>173とFilterRangeを組み合わせて範囲指定もできるようにしたもの
逆に「一部分だけフィルタをかけない」のも時に必要みたいなので
ここにあるのを参考にして自分で作ってみるかな
Layerって結構奥が深そうだ
誰かFilterRangeを拡張してくれまいか?
このシーンとこのシーンとこのシーンにフィルタリングする、みたいな
指定範囲を複数化してほしいのよ
16ッ箇所くらいに
何度も書くのは速度的に不利になってる気がするので
●ZoneFilterをApplyZoneに名称変更、ApplyZoneRange追加
#--------------------------------------------------------------------
function ApplyZone(clip clip
\, string "filter", string "op", int "level", int "threshold", bool "use_chroma"
\, int "x", int "y", int "w", int "h", bool "fast")
{
Assert(clip.IsYUY2(), "ZoneFilter: requires YUY2 input.")
op =default(op, "add")
level = default(level, 255)
threshold = default(threshold, 255)
use_chroma = default(use_chroma, true)
x = default(x, 0)
y = default(y, 0)
w = default(w, clip.width() - x)
h = default(h, clip.height() - y)
fast = default(fast, true)
new = fast ? clip.Crop(x, y, w, h) : Eval("clip."+filter)
new = fast ? Eval("new."+filter) : new.Crop(x, y, w, h)
return Layer(clip, new, op, level, x, y, threshold, use_chroma)
}
#--------------------------------------------------------------------
function ApplyZoneRange(clip clip, int "start", int "end"
\, string "filter", string "op", int "level", int "threshold", bool "use_chroma"
\, int "x", int "y", int "w", int "h", bool "fast")
{
start = default(start, 0)
end = default(end, 0)
op =default(op, "add")
level = default(level, 255)
threshold = default(threshold, 255)
use_chroma = default(use_chroma, true)
x = default(x, 0)
y = default(y, 0)
w = default(w, clip.width() - x)
h = default(h, clip.height() - y)
fast = default(fast, true)
return ApplyRange(clip, start, end, "ApplyZone"
\, filter, op, level, threshold, use_chroma, x, y, w, h, fast)
}
#--------------------------------------------------------------------
●修正
#-----------------------------------------------------------------------------------------
function ApplyZoneRange(clip clip, int "start", int "end"
\, string "filter", string "op", int "level", int "threshold", bool "use_chroma"
\, int "x", int "y", int "w", int "h", bool "fast")
{
start = default(start, 0)
end = default(end, clip.framecount())
op =default(op, "add")
level = default(level, 255)
threshold = default(threshold, 255)
use_chroma = default(use_chroma, true)
x = default(x, 0)
y = default(y, 0)
w = default(w, clip.width() - x)
h = default(h, clip.height() - y)
fast = default(fast, true)
return ApplyRange(clip, start, end, "ApplyZone"
\, filter, op, level, threshold, use_chroma, x, y, w, h, fast)
}
もしかして、映像の一部に他のクリップの映像を縮小(または一部だけ)表示することも出来そう?
Layerで出来たんだ。スマソ
Avisynthってやっぱり奥深いんだね。なんかドキドキしてきた。
乙カレイヤー
●mask指定(指定矩形領域を除いてフィルタ適用)を追加
#-----------------------------------------------------------------------------------------
function ApplyZone(clip clip
\, string "filter", string "op", int "level", int "threshold", bool "use_chroma"
\, int "x", int "y", int "w", int "h", bool "fast", bool "mask")
{
Assert(clip.IsYUY2(), "ApplyZone: requires YUY2 input.")
op =default(op, "add")
level = default(level, 255)
threshold = default(threshold, 255)
use_chroma = default(use_chroma, true)
x = default(x, 0)
y = default(y, 0)
w = default(w, clip.width() - x)
h = default(h, clip.height() - y)
fast = default(fast, true)
mask = default(mask, false)
copy = mask ? clip.Crop(x,y,w,h) : NOP
new = (fast && mask==false) ? clip.Crop(x, y, w, h) : Eval("clip."+filter)
new = mask ? new : fast ? Eval("new."+filter) : new.Crop(x, y, w, h)
return mask ?
\ Layer(clip, new, op, level, 0, 0, threshold, use_chroma).Layer(copy, "add", 255, x, y)
\ : Layer(clip, new, op, level, x, y, threshold, use_chroma)
}
#--------------------------------------------------------------------
#--------------------------------------------------------------------
function ApplyZoneRange(clip clip, int "start", int "end"
\, string "filter", string "op", int "level", int "threshold", bool "use_chroma"
\, int "x", int "y", int "w", int "h", bool "fast",bool "mask")
{
start = default(start, 0)
end = default(end, 0)
op =default(op, "add")
level = default(level, 255)
threshold = default(threshold, 255)
use_chroma = default(use_chroma, true)
x = default(x, 0)
y = default(y, 0)
w = default(w, clip.width() - x)
h = default(h, clip.height() - y)
fast = default(fast, true)
mask = default(mask, false)
return ApplyRange(clip, start, end, "ApplyZone"
\, filter, op, level, threshold, use_chroma, x, y, w, h, fast, mask)
}
#--------------------------------------------------------------------
ApplyZoneって1000〜2000までDeDotかけることは可能ですか?
●何の約にも立たないけど、何かの参考になればということでサンプルを晒す。
#--------------------------------------------------------------------
AVISource("foo.avi")
ConvertToYV12
TESTSceneChange()
return last
#--------------------------------------------------------------------
function TESTSceneChange(clip clip, int "start", int "end", int "thresh")
{
global sc_clip = clip.ConvertToYV12()
global sc_start = default(start, 0)
global sc_end = default(end, sc_clip.framecount())
global sc_thresh = default(thresh, 20)
new = sc_clip.ScriptClip("subtitle(scene)")
new = new.FrameEvaluate("""scene = (sc_accept ? sc_current+" "+string(sc_scene_val)+(sc_scene_changed ? " scene cheanged!" : "") : "") """)
new = new.FrameEvaluate("sc_scene_changed = (sc_scene_val > sc_thresh)")
new = new.FrameEvaluate("sc_scene_val = 0.5*YDifferenceFromPrevious(sc_clip)+0.25*UDifferenceFromPrevious(sc_clip)+0.25*VDifferenceFromPrevious(sc_clip)")
new = new.FrameEvaluate("""sc_current = "current = " + string(current_frame)""")
new = new.FrameEvaluate("sc_accept = (current_frame>=sc_start && current_frame<=sc_end)")
return new
}
#--------------------------------------------------------------------
キッチ
初心者でよく分からないんですが、
上のスクリプトはそのまま貼り付ければいいんですか?
それともどこかをいじらないとダメ?
変数がどこだか分からないので教えて下さい。
Avisynthは何度も使ってるんですが、
こういった難しいのはよく分からないです・・・
どこで勉強したらいいでしょう?
>>195 にーやんのサイトで勉強汁
それと、無闇に初心者を名乗ると叩かれるよ
>>195 その上のスクリプトってどれのこと?
一応、一般論でいうと、内容が判らないのであれば、
ユーザ関数は、そのままスクリプトの内のどこかに(先頭かお尻)まとめて、copy&paste
(commom.avsとか別ファイルにして、先頭でImport("common.avs")するとすっきりとなるよ)
呼び出すパラメタだけをいろいろ弄くる。
パラメタは、ユーザ関数の引数を見て判断すること。
>>193の奴ならそのままコピペしてファイルパスだけ変更すりゃ動く。
パラメタは、start(開始フレーム番号)、end(終了フレーム番号)、thresh(閾値)の3つ、ってことになる。
でも、初期値でなく各フレーム処理時、逐次変数を評価するような関数も書けるんだなー。
以前誰かが質問してた、フレーム番号と時間を表示したいってのもこれ使えば出来るな。
uho
uha
siyouyo
iyaniyan
AVIUTLのYUY2モードとそんなスピード変わらなくなったな。
ほぼ同じフィルタかけて5%くらいavisynthの方が速いな。以前は40%くらい
速かったんだが。まぁ、avisynthにはyv12モードがあるけどな。
0.99のYUY2は色差ズレが問題だな。
YUY2モードってフィルタ使えないのが痛い
フィルタの使えないAviUtlに意味はあるのか
auoencがあれば足りるな・・・
>>205 そのうち対応フィルタが出てくるんだろ。
その前に、フィルタが使えるようにしてくれないと。ということで0.99aキボン
AviUtlにYUY2モードは必要ないと思うのは俺だけですか?
計算精度が高いからAviUtl使ってるけど、
YUY2で処理したい時は最初からAvisynth使うし。
Avisynthが全然使えない人もいるんだよ
>>210 つまり学習する気が無いってわけだね。
普通の知力だったら使えるもんね。
体力は一人前です。
>Avisynthが全然使えない人もいるんだよ
をぃ、学ぶ気がないのか?
そうなら禿しくスレ違い。
>>214 をぃ、ちょっと待て。
何故ここでCが出てくる?
AviSynthってそんなに多機能じゃないぞ?
動的HTMLぐらいが妥当じゃないの?
>>215 まぁ、通信ソフトのマクロ言語レベルって感じだね。
soukayo
>>215 絶対プログラマーだよね、にーやん。
知り合いにグラマーいるけど、そいつAviutlが遅いのなんとかならんのかとか文句垂れてたので、
Avisynth勧めたら喜んでた。「こっちの方が性にあってるや」って
>>209 精度うんぬんというより、よりきめ細かな操作が出来るのがavisynthの
魅力だと思ってるけどね、俺は。
RGB24(又はRGB32)で処理するようなフィルタ使えばほとんど一緒かと。
しかし色変換コストは結構気になる。
MSmooth(MipSmoothではない)をYV12そのままとRGB32に変換して処理したものだと漏れの眼ではYV12そのままで処理したほうが綺麗だった。
YV12->YUY2は上位変換だから問題ないとは思うけど。
やりたいならxxxSource(pixel_type="RGBxx")でやれば良い訳で。
AviSynthはフィルタかける毎に8bitへの丸めが起こるから
いくつもかけると丸め誤差がどんどん重なる。
AviUtlは12bitでフィルタ処理しといて、最後に8bitに丸めて出力。
精度だけなら AviUtl>AviSynth
12bitモードがあれば軽いんだろうけどなぁ
実効16bitだから>Aviutl
その分フローしないのはいいんだけどね
>>222 お前絶対プログラムしたことないな。
12bitで処理するより16bitの方がよっぽど軽い。
>>221 フィルターから別のフィルターへ値が渡るときも丸めずに12bit(16bit)で渡るの?
それとも1つのフィルターの中ではあふれないってこと?
>>223 あるよ
12bitモードは12X3で有効36bit
コード上は48bit
現状の16bitモードだと有効48bit、コードも同じ
データ長では差がないが
16bit全部データ処理するというのは
フローしてしまうデータまで計算し
16bitすらフローする時の例以外処理がいる
12bitモードなら1フィルタ毎にサチュレートするだけでいい
コード上のデータ長だけが問題なら
AvisynthでYUY2(16bit)よりYV12(12bit.データ長は16bit)が早くなるわけないでしょ
>>224 16bitでわたる
例えばAvisynthでEraseGhostで目いっぱいレイヤーを使ってしまい明るくなりすぎたとする
1レイヤーでも空きがあれば輝度を調整できるが
全部使ってしまうととりかえしがつかない
ColorYUY2で調整しても白トビは直せない
1フィルタで丸め込まれるからね
Aviutlのゴースト除去の場合は拡張色調補正で修正可能
1プロジェクト内ではフィルタ間は16bitで渡されるから
ただし1プロジェクト内なので.aup>VFAPIアプリで修正は無理
>>225 なにいってるかぜんぜんわかんないんだけど?
>>197 # ShoboInfo()(仮)
#
# 別件で考えていたものを手直し。一応動く程度
# AviSynth2.5以上
# パラメータなし
#
# (使用例)
ShoboInfo()
#
# 次の2つの関数をAVSファイル内に貼り付ける
#
function ShoboInfo(clip clip)
{
clip = ScriptClip(clip, "fr_number = (current_frame)" +
\ "Subtitle(" + Chr(34) + "フレーム [" + Chr(34) + " + String(fr_number)
\ + " + Chr(34) + "]" + Chr(34) + "
\ ,x=8, y=20, size=16, font=" + Chr(34) + "MS P Gothic"+ Chr(34) + ",
\ text_color=$ffffff)")
clip = ScriptClip(clip, "get_time = (current_frame)/FrameRate()" +
\ "total_time = Time_Stamp(get_time)" +
\ "Subtitle(" + Chr(34) + "時間 [" + Chr(34) + " + total_time
\ + " + Chr(34) + "]" + Chr(34) + "
\ ,x=8, y=36, size=16, font=" + Chr(34) + "MS P Gothic"+ Chr(34) + ",
\ text_color=$ffffff)")
return clip
}
function Time_Stamp(float get_time)
{
dot_search = FindStr(String(get_time), ".")
re_time = LeftStr(String(get_time*1000), dot_search + 4)
re_time = Round(Value(re_time))
re_time = (Float(re_time)/1000)+0.0001
ms = RightStr(String(re_time), 7)
ms = LeftStr(ms, 4)
ss = Int(re_time)
ss = String(ss%60)
ss = RightStr("0" + ss, 2)
mm = Int(re_time)
mm = String((mm/60)%60)
mm = RightStr("0" + mm, 2)
hh = Int(re_time)
hh = String(((hh/60)/60)%60)
time_stamp = hh + ":" + mm + ":" + ss + ms
return time_stamp
}
naruhodo
ιょぅょ にーやん ιょぅょ
>>225 48bitから12bitを取り出す操作と戻す操作を考えてみることを薦める。
ShoboInfoとTime_Stampの両方を使います。
フレーム番号はVirtualDubModの右下に出るヤツと一致、時間表示は若干誤差がある程度といった感じみたいです。
パラメータはありませんが、ShoboInfo内のx,y,size,font,text_colorを変更すれば、表示位置や文字の色などが変更できます。
たまたま作りかけて放置していたのがあったので、晒してみました。
これだけだと使い道があるとは思えませんが・・・。
>>225 逆じゃねぇの?
4096は12bitでフローしても16bitならフローしない。
フィルタ毎にフローの例外処理が必要になるのは12bitのほうだろ。
もちろん16bitでもフロー処理入れないとバグのもとになるけど。
何を勘違いしているか知らんが、AviUtlでは16bitで値を保持しているだけであって、有効は12bit。
12bitで計算するより16bitの方がはやいってのは、
プロセッサが8bit単位でデータを扱うから。
あと、YUY2よりYV12が早いのはデータ長の問題じゃなくて情報量の問題。
4pixelを表現するのにYUY2は輝度4つと色差2つずつ、YV12は輝度4つと色差1つずつ。
輝度も色差も1つあたり8bit。YV12のほうが色差の計算が半分で済むぶん早い。
YUY2が16bitでYV12が12bitってのは1pixelあたりに換算するとそうなるってだけで、
12bitや16bitで計算しているわけではない。
to にーやん殿
出来たら、英語の堪能な貴君に、Doom9 Watch Cornerの新設を希望。
毎日とは言わないが、本日のトピックというか、注目の話題などを紹介して欲しい。
ver.3の機能の検討状況なんかも、皆興味あると思うし。
>>235 読んだ人が勝手にココでやればえ−やん
人を働かせる事ばっかり考えてないで自分で努力する事も憶えた方がいいぞ
>>236 235は英語が分かんねぇんだよ。これはどうしようもない。
>>236 何故怒る?
別に俺自身のためじゃなく(まあ英語読むのに少し時間はかかるので楽したいってのもあるが)、
単に、人気の出そうなwebネタを提供したつもりだったんだけどな。
英語がわかるようになろうという努力をすればいいのでは?
>>238 自分でネタ拾ってきて毎日に−やんに報告してくれ
あとは任せた
>>240 要するに、それやっちゃうと、皆が情報を知っちゃって
自分の優越感がなくなるから、やらないでくれってことか?
誰か英語が堪能な方はいらっしゃいませんか?
読みたい奴は今でもdoom9読んでるだろうから
各自面白いネタ見つけたらココで紹介すればよろし
原文のままか和訳するかはその人の自由で
に−やんがど−するかは本人が決める事だけど
に−やん一人に負担かけるのは申し訳ないと思うぞ
にーたん・・・
>>243 アクセス数が増える大人気のコーナーになるだろう
って親切心だったんだけど?
申し訳ないってどこから出てくるの?
にーやんがその手間とwebの人気度を秤にかけて決めてもらえばそれで良いんだけど?
補足
>241のチャチャは俺が入れたんじゃないので、にーやん他気を悪くしないでくれ。
>>243 それをここで紹介するのは手間をかける意味が無いじゃん。
ホームページでやるから良いんだろ?ヒット数稼げるじゃん。
にーやんってヒット数稼ぐ為にやってるのか?
>>247 ヒット数稼げるとどんないいことあるの?
勘違い君が大興奮しているようですね
>>249 webサイト作れば、その心理は多少なりともわかるはず。
にーやんも日記に自分のサイトのgoogleでの検索順位とかアクセスを気にしている
ことが何回か出てきたよ。
じゃあなおさら自分でネタ探してきてにーやんに教えてやれよ
確かにhit数が1位になったからといって、もっと人気を博したいという気持ちは当然あるだろうな。
なんか、元発言者の俺を置いてどんどん話が転がっていきそうなので、名前欄を使うことにした。
>246が俺の最終書き込みです。
俺の要望(要望という形をとってはいるが逆に俺からの(ネタ)提供ということです)は
あくまでも、にーやん自身でどうするか決めてもらえば良いですよ。
>>254 匿名掲示板でぐだぐだ言ってないで、にーやんとメールで交渉汁。
>>255 あなたとはスタンスが違うようです。
私は要求しているわけじゃなくて、ネタを提供しているわけです。
>>226 なるほど。
でもま、普通は1つのフィルター内で飽和させるような無茶な設定にはしないほうが多いよね。
実際に困ることはほとんどない、と。
ゴースト系などいくつかは仕方ないところあるけど。
>>234 >YV12のほうが色差の計算が半分で済むぶん早い
あと PLANAR かどうかの違いもフィルターによってはかなり大きい。
>>256 わかったからあとはに〜やんの判断に任せておとなしくしる
nyやん・・・
私は飽きっぽい性格なので、そういう毎日のことは続かないと思います。
手間もかかるし、やらないでしょう。
doom9のフォーラムは、Usageの方を新しいプラグインでも出ていないかチェックしてる程度です。
これまでも気になることがあれば、ここに書いたり、ウチのページで紹介したりしてましたから、今後もそうするでしょう。
たしかMipSmoothのことを最初にこのスレに書いたのは私じゃなかったかな?
ま、そんな感じです。
他にやってくれる人があれば私も助かりますが、誰もいなければ、誰かがこのスレに書き込むみたいな感じでもいいのではないでしょうか?
>>246さん、申し訳ありませんが、私にはできそうもありません。
お気遣いいただき、ありがとうございました。
別に気にしなくても良いですよ。
思いついたから提案しただけなんで。
(最近、スクリプトを出すのは良いけど、バグありで何度も修正する醜態を晒したり
思いついてすぐだと、いい事ないな)
俺も自分とこでやる気はないので、以前の提案同様、気が向いたら誰でも始めちゃって良いです。
では、俺は従来の名無しのサポートモードに戻ります。
(俺が誰かは大体想像ついてるんではないかとは思いますが)
>>261 >CacheAudio
機能もほぼおなじだな
GreedyHMA_f2ってどこかにまだあります?
実写のインタレ解除に四苦八苦してるんで、色々試してみたいのです。
人の動きとテロップの両立が本当に難しい。
AutoDeintでぃぃゃ実写は
TomsMoCompでeffort値下げるのじゃダメ?
hairihoo
ちょとスレ違いかも知れないですが・・・
NHK総合の早朝4:00から再放送してる「生きもの地球紀行」の最後4:42ごろの
スタッフロールが激しくカクカクと言うか、テロップが伸び縮みする感じで、
上手くインタレ解除出来ないんですが、誰か試してみませんか?
AutoDeint、Decomb、IT、TomsMoCompなど試してるんですが難しいっス。
>>268 多分2重化かfps上げしか手は無いと思う。
手動解除でも割と改善出来るね
NRの結果を知りたいんだけど、AviUtlのようなノイズ表示プラグインはないのかな?
やっぱりAVSを食わせるしかないのだろうか
そのノイズ表示プラグインもふぬああでキャプチャーした画像やDivX化した画像を見ると
全く機能しないけどね
ccがバージョンアップ
俺は使ってないけど
ccとDeDotってどう違うんだろ
説明は似てるけど
cc試してきます
nullinfo版CacheAudio、Doom9で紹介されてた
乙
cc調整が難しいね
Mipsmooth v1.1.1:
* BugFix: Weigh = true was not being respected, and always turned off.
* Adjusted presets and added "MovieHQ2", "MovieLQ2".
* Bugfix: YUY2 mode never uses reduce to avoid occational crashes.
* Scalefactor now shows the individual factor of each mip in show=true.
ttp://cultact-server.novi.dk/kpo/avisynth/mipsmooth.html
AnimeHQ2はないのかよー
preset = "MovieHQ" / "MovieLQ" / "AnimeHQ" / "AnimeLQ" / "VHS" / "Rainbow" / "Custom"
AniotaDQN
DVD2AVIdg使ってる人いますか?
にーやんがDVD2AVI1.76薦めてるから・・・・
Doom9ではdg薦めてるし・・・
>>283 2.53に乗り換えた時にDVD2AVIもDGに乗り換えましたが
うぉ・・・2.53にすら気づいてなかった・・・。
閾値がほとんど同じ輝度、色を時間軸、平面軸で同色に塗りつぶしてくれるフィルター探してます
そんなのあるでしょうか?
dustの強いやつ
Avisynth上で、aviutlの拡張色調補正ではなくて、
色調補正に相当するフィルターってないでしょうか?
あったら教えてください。お願いします。
>>290 とりあえずはAvisynth内蔵の tweakでいいんじゃないかな
いぢれるのは 色合い(hue),彩度(saturation),明るさ(bright),コントラスト(contrast)で,
AVIUtlの輝度,ガンマに相当する調整は出来ませんが
その辺はColorYUY2あたりを使う方向で
>>290 色調補正のパラメータは
すべて拡張色調補正で対応できる
つまりColorYUY2で対応可能
ヒストグラムみながらパラメータいじってみな
色相は無理ちゃう?
>>283 DVD2AVIdgは1.76/1.77両方のd2vフォーマット出力できるし、
ケツ3フレ切れのバグフィックス版なので使うが吉だぞ。
1.76フォーマットが出力できるのは知らなかった・・。
>>293 だからパラメータいじれ、と
Cb,Crのgainの符号を入れ替える
色合い+50(色調)=Cb_gain+50&Cr_gain-50(拡張色調)
それでプロジェクトの保存が2つあるのか。
でもどっちもF4だし、バージョン表示は1.77.3dg1.0.0RC2 ?
念のために言っておくと、私は別に1.76をおすすめしているつもりはないです。
基本的に特定のソフトやプラグインをおすすめするということはしていません。
なぜ1.76を使って解説しているかは、たぶんちゃんと読んでもらえばわかると思うのですが(^^;
私もdgで1.76フォーマットのd2vが出力できるのは知らなかったので、今度、更新する際はdgを解説用に使おうかな。
>>295-298 dgって、英語で使うとメニューに1.76と書いてあるので
d2vが1.76でも作れることがわかるけど、
日本語にすると、メニューに1.76って書いてないんですよね。
なんで同じ項目が2つあるのかと思ってました。
ということでたぶん、日本語化したときのミスだと思う。
>>297 英語で使うと、
Save Project [F4]
Save Project(1.76)
と区別されている。
な、なんだって!!(AA略
>>293 Hueは無理だけど、それ使うことあるんだ?
こういう感じだよね
u = u * cos(Hue*PI/180) - v * sin(Hue*PI/180)
v = u * sin(Hue*PI/180) + v * cos(Hue*PI/180)
俺はHUEを弄ってると訳わからんようになってくるけど・・・
>>291-292 完全に勉強不足でしたね…
親切に教えてくださって、
ありがとうございました〜
DVD2AVI BS-Digital Transport Stream Edition がコマンドラインで使えたらいいと思うんだけどなぁ。
来年3月までしか使い物にならないだろうけど。
>>303 カラーバーをキャプチャして調整するときとか使うね
普通はキャプボの設定をいじるけど、それができてなかった場合とか
dgって1.76出力出来たんだ・・・今まで下の保存使ってた
質問です。
MTV2000+でキャプチャーした画像をDIVX5.05で圧縮したのですが
画像右隅に白い縦線が走ります。エンコ前のプレビューでは現れません。
2.53を使用し、外部フィルタはAUTO24FPS、C_3D
かなりクロップすると出なくなりますが、この症状が出たのは
今週からなのです。何も弄って無く不思議でいます。
デジタル放送と関係があるのか・・・分かる人いますか?
>>304 乙。m(_ _)m
DVD2AVIdgがウマーなことはDVD2AVIスレでも気付いていない人が多かったよ。
日本語訳修正してくれたので、向こうのスレでも伝えておいた。大きなお世話だったか...
dg版使う人は機械翻訳でいいから同梱されてるChanges.txt読むことを薦めるよ。
英語の方が使いやすいわけだが・・・
koryaiiya
グリーン・デスティニーを観ているが非常に暗い。
暗い部分のみ明るくする良い方法はあるかな。
>>312 0〜255じゃなくて50〜255とかにしてみたらどう?
おおレスが速い
どうもです。
ColorYUY2.dllでいいのかな。
あ、Levelsでしたね。
RADEONユーザなんですが、CATALYST3.10を入れると休止状態からの復帰に失敗するようになりました。で、もしやとおもってffvfwをアンインストールすると、なんと問題解決。同じような環境の方参考にしてください。
DVD2AVI1.76(dg)、2.53、Dec3 の環境で
FrameCache(9).Auto24FPS(true,24,16,"",false)
とやってからKenKunNRTやConvolution3Dなどのノイズ除去をすると
http://www.42ch.net/UploaderSmall/source/1072154159.png こんな感じに右側にノイズが出ます(これはKenKunNRTを同時使用)
Convolution3Dだと稲妻のようなノイズになります
ノイズ除去を同時に使用しなくてもかすかに緑色のノイズが出ます
IT_YV12だとこのようなノイズは出ません
何がいけないのでしょうか?ご教授ください
犬オタ
クロップを4の倍数でやってないからとかじゃない?
Gordian Knot28.7で調整して吐いたファイルを
コピペしてやってるのですが、どのサイズでもノイズが出てしまうんです。
ITだと大丈夫なのでITでやってますが、どうも気になって質問しました。
移行するまえのYUY2環境ではならなかった事でもあります。
基本的にはcropはラストでリサイズするときと同時にやるもの。
LanczosResize()とかはcropの指定もできて気持ちがいい。
にーやん、lzh解凍すると
エンドマークが存在しないってエラー出るよ?
>>317 間引いてからクロップしてノイズ除去
最後にリサイズしてみな
間引く前にクロップするとウチでもノイズ出る
>>322 AssumeFrameBased().ComplementParity()
AddRange(SourceDir + VideoName + ".vcf")
FrameCache(9).Auto24FPS(true,24,16,"",false)
crop(10,62,698,354)
Convolution3D(preset="animeHQ")
LanczosResize(512,288)
これで全部です。後日warpsharpのバージョンを落として試してみます
>>322,
>>324 Lhaplus1.12のままでした(^^;
最新版で圧縮したものをUPし直しました。
失礼しました。
どれかが終端の処理手抜きしているんだろうな
C3Dとcropの順番変えてみるとどうよ
あと、プレビュー時に出るだけって事はない?
エンコしたのにも乗っている?
328 :
名無しさん@編集中:03/12/24 11:18
MPEG2Dec3dg.dllで読み込むとフレーム数2つ増えないですか?
30〜50フレーム程の間で、例えば・・・40,41,40,41,42,43,44,・・・って具合に。
TMPGEncやFpschkで24fps化すると間引きに失敗するので気付いたのですが。
皆さんはどうでしょう?
そーいえばm2v.vfpとMPEG2Dec3.dllで数フレーム違うのには気づいてたけどどっちが正しいのよ
>>329 マニュアル嫁
m2vのに書いてあるから。
wakatta
そもそもdgが作られた経緯を理解してないな
>>323 cropは左右4の倍数、もしくは8の倍数にしないと左端に緑の線が入るみたいだな。
うちではYUY2なら4の倍数、YV12なら8の倍数で線がとれた。理由は不明。
DVD2AVIでWAVにdecodeした場合、時間のズレは補正されたものでWAVになる
(demuxした場合は未補正のまま)
ってことだったけど、dgだとwavと逆にズレたりしないのだろうか?
>>333 正にその通りでした。
>cropは左右YUY2なら4の倍数、YV12なら8の倍数
本当にありがとうございました。
かれこれ1週間苦労してましたがやっと解決致しました。
YV12なので8の倍数で。
Gordian Knot28.7で考えずにやってた私が馬鹿でした。
俺もそれ、思った。
いまいち細かいところがわかんないから、未だに
普通の1.76+使ってる。
YUY2、YV12のデータの持ち方を考えれば(ry
やってみれば良いじゃん
データの持ち方だけ考えたら4の倍数で問題ないだろう
フィルターかプレビューソフトが8の倍数を期待したコーディングをしているんだろう
>>338 データの持ち方だけ考えれば、
YUY2 プログレ 縦1 横2 インタレ 縦2 横2
YV12 プログレ 縦2 横2 インタレ 縦4 横2
単位でクロップしてOKなはずなんだよ。
CMカットの範囲指定で質問です。
VirtualDubMod 1.5.4.1では、カットしたいフレームの最終フレームでendキーを押して指定してましたが、
1.5.10.1ではendキーを押して指定したフレームの1つ前のフレームまでしか削除されません。
同じ現象の人居ます?
NaMDuBu使え
>>342 いまさら、そんなこと言ってるの?
仕様変更なんじゃないの?
1.5.5〜1.5.8あたりからそのようになっているよ。
>>317>>323ですが、あの画像はエンコ後です。検証のため1PASS。
コーデックはDivX5.0.5です。VirtualDub1.5.10にて設定をF_Rにして
エンコしてます。AUDIOは別でやりVirtualDubModで多重化。
あとITではならないと書きましたが間違いでした。
外部フィルタは関係がありませんでした。
RADEON9600Pを使用してますがこれは関係ないですよね・・
プレビュー再生では出ないのでDivX5.0.5が原因なのかな・・・
ConvTo.dllって今どこかで手に入れることって出来るんでしょうか
前に配布してたところが閉鎖しててDL出来ないんですが…
sayouka
改行をキャンセルするのは\ですが、逆に一行の途中で改行したことにする方法はないですか?
>349
普通に改行したんでは何かまずいの?
?できないってことですか?
\n
なんにつかうんだ?
日々是精進
ι +ょ ぃ ょ
普段使ってるテンプレートが#でコメントアウトしてるものがかなり多くなってきたので
なるべく縦の長さを節約したいってのと
外部関数にするまでもないよく使うフィルタの組み合わせを
#1つでコメントアウトできたらいいなということです
できないんでしょうか?
>>356 テンプレの方を工夫すれば?
ファイルを分けてインポートするとか。
#----- 0.avs -----------------------------------------------
case = "anime"
v = OpenDMLSource("\\Musashi\G\20031225-150000.avi")
(case=="anime") ? import("1.avs") : import("2.avs")
return v
#----------------------------------------------------
#----- 1.avs -----------------------------------------------
v = v.ColorYUV(off_y=100)
#----- 2.avs -----------------------------------------------
v = v.ColorYUV(off_y=-100)
できないでFAだってばよ
>>356 やってみるもんだね。空白かタブで区切って1行に複数命令が書けた。
#------------------------------------------
LoadPlugin("warpsharp.dll")
anime = 0
anime2 = 1
movie = 2
case = anime
OpenDMLSource("\\Musashi\G\20031225-150000.avi")
#ColorYUV(off_y=100) Subtitle("anime") KenkunNRT() return last
select(case, anime(), anime2(), movie() )
return last
function anime(clip clip) {
clip=clip.ColorYUV(off_y=100) clip=clip.Subtitle("anime") clip=clip.KenkunNRT()return clip
}
function anime2(clip clip)
{ return clip.ColorYUV(off_y=200) }
function movie(clip clip)
{ return clip.ColorYUV(off_y=-100) }
)で終わってればスペースすらいらないじゃないか・・・
全然知らなかった・・・
#LoadPlugin("warpsharp.dll") anime = 0 anime2 = 1 movie = 2 case = anime OpenDMLSource("\\Musashi\G\20031225-150000.avi")
#ColorYUV(off_y=100) Subtitle("anime") KenkunNRT() return last
#select(case, anime(), anime2(), movie() ) return last
#function anime(clip clip) {clip=clip.ColorYUV(off_y=100) clip=clip.Subtitle("anime") clip=clip.KenkunNRT() return clip}
#function anime2(clip clip){ return clip.ColorYUV(off_y=200) }
#function movie(clip clip){ return clip.ColorYUV(off_y=-100) }
#LoadPlugin("warpsharp.dll") anime = 0 anime2 = 1 movie = 2 case = anime OpenDMLSource("\\Musashi\G\20031225-150000.avi") ColorYUV(off_y=100) Subtitle("anime") KenkunNRT() return last
#LoadPlugin("warpsharp.dll") anime = 0 anime2 = 1 movie = 2 case = anime OpenDMLSource("\\Musashi\G\20031225-150000.avi") select(case, anime(), anime2(), movie() ) return last
#function anime(clip clip) {clip=clip.ColorYUV(off_y=100) clip=clip.Subtitle("anime") clip=clip.KenkunNRT() return clip} function anime2(clip clip){ return clip.ColorYUV(off_y=200) } function movie(clip clip){ return clip.ColorYUV(off_y=-100) }
Musashi君のオナニーカキコに乾杯
>>366 それ俺じゃないんだが・・・
それに全角の空白が混じっててイヤ〜ンだし。
Musashiは本名ですか?
誰かまMAMをフィールド対応にしてくれまいか?
SeparateFieldsのあとだとエラーがでる
天知茂の美女シリーズが見たい。
っつーか、マシン名だろ?それとも、マシン名に自分の名前つけるのはやってるのか?
>>369 MAM(FPDust("FaeryDust",2,"YUY2","C:\Plugins\"),FPNR("KenKunNR(256,2,8)"))
はどうよ?
ユーザ名を自分の名にするということは多いけど、さすがにマシン名は別の名にするね。
それに参照してるんだから、そもそも別のマシンを使っているんだろうしね。
>>372 できました
でもあんまよくないなMAM
mam
>>377 AviUtl用のクロスカラー低減フィルタを参考にした実装なのか。Dedotとの
差はある?
ある
nullinfoってなんでmakefileとかも入れておいてくれないんだろう
avisynth で huffyuv読みこむで、 メディアプレイやで シークしたり
するとすぐエラー起こしませんか?
virtualdubに*.aviファイル直読みだと普通なのに。
この問題はどのように対処していますか?
DeCross(・∀・)イイ!!
DeDotAより効果大・副作用小
DeCrossいいね。
クロスカラー低減の決定版になりそうな予感。
でもドット妨害低減の方はやっぱりDeDotのお世話になるしかないんだよなぁ。
何かイイ!!のない?
相変わらず後藤タンの記事は面白い。
本格的で実用的なGPUフィルタ出てくるかな?
>>386 > 位置はインタレ解除前でいいんだよね?
OKだYO!!
それとは関係ないけど、にーやん仕事速いなぁ……。
DeCross掲載乙!!
>>384 そうだねぇ
Dedotと併用するしかないのかなぁ
ドット妨害低減部分はDeDotで、クロスカラー除去部分はDeCrossなプラグインがあったらいいな。
と、さりげなくminamina氏にアピールしてみる。
DeCrossのデフォ
DeCross(30, 60, 1, false)
これだけどみんなどんな感じにしてる?
クロスカラーやドット妨害ってキャプカードにYC分離チップ搭載してても
残るからフィルタに頼るしかないんだよね
そんな中DeCrossは軽いし良いね
にーやん
サンプル
##### ドット妨害低減(De.dll) ######YUY2 Only
DeDot_YV12があるから
にーやんとこ、いつのまにか
日記にコメント欄が・・・。
おまいら書けよ。
AviSynthのページに直で行ってたので
日記があること自体知らなかった・・・
いつもお世話になってるので、広告踏んでみたw
>>392 前のやつがそのまま残ってました(^^;
修正しておきました。
>>393 近いうちにまた日記を変える予定なので、コメント欄もなくなると思います(^^;
>>394 ありがたや〜(笑)
踏み絵を踏まされたか
DeCrossでクロスカラー除去できてもドット妨害専用の除去フィルタ無いので
結局DedotA使用_| ̄|○
DeDot(20,40,0,0)で良いのでは?
にーやんの日記毎日更新だったら、これからも読もうかな。
けっこう面白いし。
>>397 DeDot+DeCrossの方が副作用が少ないんじゃないか?
DeDot()
DeCross()
これ最強
Undotは?
Undot()
DeDot()
DeCross()
コリサイキョー
UnDot(゚听)
UnDot(゚听)
UnDot(゚听)
ディーン!!!!!!
ウィーーー
AYaYa(preset="Yeah!めっちゃホリディ")
>>410 そんなフィルタ出たら
何かのツールと間違われそう
DeDot(20,40,0,0)
DeCross(30, 60, 1, false)
とやると画面の広範囲に渡って
ブロックノイズだかベリノイズだかみたいな四角いノイズが大量に出る
フレームがあるなあ。
どちらか片方ならなんともないから、この2つのフィルタの相性が悪いってこと?
と思ったら、d2vの作成を激しくミスってたんで、
上の話は撤回。
moera
DeCrossのおかげで解像度が高いが3DYC分離のヘボいデッキが活きてくる
DeDot(20,40,0,0)でほんとにクロスカラー部止められるの?
DeCrossってそんなにいいのか?
ちょっと試してみるか
>>418 テロップ周りに出来るクロスカラーに絶大だよ
>>417 ChromaT2は値が小さいほどクロスカラーと判定
0だと無効?それとも・・・
テロップ部分のレインボウをvdubのSmoothIQで消してる俺は逝ってよしですか?
1fpsしか出ないからエンディングクレジットぐらいにしか使えない・・・
0で処理してそう・・・
DeDot(20,40,0,255)かw
でも、ChromaT1を0にすると見た目はわからんかった
実写の髪の毛や服に出るクロスカラーはDeDotやDeCrossではやっぱダメだね。
>>423 Aviutlでフィールド分離・結合使うか
AvisynthでSeparateFields・Weave使うかして
GNBのWaveretCb・Crを利用する
Mode3,適用度200,縦係数100で
エッジLvXとCrNrXを同じ数値になるように調整する
Avisynthで関数にしといてDubかAviutl上で調整するのが楽だけどな
副作用で退色するから色調整必須
クロスカラーが発生するシーソのみで使ったほうがいい
AviSynth、それは「患者の、患者による、患者のための処方箋」
>>424 あんた凄いな(汗
そもそもWaveletCb、Crの使い方なんで全然わからなかったよ。
しかし教えてもらった所で関数化ができないのでとても常用はできん・・・・。
>>426 縦係数も200だった
###Ayaya.avs###
function Ayaya(clip clip, int"b0",int"b1",int"b2",int"b3",int"b4",int"b5",int"r0",int"r1",int"r2",int"r3",int"r4",int"r5")
{
LoadPlugin("warpsharp.dll")
LoadAviUtlFilterPlugin("waveletNR_G_Cr.auf", "_AU_Cr")
LoadAviUtlFilterPlugin("waveletNR_G_Cb.auf", "_AU_Cb")
LoadPlugin("ColorYUY2.dll")
c = clip.
\SeparateFields.
\ConvertYUY2ToAviUtlYC().
\_AU_Cr(3,r0,r1,r2,r3,r4,r5,r0,r1,r2,r3,r4,r5,200,200,0,false,true).
\_AU_Cb(3,b0,b1,b2,b3,b4,b5,b0,b1,b2,b3,b4,b5,200,200,0,false,true).
\ConvertAviutlYCToYUY2().
\Weave.ColorYUY2(cont_u=20,cont_v=20)
return c
}
でAviutlでは↓使う
###Ayaya.auf.avs###
info = Import("Ayaya.avs")
filt = AvisynthFilters("Ayaya", info)
func = filt.AddFunction("Ayaya")
func.AddTrack("b0", 0, 0, 150)
func.AddTrack("b1", 0, 0, 150)
func.AddTrack("b2", 0, 0, 150)
func.AddTrack("b3", 0, 0, 150)
func.AddTrack("b4", 0, 0, 150)
func.AddTrack("b5", 0, 0, 150)
func.AddTrack("r0", 0, 0, 150)
func.AddTrack("r1", 0, 0, 150)
func.AddTrack("r2", 0, 0, 150)
func.AddTrack("r3", 0, 0, 150)
func.AddTrack("r4", 0, 0, 150)
func.AddTrack("r5", 0, 0, 150)
return filt
実際のスクリプトはこんなん
Import("FilterRange.avs")
Import("Ayaya.avs")
FilterRange(2436,2485,"Ayaya(0,0,0,75,77,132,0,0,123,80,73,82)")
オレは決めうちでColorYUY2(cont_u=20,cont_v=20)にしてるけど
結構目立たないものよ
アニメには奨めない
設定値を探るときはクロスカラーが出てるフレームで
全部のスライダを最大にしといて
r5からr0,b5からb0にクロスカラーが出ないギリのとこまで下げるのが楽
なんでぁゃゃやねんとw
>>430 ホントはちゃうんだが
ここだかutlスレだかノイズ除去スレだかに
ネタでフィルタ名Ayayaってあったんでな
まぁ好きにしろ、と
>>417,420,422
ChromaT1 を 0 にしただけではまれにブレンドする可能性があります
ChromaT2 を 255 にすれば完全にオリジナルの色が使われます
(どちらにせよ、計算はします)
ドット除去だけ使うなら
DeDot(*, *, 0, 255)
としましょう
DeDotとDeCrossって順番どっちを先にすればいいんだ?
>>435 漏れはUndot DeCrossの順使ってる。
フィルターって何でも使えば良いってもんじゃない。
使わないにこしたことは無いってことを考えて程ほどに。
Ayayaスゲェ
矢口の髪のクロスカラー取れたよ
でも激重だな
ιょぅょ
ι+ょぃょ
今年の初レスげっとー
442 名前:名無しさん@編集中[sage] 投稿日:04/01/01 00:14
今年の初レスげっとー
DeDot()
DeCross()
() これだとデフォルトの数値設定になるんですよね?
ああ
先月、半ばにAvisynthを初めて使ったけど、AVIUTLよりずっと良いな。
AVIUTLも良いとこあるけど、プログラムとかする人間にはこっちの方が
ずっと使いやすい。
ι ょ ぅ ょ
Avisynth内蔵フィルタのavsfilter.auf.avsって、どう書けばいいの?
AYaYa(preset="Yeah!めっちゃホリディ")
>>449 #//--- プラグインのパス(外部プラグイン使用時) ---//
#info = LoadPlugin("C:\Program Files\AviSynth 2.5\plugins\warpsharp.dll")
#//--- フィルタ名(アプリ上での表記) ---//
filt = AvisynthFilters("TemporalSoften", "") #外部プラグイン使用時は「〜, info)」
#//--- 関数名(実行するフィルタの名前) ---//
func = filt.AddFunction("TemporalSoften")
#//--- VirtualDub(*.vdf.avs)の場合 ---//
#func = filt.AddFunction("ConvertToYUY2", hidden = true)
#//--- パラメータ指定 ---//
func.AddTrack("範囲", 3, 0, 255)
func.AddTrack("輝度", 6, 0, 255)
func.AddTrack("色差", 8, 0, 255)
#//--- VirtualDub(*.vdf.avs)の場合 ---//
#func = filt.AddFunction("ConvertToRGB32", hidden = true)
#//--- おわり ---//
return filt
パラメータは種類によって指定の仕方が違います。
#Int型
func.AddTrack("引数名", デフォルト値, 下限, 上限)
#Float型
func.AddTrack("引数名", デフォルト値, Int下限, Int上限, Float下限, Float上限)
#String型
func.AddArray("引数名", デフォルト値, "プリセット1", "プリセット2", ...)
#Bool型
func.AddCheck("引数名", デフォルト値, false, true)
#※avsfilterで設定しない(省略する)引数を括弧内の値で予め指定
func.AddValue(値)
こんな感じではないでしょうか?
違ったら、修正よろしく。
横から質問で恐縮です。avsfilter.auf.avsについてです。
blockbusterに(method="sharpen")と渡したいのですが
("デブロック", method="sharpen")と書くとエラー出てフィルタ無効
("デブロック", method=sharpen)と書くとフィルタとしては登録されるが
実際は使えない。""" """も同様でした。
根本的に間違ってるかも知れないですが、ご教授お願いします。
(補足)
String型のときのデフォルト値は"〜"ではなく、左から何番目の値を使用するかを数字で指定。
左から0,1,2,...とカウントする。
(例)
func.AddArray("_1st_single", 0, "yeah", "meccha", "holiday")
0なので、左から0番目の"yeah"がデフォルトになる。
コピペすると、Ayaya("yeah")になる。
>>454 func.AddArray("method", 0, "noise", "dither", "sharpen", "blur", "show")
設定する時は、0が"noise",1が"dither,2が…になります。
わからなければwarpsharpのサンプルのColorYUY2.auf.avsあたりをよーく見てください。
>>455 ばっちり動きました。有り難うございます。
どこかにYATTA!の日本語解説サイトなんて無い?(あるわけないか)
使い方わからないところだらけでダメポなんだが
aviutlのデフォルトの「色調補正」のフィルタをavisynthで使いたいのですが、どのaufをインポートすればいいのでしょうか?
色々調べたのですが、判りません。
お手数ですが、どうか教えてください。
(訂正)
func.AddArray("_6th_single", 0, "yeah", "meccha", "holiday")
func.AddArray("_12th_single", 0, "kiseki_no", "kaori", "dance.")
Avisynth VirtualDubModを使用してDVソースの動画をエンコ
してるんですが、質問があります。(DivX5.11)
VBRマルチパスでエンコードするときにインターレス解除は、解析
の時以外毎回フィルターがかかるのでしょうか?
そのとき画質やエンコ時間にはどのような影響があるのでしょうか
?
>>464 時間は倍近くになる
いったんフィルタ済みの中間ファイル(Huffyuvが最適)を吐いて
それをソースにしてマルチパスにしとけ
画質は無関係
質問ですが、Avisynthを使ってDVソースの動画をエンコードしようとしているのですが、
明らかに色がおかしくなってしまいます。
YUY2で読み込んでいますが、コントラストを上げたような感じになり部分的に白飛びすることもあります。
Aviutl99でデフォルトの状態(YUY2)でDVソースを読み込ませたのと同じような感じですね。
こちらはYUY2で読み込ませないようにすることで回避できるんですけれど…。
原因はDV CODECがYUV411でYUY2がYUV422前提であるからだと思いますが、
いったんYUV422に変換してavi出力したものを読み込ませる以外に
Avisynthで回避方法はあるのでしょうか…。
ちなみにYV12で読み込んでもほぼ同様の状態です。
そんな事には普通ならないはずだが、、、
何でプレビ゙ューしてるのか分からんけど
YUY2で出力してるならMSYUVのバグで減色デコードされてるんじゃ?
あとRGB変換はYC伸張、YUY2変換で圧縮される事は知ってるよな
>>467 なにやらエンコ手順に重大なミスがあるような・・・
CanopusDV使ってるのでは?
CanopuDVは伸張できないという糞仕様だから
ソースのCanopusDVとエンコ後のファイルを比べると
エンコ後は白トビしてみえる
実際はCanopusDVのが暗く、且つ退色してあるのであって
エンコ後のほうにPC再生環境をあわせなけりゃおかしい
ちなみのこのCanopusDVをデッキに書き出したものと
エンコ後のファイルを焼いて家電プレイヤーで再生したものでは
同じ色味になる
つまり、
>Aviutl99でデフォルトの状態(YUY2)でDVソースを読み込ませたのと同じような感じですね。
>こちらはYUY2で読み込ませないようにすることで回避できるんですけれど…。
というのは
回避してるんじゃなくて、おかしな色にエンコしてることになる
詳しくは↓でもどうぞ
映像の【色】総合スレ
http://pc.2ch.net/test/read.cgi/avi/1062148940/ 質問は全レス読んでからにしてくれ
スレは過去スレを含め全部目を通させて頂いています。
色のスレは先ほど読ませていただきました。
使用しているのはおっしゃる通りCanopusDVです。
従来DVソースを弄る時にはTMPGEncでBASIC YCbCr(伸長なしのストレート出力)で
出力しておりました。
Aviutl旧Verでも同様にストレートで出力されていました。
Aviutl99では先に述べたとおりデフォルトでYUY2(デコード時にYC伸長されて出力される)オンに
なっているので、これをOFFにすることによって従来のAviutlと同様に出力することが可能でした。
もちろんCanopusDVストレートの色そのままでは暗くメリハリのない色になってしまいますから、
AviutlのYC伸長フィルタ(これもデフォルト設定だと白飛びします)や色調補正等により手動補正していました。
で、YUY2での伸長で問題なければいいのですが、やはり明らかに高輝度部分で損失が発生しているんですよね。
(実際に見てもらうとよくわかるのですが…高輝度部分以外も全体的に色がおかしくなります)
Avisynthでは直接の対処方法はなさそうなので、いったんストレート出力したものをhuffyuv等で
YUY2の中間ファイル出力することで対処することにします。
どうもお騒がせしました。
>>470 絶対理解してないか手段にミスがある
VirtualDubはFastでだしてるのか?
Aviutl99はCanopusDV-YUY2展開オンで
出力CodecはYUY2圧縮オンで
なおかつYC伸張フィルタとか色いじりとかやめれ
勿論Avisynthでも色はいじらない
オレはAvisynth,Aviutl,VirtualDubModを使っているDV厨(デッキ2台+Storm2,EZDV)だが
そんな現象は起きない
見た目だけでなくColorYUV(analyze=true)でもチェック済み
大体>AviutlのYC伸長フィルタ(これもデフォルト設定だと白飛びします)や色調補正等により手動補正していました
ものを
>従来DVソースを弄る時にはTMPGEncでBASIC YCbCr(伸長なしのストレート出力)で
>出力しておりました。
してたのか?
再生環境を絶対疑ったほうがいい
VGAやPC換えたときに泣くはめになる
>>471 もう何を言っても信じてもらえそうにないので(´Д`;)
以下の画像を見て下さい。
http://v.isp.2ch.net/up/a8f8e3d474a4.jpg 左がAvisynth+Virtualdubを使い、
AVISource("DVソースのファイル.avi" , pixel_type = "YUY2")
return last
で読み込んだだけの画像、
右がAviutl99でYUY2OFF(つまりDVソースをストレートで読み込んだだけ)の画像です。
どちらも色調、YC伸長等の補正は一切加えていません。
(Avisynthの方は当然YUY2読み込み時にYC伸長が掛かっていますが)
左の方は手の輪郭がほぼ消えてしまっていますし、服の色も明らかに白く飛んでしまっています。
再生環境やVGA、PC云々のレベルではないと思うのですが。
>>472 違うっての
再生するときにYUV>RGBでストレート変換するのはおかしいんだって
だからストレート変換されてしまうCanopusDVは退色してるんだよ
伸張表示するときにシロトビするのは再生環境がおかしいか、ソース自体の有効色範囲がおかしいと言ってるの
キミは
CanopusDV=正しい
Avisynth=とんでる
と思ってるだろ?
逆だよ
CanopusDV=退色
Avisynth=正しい
なんだって
AvisynthでCanopusDV読み込んだものと
キミが正しいと思ってる手順で加工したものを
それぞれCanopusDVで出力してみな
どっちがソースに近いと思う?
そもそも
>Avisynthの方は当然YUY2読み込み時にYC伸長が掛かっていますが
という認識が間違い
あと、テストの時は兎も角
エンコする時は
ConvToYUY2
ColorYUY2(interpolation="411->422")
したほうがいいと思うが
>>473 CanopusDVが正しいなんて一言も言っていませんが?
もちろんAvisynth自体に問題があるなどとも言っていません。
あなたのおっしゃるようにCanopusDVのソース自体の有効色が通常の範囲を超えている
場合があると考えているので、今までストレート変換→手動補正の手順を取っていたまでのことです。
>>475 さすがにエンコする時にはTMPGEncかAviutlのYC伸長プラグインのYUV411→YUV444補間は
行っています。さっきの画像はあくまでテストです。
>>476 >Avisynthを使ってDVソースの動画をエンコードしようとしているのですが、
>明らかに色がおかしくなってしまいます。
これに対してオレは手順・理解に問題あり、と言っている
でもキミは頑強に手順も理解も間違っていない、とレスしてるように思われるのだが?
なんせ
>あなたのおっしゃるようにCanopusDVのソース自体の有効色が通常の範囲を超えている
>場合があると考えているので、今までストレート変換→手動補正の手順を取っていたまでのことです
という発言自体がYUV<>RGB変換を理解してないと感じさせるんだが?
もし、YUV<>RGB色変換を理解した上で色をいじってるというなら
それは勿論かまわない。
でも、だとすると
最初の質問の意味がわからないんだよ
色がおかしくなっているのは再生環境がキャリブレートされてないからであり、
そもそもソースをストレート変換したものと
エンコ後を伸張変換したものを比べるのはおかしい、と言ってるんだよ
.avsを表示でチェックはできない
環境によってはVirtualDub,Aviutl,CCESP,WMPそれぞれの.avsでの色見はかわるんだから
ソースCodecに戻す(
>>473)かデータ的にチェックする(
>>471)しかないでしょ
うーん、確かにストレート変換したものと伸張されたものを、しかも
再生環境も考慮に入れずに云々するというのは正しくはなかったですね。
正直、再生環境を動画に合わせるという感覚は私にはありませんでした。
どうも認識不足だったようです、お騒がせしました。
>>478 再生環境を動画に合わせるんじゃなくてBT.601にあわせる
まぁ、もういいか
色空間変換に関しての無知な人っていつまで経ってもいなくならないね…
出力をITU-R BT.601に合わせるっていう大前提さえ知っていればいいのに。
それはさておき、1/6に2.54alpha、1/8に2.54RC1がリリースされたよん。
変更点は
ttp://cultact-server.novi.dk/kpo/avisynth/avs_cvs.html 大きいところでは
- Overlay now accepts RGB24/32 output.
- Added "pc_range=true/false" parameter to overlay. This will make all RGB<->YUV conversions inside Overlay assume [0->255] YUV range, and not CCIR 601 [16->235] range. Default is false.
- ShowMask now returns RGB, YUY2, or YV12 via the pixel_type argument. The latter two can be used to layer an RGB clip with alpha transparency data onto a YUV clip using the 3-argument form of Overlay.
- Fixed very small sample corruption in SSRC.
- SSRC: "fast" is now true per default. This setting is recommended, unless you are doing a big samplerate adjsutment (not just 48000 -> 44100).
- Fixed audio corruption problem if audio with start < 0 was requested. (introduced in Dec. 30th binary).
- Added RGB input conversion to overlay.
いえいえ。
自分の環境だとAviutlで読み込んだ時TV→PC変換が入る。連番ファイルだとなぜかストレート。
YUY2をhuffyuvS(RGB)でふぬああのヒストグラム確認しながらキャプチャしたソース。
使う分にはAvisynthを通してもストレートされるから問題ないけど
ほしゅぴたる
>>483 TV->PC変換というとかな〜り語弊があるから、YC伸張処理といったほうがいいと思う。
んで、AviUtlがYUY2入力したときに問答無用でYC伸張処理するのはAviUtlの仕様
というか完全なバグ。なので、AviUtlの拡張色調補正でYC圧縮処理しないといけない。
>>485 まだこんなこと言ってるやつがいるなんて・・・
>ただ表示はまた別の処理が入るからややこしいんだが
>しかもヒストグラムと波形表示じゃ見てるデータ違うし
そそ知らない時戸惑ったもの
YUY2使ってるのに波形表示でCCIR601用に合わせてキャプしたものをYC拡張してた
それでAvisynth使う様になって数値見たら??なった事があるw
まぁあれだ
ここはYUV<>RGBの魔窟から開放された者達の楽園
”Avisynthスレ”
そういう話がしたいヤシは色スレ逝け、と
せめて色スレ全部読め、と
俺たちはもう関係ない(たまにある)
>>485 avsfilter 使うときの注意点と混同しているんじゃないの?
cxとSAAで色空間の扱いも違うしコーデックの挙動の問題もあるので
素人にはアプリの問題だけを説明しても結局理解できんと思う
素人とかw
じゃ色スレ常駐者は玄人か・・・
まぁ自分で検証と情報収集できないと
落とし穴は多いかもな
>>486 にしても、あのあたりのAviUtlの摩訶不思議な挙動って仕様で済ませるには
あまりにも変…
>>489 御意。
結局、RGBの連番読み込みのみが仕様外ということか
>>493 別にあれはあれで変じゃないよ
君の理解が甘いだけ
>>489 そうなんだよな。AVIUTLがYUY読み込みで伸張するのは一理ある。なぜなら
PCでの動画の扱いはモニタ表示に合わせてフルスケールで行うという常識が
あるから。むしろ、CanopusなんかのDVコーデックの仕様が異端。ただ、エンコ
まで考えてストレートで扱いたいというのもまた事実。
avisynthはまさにそのあいまいもことした部分を解決してくれるんだよな。
に〜やんトコで紹介されたAVE(AviSynth Visual Editor)使ってるヤツ居る?
AVS2AVIは使ってみたけど、そんなに高速にはならなかった・・・VDM使用時と同タイム。音声の扱い方解らんし・・・。
ι ょ ぅ ょ
ι ょ ぅ ょ
ι +ょ ぃ ょ
ι +ょ ぃ ょ
ι τ ょ
ι τ ょ
ぃ ぃ ょ
ぃ ぃ ょ
DVD2AVIでTV Scaleで掃き出したd2vをAVIUTL(VFAPI経由)で見たときは、そのまま
ストレート処理されているけどAvisynthでMPEG2DEC(2とか3とか)使ってTV Scaleの
d2v食わせてもPC Scaleで伸長されているんだけど、既出ネタ?
ι+ょぃょ
>>505 MPEG2DECで読み込んだらYUV読み込みだからDVD2AVIでのPC・TVスケールの
設定は関係ないんじゃないの?
YUVで読み込んだAVSを何かのPLAYERで開いたらPLAYERで伸張されるってのは
あるかもしれないけど。
>>507 いやだからさ
ここ最近のワケワカなカキコって
ある動画の”表示された状況”と”アプリ内でのデータ形式”
を混同してるからなんだよ
この問題は色スレの前スレでも話題になったんだが
結局「そんなこと理解できない厨は放置」という方向にながれてるわけよ
色いじるなら再生環境のキャリブレートは最低条件でしょ?
GDIキャリブレートすらしてない人間が見た目に騙されて
色をいじるなってことよ
>>504についていえば
まず大前提として
DVD2AVIのスケール設定は
RGB24出力のとき
およびDVD2AVIの表示画面内でのみ有効
次にAviutlにVFAPI経由で渡してるわけだから
DVD2AVI側の設定は無効
AviutlはRGBでデータを受け取ることになる
AviutlはRGB入力されたときはそのまま画面表示
よってデータ:ストレート変換されたRGB 表示:ストレート変換されたRGB
そしてMPEG2DECだと
>>507の言うとおり
YUVでデータが渡されている
スケール設定は無効
このスクリプトを何で表示するか
そのアプリの設定はどうか
によるんだけど
基本的なアプリの動作として
YUV入力されたものは伸張してRGB表示
どのアプリでもデフォルトだとそうなると思う
CODEC依存でYUV>RGBするアプリは除く)
よってデータ:ソースと同等の有効範囲を持つYUV 表示:伸張変換されたRGB
そうなんだよ。俺たちはもう関係ないんだよ。
よくわからんが
.avsをAviutlに食わせて出力する輩が増えてるんでねーの?
昔は
「Dubだと色変わる!!」
「Fast・・・」
で済んでたんだがなぁ
AVSをAVIUTLに食わせる奴の気が知れない。AVSってのはCCEとか
WMEとかエンコーダーに食わせるもんじゃないのか?
>>512 別にフロントエンドに食わせてもよかろう
元々はCCEが対象ではなく
Dubが対象でしょうに
YUV-RGB変換の事なぞ知りもしない初心者層には特に広く浸透している
AVIUtlがややこしい挙動する事も、この問題をここまで混乱させている一因だと思う
分かってればややこしくも何ともないけどな。
>>514 AviutlがRGB入出力しかなかった時代も
スケール変換がらみで混乱している初心者はうじゃうじゃいたよ
AVIUTLの挙動はそれはそれで一本筋は通ってるけどな。
RGBで渡されればそのまま表示する
RGBで渡す時もそのまま渡す
YUY2で渡されれば伸張して表示する
YUY2で渡す時はそのまま渡す
YUY2で渡されてRGBで渡さなきゃいけないときは伸張する
つまり
YUY2->RGBは伸張する
それだけだよ
実はこれってVirtualDubと一緒
無論ほとんどのCODECもこうなる
どっちかっていうとVFAPIがややこしくしてると思うんだが・・・。
つーか、色スレかせめてアニヲタ隔離スレでやったほうがいいんでねーか?
少なくともavisynthには全く関係ない話だな。
AviUtlの色関係がややこしいと思ってるのはあまりちゃんと理解してない人でしょ
あれはあれで使いやすさがあるよ
AVIUTLはすばらしいソフトだが、内部データの持ち方だけが少し異端と言えば
異端なんだよ。
AVIUTLは内部YCbCrそれぞれ16bitの処理系なんだが、YCbCr系なのにYが
FullRangeになってる。それが混乱を招く要因だと思うな。
0.99で追加されたYUY2フィルタモードのデータの持ち方が自然だと思う。
>>521 フルレンジどころじゃないと思うが・・・
だからこそあるフィルタでフローしたデータを
別のフィルタで復元できる
はっきりいってあの内部色空間がなけりゃ
Aviutlのメリットなんかないよ
Avisynthでいいじゃん
つーかAvisynthスレだっつーの
>>521 それはしょうがないんだよ。スタートが入出力RGBのみ、内部YCbCrでスタート
したからRGB<>YUVの伸張によるデータロスを避けるためにやむなくフルレンジ
のYUVで内部データを扱ったんだろ。それでそれに合わせて外部フィルタが
充実したからYUY2入出力に対応した後も内部データはフルレンジのままに
せざるを得なかったんだよ。それはそれで正しい判断だと思うよ。
>>518 AviUtlの出力ってRGBだけじゃないの?
あとRGB入力してもYUV変換・RGB変換が入るはず
関係ないといいつつ色について語ってしまう人々
AviUtlスレに書いてやれよ
>>525 あそこはもうそういうとこじゃなくなってまつ。w
放置できないのは放置しておくと間違って理解してしまう人が出てきてしまうから。
Avisynthユーザーは知る必要がないことだから誘導してついてくるとは限らないしね
しかし
>>523みたいなカキコを見ると
時代が変わったなぁ
と思っちゃうな
かつてあったsynth vs utlスレでは
「RGBで処理できるからutlのが綺麗」
とか
YUV48に変更された時に
「ほらみろ。synthの処理が正しいんだ」
みたいな不毛な発言があったものだがな
synthでutlのフィルタ使ったり
utlで.avsを読み込めたり
warpsharpの中の人、様様ですわい
DeDot使いたいがためにAvisynth勉強したっけ・・・。
ここはオサーンが動画遍歴を懐かしむスレとなりました。w
DeDotAが手に入りません、まだどこかにありますか?
また、どこかで
DeDOTがSSEやらMMX2に対応して無いやらで使えなかったな
Convoration3Dや_YUY2CLEANなど使えないフィルタが多すぎるよシンス君
何とかしたまえ
536 :
名無しさん@編集中:04/01/15 00:43
なにか勘違いしておられるようですが、SSEは魔法の杖ではありませんよ?
DEDOTがSSEやらMMX2対応が動作条件だから使えなかったんだよ
俺にとってはSSEは魔法の杖
ディーン!!
539 :
名無しさん@編集中:04/01/15 03:48
初めて wnr.vdf 使ってみた。
速い。そして満足いく結果(古い実写VHS)。
ちょっとナナメ線が荒れやすいので、別のフィルタと組み合わせる必要があるが。
なんでもっと話題に上らないの?
wnr.vdfってなに
魔法の杖ときいたら マリオが思い出される俺はもう老人ですね!
みなさんフロントエンドに何か使ってます?
もしかしてスクリプトはサンプルコピって、そこからメモ帳で修正でつか?
君は?
普通はフロントエンドなんか使わんだろ
AVSPreviewは使うが、あれはフィルタの効きとTrim値の確認だけ
フィールドオーダーの処理で混乱してしまっているのですが、
AssumeTFF().SeparateFields()
でプレビューが正しく再生される場合、KernelDeintの記述は
AssumeTFF()
KernelDeint(order=1)
で合ってますか?それとも一行目の「AssumeTFF()」は必要ないでしょうか?
>>543 VirtualDubMod
スクリプトエディタあるし
そのままHuffyuvで吐けるし
中間ファイル使わないと5passはやってられん
Aviutlでもいいんだが
YC補間表示がくせものだからな
VDMODのスクリプトエディタ、Edit-Import Frameset as Trims便利。
DEL→Save processing settings....→addrange?かったるいよ
5passなんて廃人のやることだな。w
アルプスの少女ハイジン
>>547 5PASSって何? DivX5系のnPASSでって事?
なんだワレザーか
わしはマニュアルを信用して3passで妥協している。
それでも、CCEを4回通す訳だけど。
>>556 実はモーヲタなんだが
オレも以前は3passだった
あるとき若干モスキートがでたファイルがあって
いつもなら再フィルタリングするところ
バクチで+2passかけたら画が安定したのよ
それからは5passまわすようにしてる
長尺やるわけじゃないんで
CCESPのエンコ時間はたかがしれてるからな
最近使いはじめんたんですけど、フィルタへのパラメータが複雑すぎて
訳がわからない時があるから、フロントエンドかなんかで簡単にスクリプトを
吐き出して使ってると思ってた
とりあえずメモ帳で書き換えながら、F5キーで更新しながらやってく
>>558 そんなあなたに Ctrl+S
多分、0.2秒ぐらい早くなるw
>>558 VDmodのスクリプトエディタで書き換えるたびに[F5]。
変更がすぐに反映される。
やってみたけどスクリプト自分で書かないといけない時点で挫折。
そんなことをいちいち報告するな
そんな時の為に、に〜やんのサンプルスクリプト
に〜やんιょぅょに〜やん
に〜やんのWEBはgood job
Reenaに関しての質問なんですが、ここでいいでしょうか?
現在配布されているバージョンのWMV9VCM用のコーデック定義ファイルを
作ろうとしているのですが、パラメーター用アドレスを探すためのB64Decは
どのようにして使うものなのでしょうか?
Dogaαの定義ファイル編集では、いまのバージョンのWMV9VCMがうまく
反応してくれないもので、ちょっと困っています。
中間ファイル用にYV12のLosslessコーデックをいくつか試してみたけど
結局スピード・圧縮率共にHuffYUVが一番いいみたいだ、今のとこ。
Klaus PostのYV12版HuffYUVが早く出ないかな。
上下に黒縁追加するフィルタってない?
AddBorders(0,0,0,0)
THX
質問です。Avisynth+VDmodでHuffYUVの中間ファイル
吐いて2PASS処理したいのですが、ジョブ使って一括処理
できるのでしょうか?
答える価値無し
だな
見るの遅くなった^^;
やっぱりダミーでするんですよね。
ここみてやってたんですが、なぜか1パス目でエラーが出ます。
もしくは中身が違ってたりします・・・。
もういちど設定見直して挑戦してきます^^;
ありがとうございました。≦(._.)≧ ペコ
おまいらエンコするソフト何つかってんの?
CCE?TMPGEnc?Aviutl?
Avisynthスレで聞いても大方VDMだろ
VDM&CCE
用途によって使い分け
なんでVDMなん?
VDでもいいよね
mkvだから
avs2aviかもよ
WM9Controllerを使い始めて、そろそろ一年になる訳だが。
AVIsynthで3DNRをかけると色が緑っぽくなってしまう
何とかならないでしょうか…
>>583 手順ミスってるか変なスクリプト書いてるかだな
3DNRって何使ってるの?
UVの中心は128だけど、フィルタ大量にかますと
8bitへの丸めでの切り捨てが重なってだんだん小さくなってしまう。
だから若干緑がかる。
3DNR一枚じゃ変わらんけどな。
kenkunNRTもkenkunNRも両方フィルタの個数を増やすほど絵が緑っぽく染まっていきます
3DNRに断定したのは、Avisynth標準の3DNRを掛けた時と同じ症状だからでした
手順も間違ってないし、AVISourceとKenkunNRとReturn last以外は全部コメントアウトしてるしな
と、思ったら41分も前に答えが出てました
AVIUTLではこんなことにならないんだが、AVISYNTHでは2個目のNRフィルターで
はっきり分かってしまう
確かに1つでは見比べても気づかないな
1枚じゃ丸めが1回しか起きないからね。
AviUtlは16bit(有効範囲12bit)で処理しといて最後に丸めるから誤差が少ない。
ただし遅い。
スピードを取ったため色々と粗のあるAvisynthはソフトとしてフィルター群も
充実してるけど、そろそろ曲がり角に差し掛かってきてるんじゃないか?
単純なYUY2での処理だけでなく、終始一貫してAVIUTLのように品質を保って処理する
モードも選択できるようにして欲しいな
フィルタごとにいちいち8bitに丸めるより、AVIUTL方式の方がこの部分だけは
早そうなんだが
その間ずっと16bitで処理しなきゃいけなくなるからやっぱり遅くなるよ。
今までのフィルタつかえないし。
AviUtlが遅いのは演算ビットが多いからだけじゃないけどな。
フィルタの構造とか。
Avisynthは機能(filter・plugin)と速さを重点的に指向している感じがする
だからといって、もうutlには戻ら(れ)ないけど
俺は戻った。
てか、avsをUtlに食わせてフィルタかけてる。
インタレ解除の前にフィルタもっていけないのもUtlの問題点だよな…
ただ、間引かれるフレームを後から参照できるのはUtlの利点か?
>>593 それは戻ったと言うより,良いとこ取りだよな
みんな口には出してないけどフィルターを掛けた後にちょっとだけ緑に染まった
映像を色補正で直してたりするんですか?
全てのフィルタが緑になるわけじゃないんでしょ?
どういうのがなるの?
気にしたことなかったからちょっと怖い
>>596 kenkunNRを4回かければ分かるよ
kenkunnr(1,1,1)
kenkunnr(1,1,1)
kenkunnr(1,1,1)
kenkunnr(1,1,1)
まあ、各フィルタの内部処理で8bitに丸めるとき、切り捨てずに四捨五入するよう
になるだけでかなりマシになるんだけどね。
ノイズ表示するプラグインって需要ありますかね?
単純に差分を取って、閾値以上なら表示するってのを作ったんですが…
kenkunは緑になるから
ColorYUY2(off_y=1,off_u=1,off_v=1)
使いたい人が使う。
使わない人は使わない。
>>595 緑になるような設定をしない
組み合わせをしない
そもそもそういうフィルタは使わない
等
ぶっちゃけUVをいじるフィルタは要注意
見てすぐわかるくらい緑になるフィルターって KenKunNR のほかに何があるの?
>>602 便利そうなので使わせて頂こうと思っています。
閾値には何かのNRと同様な値を指定すれば良いのでしょうか?
閾値の意味をちょこっと教えてください
>>599 に書いてあったし、source見て理解しましたスマソ
>>603 ということはConvolution3Dも注意ってことなのか?
C3Dはmatrix=1にすると縁になるよね
kenkunNRT(1,1,1)
kenkunNR (1,1,1)
この組み合わせでも緑がかってくるのが分かる。(1,1,1)とか値が小さい方が目立つ。
こりゃwarpsharpのKenkunNR,KenkunNRTは四捨五入になるまでしばらく使用停止かな。。。
いつになったらその点対応するんだろうな・・・。
切捨てすると早くなったりするんだろうか。
それよりConvertYUY2ToAviUtlYC()をなんとかしてほしい
赤が退色するんじゃなくて緑方向にシフトしてたのか、なるほど。
AVIUTLの波形表示フィルターの8ビット精度に丸めるを何度も繰り返してるのと同じなんだろう
あれにチェックを入れるとYUV全てが下方向に下がる
だから補正はYUVを上方向に上げればいい
>>610 演算がちょっと少ない分、切り捨てのほうが早いのは確か。
>>611 ソース公開されてるんだから自分でなんとかすれば?
>>616 よしわかった
じゃ、おまいは16bit精度のAvisynth作っておいてくれ
ソース公開されてるからできるよな?
>>
不毛だからそういう物言いはおよしよ。
自分なりにwarpsharpとか改良版試作compileするとしたらどのcompiler使うべき?
Intel?MS Visual?
BDS-C
Whitesmith-C,Lattice-C,Micro C
Introl C
K, GAME, TL/1
アカンベー
LSI-C試食版への感謝を忘れるな
その頃はEXE386ですた。
RUN386.EXE
何このスレ(w
もうダメポ>某スレ
隔離コン
>>625 同意。
LSI C-86試食版は-Oが素晴らしい出来だった。(吐くコード)
HighCも忘れちゃダメだ。
つーかC++のソースはCコンパイラじゃコンパイルできないじゃん
何故C++が流行ったんだ?
Objective-Cの方がクールでイカしていたのに・・・
男は黙ってCOBOL
COBOLとCOLBAって何か似てる
CORBA
オレの名はCOBRA
Forms,Reports,PL/SQLが最強さ
燃料どころか、爆弾投下状態だな・・・
男は黙ってアセンブラでないの?
え? アデランス?
ι+ょ ぃょ
>>643 バイナリエディタで直にHEX打ち込むのが最強
バイナリエディタでごにょごにょなら何度か世話になったが
プログラム言語はprintf止まりだな
シー言語ってやつか?人間の扱う言葉じゃないと思った
お前らが何を言ってるのかわっぱりわからない
ι ょ ぅょ
ι+ょ ぃょ
そういや、VRAMにバイナリ相当のキャラ文字打ち込んで初期ローダ動かした時代もあったなあ(遠い目)
653 :
名無しさん@編集中:04/01/23 21:54
文字列にchr($86)+chr($80)..とか代入しといてアドレスをDEF USRやったっけ
ム板でどうぞ
655 :
名無しさん@編集中:04/01/23 22:00
Avisynthって相変らずMPEGを生で読み込むことって出来ない?
VirtualDubModで直に読み込めるようになってから使ってないんでつ…。
>>655 Modの直読み挙動変だよ、.avs内からまるも謹製のpluginで読んだ方が断然良い
657 :
名無しさん@編集中:04/01/23 23:35
明るさ・コントラストに当たるフィルターって無いんでしょうか?
まるもさんのはVFAPIって時点でなぁ・・・
RGBじゃなくYUY2で読めなかったっけ
そゆことじゃなくて?
785 :名無しさん@編集中 :03/07/26 05:18
>>770 LoadAviutlInputPluginの場合、m2v.vfp表記にすればm2v.auiの設定が反映される。
.auiはAviutl上でPluginをYUY2読み込みする手段、.vfpはRGB読み込みになる。
ところがLoadAviutlInputPluginはPluginにYUY2展開がある場合は
Pluginにその処理をまかせる。
そのためAvisynnthでのm2vにおいては.vfp表記でYUY2読み込みが可能。
設定はm2vの内部YUY2展開処理設定である"m2v.aui"の設定が有効になる。
reena!からavspreview2を起動するとき、閉じるときに必ず
読み込み違反で怒られるのは何が悪いんでしょう?
378 名前:名無しさん@編集中[sage] 投稿日:04/01/24 05:07
色々実験した結果、画質はDub+synthよりultの方が少し良く
速度は逆にutlが20〜30%遅いと分かった。
Dub,synthも良いソフトだし用途に応じて使っていくけど
モレとしては画質に配慮する場合はmainがutlという結論に至った
モレのカキコがコピペされた・・
アモレー!
CMと本編の境目で片フィールドずつCMと本編が重なってる場合
CMのフィールドのみを無くしたい(黒くしたい)のですが
何か良い方法は有りませんか?
にーやんとこみよ
ご主人様、BlackenFieldというものを発見しましたですぅ
どうも有難うございます。
早速試してみたところ
0,1フレームと2フレーム連続で効果が出てしまいます???
Import("BlackenField.avs")
AviSource("sample.avi")
AssumeFrameBased
BlackenField(0,0,$000000)
ともかくしばらくいじってみます。
情報有難うございました。
いいな。俺もそのCMとフィールドが片フィールドずつ
重なるところきになってたけど blackenfield 使い方
よくわからない。
もしよかったら、いじって出来たら、情報ください。
avsfilter.dllで、色んなフィルターをVirtualDubMod上で色味を調整したりして、
AVS作成したいと思ってるんだけど、*.auf.avsの他のパラメーターの書き方って
どこかに参考文献とか書かれて無いですか?
もちろん、にーやんさんとこのサンプルとかは使用してるんですが…
他のフィルターやデフォルトのAcisynth内部のも視覚的に調整したくて…。
Reena!でも同じような事をdef書き換えてやってたんですが、VirtualDubModの方が
簡単に思えて…。
やっぱりプログラムの知識とか必要になってきますかね?
675 :
名無しさん@編集中:04/01/25 02:19
AVSでVirtualDubModで、連続してエンコさせる方法ってない?
なんか、一つエンコ終わると落ちちゃうんだよね。
うちの環境だけ?
キモッ
キモッ キモッ キモッ キモッ キモッ キモッ キモッ キモッ キモッ キモッ キモッ キモッ キモッ キモッ キモッ
キモッ キモッ キモッ キモッ キモッ キモッ キモッ キモッ キモッ キモッ キモッ キモッ キモッ キモッ キモッ
キモッ キモッ キモッ キモッ キモッ キモッ キモッ キモッ キモッ キモッ キモッ キモッ キモッ キモッ キモッ
キモッ キモッ キモッ キモッ キモッ キモッ キモッ キモッ キモッ キモッ キモッ キモッ キモッ キモッ キモッ
ボブサップコールですね〜
679 :
名無しさん@編集中:04/01/25 07:33
ダイノガッ
a60224って2.5じゃ使えない?
何でも人に頼るな
自分で試せや、ヴォケ
ヴォケはオマイだアフォ
>>681 例外が出てエラーになるだけで何が悪いかわからん
いまさらですがその後の報告です。
Wavelet Noise Reduction(SSE2必須)
作者 thejam79
閾値はDubのフィルタでプレビュー見ながら設定。
type-Gのような操作感です。
その設定ファイルを保存→AviSynthで読み込んでYUY2で動作させます。
長所はとにかくウェーブレットとは思えないスピードです
短所は、凝ったアルゴリズムではないので副作用が結構あります。
ですのでこのフィルタは弱めにかけて、残ったノイズと副作用を
PixieDust(by Steady)で消すようにしてみました。
汚いソースには有効だと思います。
ageちまった、スマソ
WarpSharp内部のKenKunNRTのそれぞれの値の守備範囲はいくつなんでしょうか?
付属テキストが無いから設定をどれの範囲で設定すればいいか判いんですが
守備範囲も何も…Aviutlの設定のまんまでいいのか…お騒がせスマソ
>>692 以前やってみたけど、thejam79氏のほうがダンゼン速い。
fpsの数値は忘れたけど、体感できる。
PixieDustが遅いので意味無いという突っ込みは勘弁な
Dubでプレビューしながら閾値設定できるのもメリットということで
2.0xでしか使えないのね・・・
LoadPluginExしてもダメなん?
だめ
thejam79氏もどってこんかな
GPUシリーズフッカツキボンヌ
the jam79 氏戻ってきてほしいよなー。
dust改造したりしてくれたらいいのに。
Dustはソースがあればやってくれる人が多いと思うんだけど・・・
なぜthejam氏に頼むのか不明だ
Dustのソースってなんで公開してないの?
>>698 2.5系でできますよ。というかできてる。
頼まれたらソースを渡さなくちゃならないが、開発が続いてるうちは誰もそうしなかった>Dust
動きがなくなってからメールを出した人はたくさんいるみたいだけど、「反応がない。もはやネット環境にいないっぽい」ということらしい。
VagueDenoiserメインで使ってるけど、nstepsのパラメーター最高の6より5の方が縮んで速いんだよね。
極々わずかだけど(笑
へんじがない
ただのしかばねのようだ
divxコーデックはDirectshowfilter経由の読み込みとVFW経由の読み込み二つに対応してるけど、
どっちで読むかを指定することはできないのですか?
SynthはVFW読み込みされてる気がします
AVISource()
OpenDMLSource()
AVIFileSource()
DirectShowSource()
SegmentedAVISource()
SegmentedDirectShowSource()
BlackenFieldはかなり前に書いたやつなので、たぶんおかしいです。
ちょっと書き直してみます。
しばしお待ちを。
*.auf.avsの書き方は、
>>452-456を見てください。
MAM()いじりしてるものだが
MAM()はFilterRangeどころかEvalも通らん
というかそもそも
C1=C1.MAM()
が通らない
兎に角その行の先頭にいないとダメなようだ
しゃーないから
c1=Trim(0,100)
c3=Trim(200,300)
Trim(101,199)
MAM()
c2=Crop(0,0,0,0)
c4=c1+c2+c3
とかやってるんだが
もっスマートな方法ないかな?
C3=Crop(0,0,0,0)
とかハゲシク無駄
>712
c3=last
じゃだめなの?
GeForceFXでGPU0.01使ってる人いる?
ぃ+ょ ぃょ
auto60のYUV版がauoencで使えないんですけど、仕様ですか?
仕様です
>>717 作者もRGB版使ってくれっていってる。
つかね、AviUtlでYUV版とRGB版と比べてみたけど、時間的に有意差が見られるほどの
差はなかったよ。
BlackenField(テストバージョン)
簡単なテストしかしてないので、もしおかしい部分があったら言ってください。
HPおよびサンプルの更新は、動作確認が取れてからにします。
>>669さんも、よかったら試してみてください。
○使い方
1.関数をスクリプトの任意の位置に貼り付けるか、外部ファイルにしてインポートする。
2.まず、黒く塗りつぶしたいフィールドが含まれる"フレーム"の番号を指定する。
(例)BlackenField(0) #0フレーム
3.デフォルトでは偶数フィールドが黒く塗りつぶされます。フレーム番号につづけて、true(偶数)/false(奇数)でフィールド指定が可能です。
(例1)BlackenField(0, true) #0フレーム/偶数フィールド(2の例に同じ)
(例2)BlackenField(0, false) #0フレーム/奇数フィールド
トップファーストかボトムファーストかに関係なく、上から数えて0,2,4...なら偶数、1,3,5...なら奇数になります。
4.黒以外の色で塗りつぶしたい場合は、さらに$ffffff(白)、$ff0000(赤)みたいな感じで追加指定もできます。
(例)BlackenField(0, true, $ffffff) #0フレーム/偶数フィールド/白
色指定は16進数で行いますが、ただし#ではなく$を頭に付けます。「色見本」とか「カラーパレット」で検索すれば、それっぽいページが見つかると思います。
(参考)
とほほの色入門・色見本
ttp://tohoho.wakusei.ne.jp/wwwcolor.htm
#ここからが関数部分です。
function BlackenField(clip clip, int "target", bool "bf_order", int "bf_color")
{
#//--- デフォルト値の設定 ---//
target = default(target, 0)
bf_order = default(bf_order, true)
bf_color = default(bf_color, $000000)
#//--- チェック ---//
pixel_type = clip.IsYUY2() ? "YUY2" : clip.IsRGB24() ? "RGB24" :
\ clip.IsRGB32() ? "RGB32" : "YV12"
org_parity = clip.GetParity()
#//--- メイン ---//
c0 = clip.KillAudio()
c1 = target > 0 ? c0.trim(0, -target) : NOP
c2 = c0.Trim(target, -1)
c3 = target < clip.FrameCount()-1 ? c0.Trim(target+1, 0) : NOP
c2 = (bf_order && org_parity) || ((bf_order == false) && (org_parity == false)) ?
\ c2.SeparateFields().SelectOdd() : c2.SeparateFields().SelectEven()
bf = BlankClip(length=1, width=clip.Width(), height=clip.Height()/2,
\ pixel_type=pixel_type, fps=clip.Framerate(), color=bf_color).KillAudio()
c2bf = (bf_order && org_parity) || ((bf_order == false) && (org_parity == false)) ?
\ Interleave(bf, c2) : Interleave(c2, bf)
c2bf = org_parity ? c2bf.AssumeFieldBased().ComplementParity().Weave() :
\ c2bf.AssumeFieldBased().Weave()
c = (target == 0) ? c2bf + c3 : (target == clip.FrameCount()-1) ? c1 + c2bf :
\ c1 + c2bf + c3
c = AudioDub(c,clip)
return c
}
722 :
名無しさん@編集中:04/01/27 09:36
2.5.4 age
高度な書き込みの後に低脳な質問で申し訳ないのですが、
インターレース解除済みのMPG-1[350*240]ファイルをDVDにするためにリサイズしたいのですが
下記の方法で他にも「こうしたらキレイにリサイズできる」みたいな事はないでしょうか?
それともこんな事にわざわざAvisynth使うのはバカ?
LoadPlugin(PluginDir + "MPEGDecoder.dll")
LoadPlugin(PluginDir + "Convolution3DYV12.dll")
MPEGSource(SourceDir + "a.m1v")
Convolution3D(preset="movieHQ")
LanczosResize(720,480)
return last
うん
改善したところでバカはバカだが、
704x480にしてAddborderが正解
有難う御座います。
バカはバカなりに頑張ってみます
MPEG-1のDVDにしたほうがいいんじゃないの?
>>722 大きいところだとOverlay()かな。
あとオーディオフィルタがさらに充実してきましたね。SSRC()使って高音質な
サンプリングレートコンバートをして、SuperEQ()でイコライズして、
Histogram()で表示とか。audiocacheも実装されましたし。
アヴィシンセ2.5.4が出たけどオーディオ部分だけ?
後でやる癖があるから利点が分からない・・
>>720 早速使わせていただきました。
以下に動作報告をいたします。
Import("BlackenField.avs")
AviSource("sample.avi")
BlackenField(0)
とした場合
I don't know what"NOP" means
BlackenField.avs,line 13
が返って来ました。
BlackenField(1)
とした場合、動作はしますが
1フレームでは無く2,3フレームに効果が現れます。
BlackenField(100)とした場合も同様に101,102フレームに効果が現れます。
ソースのsample.aviは0-1909の1910フレームですが
BlackenField()を記したavsをaviutlに読ませると
フレーム数が0-1911となっており2フレーム増加していました。
根本的に家の環境がおかしいだけかもしれませんので
他の方が問題無い様でしたらスルーして下さって結構です。
>>732 > I don't know what"NOP" means
> BlackenField.avs,line 13
> が返って来ました。
NOPは(たしか)AviSynth2.0.7から導入されたので、それ以前のバージョンでは使えません。
NOPを使わないようにしたので、もう一度試してみてください。
ただし、それ以外の部分はいじっていないので、おそらくフレーム番号がずれるのと、2フレームがターゲットになるのは変わらないと思います。
AviSynthの古いバージョンにはTrimフィルタ等にバグがあったりするので、AviSynthをバージョンアップしてテストしてもらうことはできないでしょうか?
こちらで試した範囲では、AviSynth2.0.8と2.5.4(RC2)で"とりあえず"動いています。
よろしくお願いします。
#修正版(NOP未使用)
function BlackenField(clip clip, int "target", bool "bf_order", int "bf_color")
{
#//--- デフォルト値の設定 ---//
target = default(target, 0)
bf_order = default(bf_order, true)
bf_color = default(bf_color, $000000)
#//--- チェック ---//
pixel_type = clip.IsYUY2() ? "YUY2" : clip.IsRGB24() ? "RGB24" :
\ clip.IsRGB32() ? "RGB32" : "YV12"
org_parity = clip.GetParity()
Assert((target < clip.FrameCount()), "総フレーム数より大きい値はダメぽ")
#//--- メイン ---//
c0 = clip.KillAudio()
c1 = target < 2 ? c0.trim(0, -1) : c0.trim(0, target-1)
c2 = c0.Trim(target, -1)
c3 = c0.Trim(target+1, 0)
c2 = (bf_order && org_parity) || ((bf_order == false) && (org_parity == false)) ?
\ c2.SeparateFields().SelectOdd() : c2.SeparateFields().SelectEven()
bf = BlankClip(length=1, width=clip.Width(), height=clip.Height()/2,
\ pixel_type=pixel_type, fps=clip.Framerate(), color=bf_color).KillAudio()
c2bf = (bf_order && org_parity) || ((bf_order == false) && (org_parity == false)) ?
\ Interleave(bf, c2) : Interleave(c2, bf)
c2bf = org_parity ? c2bf.AssumeFieldBased().ComplementParity().Weave() :
\ c2bf.AssumeFieldBased().Weave()
c = (target == 0) ? c2bf + c3 : (target == clip.FrameCount()-1) ? c1 + c2bf :
\ c1 + c2bf + c3
c = AudioDub(c,clip)
return c
}
avsedit使ってみたけど、ちょっと重い
TMPGencのインタレ解除が糞なので
Avisynthでインタレ解除はしてるんだけど
TomsMoComp以外でオススメがあったら教えてください
waのdei
738 :
名無しさん@編集中:04/01/28 12:48
Avisynth v2.5.4RC2が出たんだけど、今、Sourceforgeから落とせなくなってる?
どれを選んでも他の物でもSourceforge自体から何も落とせないんだが…
>>738 RC2を落とさなくても、正式版が出てますよ。
>>736 TomsMoCompよりTMPGencのインタレ解除の方がよくない?
適当にTomsMoComp(1,4,1)とかやってみたが…。
フィールドオーダーは合ってるんだろうな
ITが好きなんだが
つか、TMPGEncをエンコに使ってるヤツなんかこのスレにいるのか?
昔は手動インタレ解除してたなぁ
その方がスムーズなんだよね
>744
MPEG2エンコに使ってるが
Huffyuvキャプだが……
何で発想がそっちにいくのか解らん。
さてと2.5.4に逝くか。SSRCと幾つかのcrash fixにちょっち期待
>>733 仰る通り旧版を使っておりました。
先に使用環境を書かずに申し訳ありません。
2.0.8にしてみた所、
>>721>>734共に
無事に動作いたしました。
適切な助言対応大変感謝いたします。
どうもお手数をお掛けしました。
2.5.4
Sorceforgeで404返ってくるのだが
他のダウンロード可能な所無いですか?
自己レス。
doom9ですぐ見つかりました_| ̄|○
ほんと、今日Sourceforgeどうしたんだろうね。あそこで全く何も落とせないよ。
>>750 そうですか。よかったです。
「Trim(選択開始フレーム, -フレーム数)」というように指定した場合に不具合があったようなので、これが原因だったのではないかと思われます(ちなみにこのバグは2.0.7で修正)。
もし他に何か問題がありましたら、よろしくです。
AVIUTLのFPS調整とFPS変換を同時利用した時のような機能を実現させる方法を教えてください
756 :
名無しさん@編集中:04/01/29 00:21
AVSをプレーヤーで開いて閉じると、エラー出るようになっちゃんたんですが、
過去にもそういう事があった時には、return last行を書いてないのが原因だったんだけど、
今回は書いてても落ちちゃうんですが、何故でしょうか?
せっかく2.5.4入れたのにトホホ…
スレ汚しスマソ…にーやんのページに書かれてたね…。
LoadPluginEx.dllが原因だったかぁ・・・回避方法とか無いのかなぁ・・・。
>>757 最新のLoadPluginExではどうですか?
最近は、LoadPlugin()書かなくても良くなったの???
書かなくても反映されちゃうんだが・・・
書かなくていいよ。
>>755には誰も答えてくれないの?答えられないの?
通過755の質問の意味が分からん。
>763
お前のじゃ意味わからなくて当然
(・∀・)ニヤニヤ
>FPS調整とFPS変換を同時利用した時のような機能
これ、自分では上手く説明したつもりなのだろうが、
オレ語(自分の中だけで意味が通じる言葉)だよね。
まぁ、意味を汲み取ったとしても初歩的な質問なので
初心者質問スレで聞けと言うか、
>>5
Reena!のDEFの法則性はだいたいつかみました。
自分は2.5でなので、Setting.iniを変更してMPEG2DEC3で読み込むようにしてるのですが
YV12プラグイン専用になりました。
YUY2のプラグイン使える方法ってありますでしょうか?
それと、Dec60の使い方なのですがTelecideとかは説明書通りでいいと思います。
ITやAuto24fpsの場合でプログレ構築を行う場合は、
Dec60(idxfile="g:\pita.idx",deint=true)
IT(fps=30,ref="TOP",blend=false,diMode=0)
って感じで、deintをtrueにし後にITなどでプログレ構築にすると上手くいきますが
疑心安危なのでこれでよろしいでしょうか?
>疑心安危
安心なのか危険なのか
疑心暗鬼
>>763-766 FPS調整は音声の長さに合わせてFPSを変更させる機能です
FPS変換はフレームレートを任意の数字に変える機能です
この2つを同時に使うと
FPS調整で音声と映像の始点終点が一致する代わりFPSが変更され
FPS変換でFPS調整で同期した動画を維持しつつ変更されたFPSを変えることができます
要するに音が徐々にずれるタイプの音ズレ補正なんですが
AvisynthかViralDubModで同じことはできないんですか?
ちなみに、この二つは俺語じゃなくてAviUTLの機能の一部です
>770
できるよ
「Avisynthを絶賛」というのは聞いたら答えたり報告したりなどギブアンドテイクな作業を指すのだ。
厨房と呼ばれて当然の調べもしないで人に訊くバカや前スレ993が住み着くスレではないので、
以下の日本語解説サイトぐらいは読んでおくように。
>>770 Video frameの取りこぼしや周波数誤差は起きないようにキャプ環境を改善するのががベストだが、
Video frameがたまに欠落して音がずれる場合はDuplicateFrameを使う。
キャプッたVideo frameの周波数が誤差を持っているために音が段々ずれる場合は
AssumeFPS,ChangeFPS,ConvertFPSを使う。
Dubでも29.969とか小数点以下3桁までの変換ならできる。
逆にVideo frame数が「秒数*29.97」にピッタリ合っているにも関わらず
キャプッたAudioの周波数が誤差を持っているために音が段々ずれる場合は
AssumeSampleRate,ResampleAudioを使う。
たとえば、キャプチャのAudio仕様は32KHzとなっていても実際には+3Hzの誤差を持ってて
32003Hzでsamplingされているものを、toolが32Khzで扱ってしまうために
だんだん音が遅れていくと分かったら、
AssumeSampleRate(32003)
ResampleAudio(32000)
とやる。
770じゃないけど為になった。
別々にテレシネ化したファイルをつなごうと思ってもfpsが一致しませんって
言われてできないことがあったけど、これを使えば大丈夫だね。
ありがとう
>>773。そしてAvisynthの中の人。君たちのことはきっと忘れないよ!
>>695 いまさらなんだけどさ、YUY2オンリーとYV12対応の違いを含めてもWNRのが速いの?
>>775 今日試したんだが、
輝度のみX1,2、Y1,2を使ったら_2DCleanYUY2と速さが同等だったよ。
しかも普段からDust系を使ってるせいか2.54→2.08に落としても
速度が、4時間半かかる物が5時間になっただけだった。
しかし効果は悪くは無いがさほど良くも無いって感じです。DeCrossが
使えない2.08に落としてまで使うメリットが自分的には・・・。
つうか
>>775よ、自分で試せ
function FPSAdjust(clip clip, bool "debug")
{
Assert(clip.IsYUY2(), "YUY2 Only")
debug = default(debug, false)
a_length = Float(clip.AudioLength())
a_rate = clip.AudioRate()
v_framecount = clip.FrameCount()
v_framerate = clip.FrameRate()
v_time = v_framecount/v_framerate
a_time = a_length/a_rate
diff_time = a_time - v_time
clip = clip.AssumeFPS(v_framecount/a_time)
adjusted_framerate = clip.FrameRate()
clip = clip.ConvertFPS(v_framerate)
new_framerate = clip.FrameRate()
new_framecount = clip.FrameCount()
debug_clip = clip.Subtitle(y=18,"Video Length(sec) : " + String(v_time))
debug_clip = debug_clip.Subtitle(y=36,"Audio Length(sec) : " + String(a_time))
debug_clip = debug_clip.Subtitle(y=54,"Difference of Time(sec) : " + String(diff_time))
debug_clip = debug_clip.Subtitle(y=72,"Original FrameRate : " + String(v_framerate))
debug_clip = debug_clip.Subtitle(y=90,"Adjusted FrameRate : " + String(adjusted_framerate))
debug_clip = debug_clip.Subtitle(y=108,"OutPut FrameRate : " + String(new_framerate))
debug_clip = debug_clip.Subtitle(y=126,"Original FrameCount : " + String(v_framecount))
debug_clip = debug_clip.Subtitle(y=144,"OutPut FrameCount : " + String(new_framecount))
clip = (debug == true) ? debug_clip : clip
return clip
}
>>776 LoadPluginEx使えよ。漏れはそれでwnr使えているぞ
>>770 > キャプッたVideo frameの周波数が誤差を持っているために音が段々ずれる場合は
> AssumeFPS,ChangeFPS,ConvertFPSを使う。
たぶん、
>>773さんの言う↑ここの部分を関数にしたものです。
音声の長さに合わせてAssumeFPSでFPS調整し、ConvertFPSで元と同じFPSに変換。
総フレーム数も変化します。
長いファイルだとバグる可能性あり(AudioLength)。
テスト版ということでご理解を。
※AviSynth2.5.1以降
(使い方)
FPSAdjust()
※FPSAdjust(true)でデバッグモード
>>776 LoadPluginEx使えば、2.0.8でもDeCross使えると思います。
ConvertFPSはブレンドされなかったっけ?
>>781 そうですね。その部分の説明が足りませんでした。
ブレンドされるのが嫌な人は関数内の12行目、
clip = clip.ConvertFPS(v_framerate)
を
clip = clip.ChangeFPS(v_framerate)
に書き換えてみてください。
ChangeFPSの場合はフレームの増減(duplicate or delete)でフレームレートを調整します。
function FPSAdjust(clip clip, bool "method", bool "debug")
{
Assert(clip.IsYUY2(), "YUY2 Only")
method = default(method, true)
debug = default(debug, false)
a_length = Float(clip.AudioLength())
a_rate = clip.AudioRate()
v_framecount = clip.FrameCount()
v_framerate = clip.FrameRate()
v_time = v_framecount/v_framerate
a_time = a_length/a_rate
diff_time = a_time - v_time
clip = clip.AssumeFPS(v_framecount/a_time)
adjusted_framerate = clip.FrameRate()
clip = method ? clip.ChangeFPS(v_framerate) : clip.ConvertFPS(v_framerate)
new_framerate = clip.FrameRate()
new_framecount = clip.FrameCount()
debug_clip = clip.Subtitle(y=18,"Video Length(sec) : " + String(v_time))
debug_clip = debug_clip.Subtitle(y=36,"Audio Length(sec) : " + String(a_time))
debug_clip = debug_clip.Subtitle(y=54,"Difference of Time(sec) : " + String(diff_time))
debug_clip = debug_clip.Subtitle(y=72,"Original FrameRate : " + String(v_framerate))
debug_clip = debug_clip.Subtitle(y=90,"Adjusted FrameRate : " + String(adjusted_framerate))
debug_clip = debug_clip.Subtitle(y=108,"OutPut FrameRate : " + String(new_framerate))
debug_clip = debug_clip.Subtitle(y=126,"Original FrameCount : " + String(v_framecount))
debug_clip = debug_clip.Subtitle(y=144,"OutPut FrameCount : " + String(new_framecount))
clip = (debug == true) ? debug_clip : clip
return clip
}
何度もすみません。
ChangeFPSとConvertFPSを選択できるようにしました。
(使い方)
#ChangeFPSを使ってFPS変換
FPSAdjust() #またはFPSAdjust(true)
#ConvertFPSを使ってFPS変換
FPSAdjust(false)
#デバッグモード(※2つ目の引数をtrueで指定。省略時false)
FPSAdjust(true, true) #またはFPSAdjust(false, true)
>>776 確かにできる・・・
>>697-699を読んで試さず無条件で信じてしまった自分の負けか(w
全然人の事言えんな。
>>779 LoadPluginEx使ってもDeCrossを組み込むと
Avisynth open failure:
Unrecognized exception!
ってエラーが出ちゃうんですよね。みなさんの所ではどうっすか?
&に〜やんがんば〜♪
仕事から帰ってきてsynthスレ覗いたら、長さ計って自動化した
関数が上がってて正直驚きました。すごいね。
>>785 AviSynth2.0.8/VirtualDubMod1.5.4.1/MPEG2DECでDeCrossを使おうとしたところ、
Avisynth read error:Avisynth caught an access violation at 0x029270c7,attempting to read from 0x00000000
というエラーが出ました。
>>787 わざわざどうもです。
あんまり詳しく調べてないので、わかりませんが、上手くいかない
組み合わせがあるのかもしれないですね。
そもそも2.5x用のWarpSharpを使ってたし。
まあ2.0系はもう使わないだろうと思うのでこれにて終了〜
>>773 >>777 たいへん分かりやすい解説&スクリプトありがとうございます
これで全てが上手くいくと思ったらそう甘くはありませんで
スクリプトの使いこなしを勉強してこようと思います
VideoInfo の IsParityKnown て、
(image_type & IT_FIELDBASED) && (image_type & (IT_BFF || IT_TFF));
じゃなくて
(image_type & IT_FIELDBASED) && (image_type & (IT_BFF | IT_TFF));
だよね?
791 :
名無しさん@編集中:04/01/31 16:58
2.5でwaveletって使えないの?
知ってるがお前の態度が気に食わない
人に物を尋ねるときは口の利き方に気をつけろや、ヴォケ
>知ってるがお前の態度が気に食わない
馬鹿の一つ覚えですか?
そろそろその文句飽きられてきましたけど。
>>792 このスレで>知ってるが〜 を出されてもなぁ・・・
ここネタスレじゃないからつまらない。空気嫁。
>>791 その質問じゃ何がなんだかわからん。
たぶんWavelet系のフィルタの事だと推測はできるが・・・。
なんで放置しないんだろ
Waveletを使ったフィルタは使うことが可能
>>791の質問の仕方が悪いんだろ。人に物を聞く態度じゃないし。
小学校低学年は人生経験を十分に積んでから書き込んでね
そういや絶賛スレとかスクリプト張るスレ有っても質問スレ無いね
馬鹿な質問かも知れないけど、WMV9の色空間ってYV12でしょうか?
WMEに食わせるとき、スクリプトの最後でどの色空間にすればいいものかと思って。
>>801 WMVはYV12だけど
WMEは内部RGBでないかい?
>>802 そうでしたか・・・
うーん、じゃあHuffyuv用にYUY2で終わるようにしておこうかなぁ。
レスありがとうございました。
質問スレはなくていいと思う。荒れスレになるだけな気がする。
>>785,787
修正しました
nullinfo.s21.xrea.com/#DeCross
LoadPluginEx + AviSynth 2.0.x で読み込めない問題修正
>>805 なるほど、YUY2で終わるようにスクリプト書くと幸せになれそうですね。
他にも参考になるページでした、情報ありがとうございます。
>>804 質問してる奴に罵声しか浴びせない奴がいれば荒れるだろう。
質問してる奴が荒らすんじゃなくて、質問に答える気が無い奴が荒らす事になるな。
ここと逆になると思われ。
心優しく教えてやれるやつだけ答えればいいし。
すいません、連番や複数のaviを読み込ませる
記述はどのようになるのでしょうか。
ググッてもよく分からなくて...
aviutlの連結では、音ずれが発生してしまいました。
よろしくお願いします
+
>>811 c:\Program Files\AviSynth 2.5\Docs\index.html
にーやんさんのとこやここに頼りっきりで
docが付属しているのを失念しておりました(恥
多分解決です、ありがとうございました。
もし、さらに心優しい方がおられましたら、
連番読み込みのスマートな記述をご教授いただけると
勉強になるのですが
D:\bin\AviSynthなんだよね
MPEG2をCCEで再エンコするときってYV12とか意識したほうがいいの?
俺はAvisynth207でd2vを読み込んでそのままCCEに読み込ませてるんだけど
>>814 教えてもらうより ちょこっと検索すると
違う情報も得られて お徳ですよ
スマートな記述がピンとこないので、なんともいえませんが。
↑こういう陰湿なレスって何とかならないもんかね・・・
811?
819は私ではないですね
検索したと書いたんですが読んでいただけないようで
>>821 ありがとうございます。
こういう場合segmentedになるんですね、serialで検索かけてました。
動画関連は日本語でも怪しいので助かりました。
↑こういう陰湿なレスって何とかならないもんかね・・・
>>811 文字列入力して"I'm Feeling Lucky"ボタンを押されたんでしょうか。
それなら見つかるはずがありませんね。
SetMemoryMax()ってメモリーを増やせば増やすほど
嬉しい結果が得られるもの?
4GB以上にしないと無意味
aviutlでフィルタを掛ける順番で画質が変わってくるらしいのですが、サイズの方はどうなんでしょう?
自分で試してすぐわかることは、自分で試してみろや、ヴォケ
>>828 画質が変わったら、クオリティーベースでのサイズが変わるの
当たり前でしょう、ヴォケ
>>830 サンクス
この前、鋼の錬金術師をエンコして190MBくらいで作れたんだけど今日DBZをやったら350くらいになったんで。
まぁ、ソースにもよると思うけど。また試行錯誤してみますわ。
DBZってなんだ?
ドラゴンボールZです。
単にソースの動きが激いせいでサイズでかくなっただけかと
ぜんぜん話題になってないけど、2.5.5alpha
- Added TimeStretch. This filter can change speed of the sound without changing
the pitch, and change the pitch of a sound without changing the length of a
sound.
- Disabled avisynth_c plugin autoloading (no longer a compatible way to do so).
- DirectShowSource is now a plugin, and is automatically placed in the plugin
directory by the installer.
- Fixed minor glitches in audio cache (out of range requests)
>>834 やっぱりそういうのもありますよね。
親切に教えて頂きどうも有り難う御座います。
>>836 オマエみたいなド低脳がDTV板に書き込むなよ・・・せめてキャプ始めて半年はROMってろ。
つーか、すみやかにダウソ板に帰れや、ヴォケ
↑こういう陰湿なレスって何とかならないもんかね・・・
>>837 いい加減煽りまくるようなレス止められないのかな?そんなに荒らしたい
のか?
まあ、言ってる事には完全に同意だが。
ιょぅょ
いいよ、ιょぅょ
ι +ょ ぃ ょ
ぁぁ、ぃぃょ
あなたのような初心者は、まず半年程DTV板をROMって、基本的なことを学ぶべきです。
主要なサイトで調べればすぐわかることを書き込んでも、煽られるだけですよ。
もちろん、P2Pで違法なやりとりをしてはいけません。
serial で検索ってすごい人だな。
さすがだ。
ダウソ板にいる奴ってどうして露出狂なのかな?
個人で楽しめば別にいいものを…
あ、わかった!リアルで友達いないからスーパースターになりたいのな
アナル男爵みたいにな。40のオサーンだったのはワラタが
タイーホされたからだろ
アメリカ在住という話はウソだったのか?w
パソコンの特殊なファイル共有ソフト「Winny」を使えばインターネット上で
映画やゲームソフトを不特定多数が違法利用できる状態にできる。
京都府警ハイテク犯罪対策室と五条署は27日、「Winny」を
違法に利用して映画を配布していた人物を著作権法違反容疑で逮捕したが、
その後の調査で未公開映画の字幕までつけて頒布していたことが判明し、余罪を追及している。
容疑者は今年9月25日、著作権者の許可を受けないまま
米映画「ビューティフル・マインド」ほか1本を「Winny」を用いて
インターネット上に公開し、不特定多数の利用者がダウンロードできる状態にしていた。
さらに海外の違法ソフトを用いて日本未公開の映画もダウンロードし、その字幕を作成、
「アナル男爵」と名乗り違法にインターネット上で流通させていた。
ACCSによると、ユーザーは今年9月で全国約25万人。現在も増加傾向にある。
同協会によると作成された未公開映画による被害は200億円を超えると言われている。
その名も「アナル男爵」。海賊版の日本語字幕の“職人”で、正規版でいう戸田奈津子氏のようなカリスマ的存在だ。
ファイル交換ソフトユーザーを追った編書があるライターの津田大介氏は
「映像に日本語字幕をつける作業は、2時間の作品で最低1週間はかかる」という。
アナル男爵は正体不明で、名誉欲なのか愉快犯なのか動機もわからないが、
この難作業を厭わず、画質の良い海賊版を中心に【日本語字幕byアナル男爵】の“作品”を次々に供給している。
こうした字幕職人はほかにも存在し、作品によっては日本語字幕の違うバージョンが存在する映画タイトルもある。
「誤字が少ない」とか「訳が忠実」とか好みで選択しているようだ。
映画業界が効果的な対策を取れないでいることもあり、
「アニメ同人誌」にも似たアングラ文化として定着しそうな様相を見せているのだ。
いつの間に41歳自営業=アナルになったんだ?w
アニメ同人誌ってアングラ文化だったのか…
VirtualDub 1.5.10 + Avisynth 2.5.3 でエンコードしたとき、
VirtualDub error
Avisynth read error:
Avisynth: caught an access violation at 0x77fcc992.
attempting to write to 0xb4a6a6ff
というエラーが発生して異常終了するソースがたまにあったけど
synthを2.5.4に上げたらエラーが出ずにエンコが進むようになって、うれしー
vobsubがどうしても読み込めません
vobsubのバージョンは2.23です
vobsub.dll is not an avisynth plugin と警告されます
LoadPlugin( PluginDir + "vobsub.dll")
LoadPlugin("C:\windows\system32\vobsub.dll")
の2種類で試してみたのですがどちらもだめでした・・・vobsub.dllはプラグインフォルダーにも入れてあります
vobsubの再インストール、avisynthは2.52と2.54で試してみましたが変りません
違うPCでも試してみたのですが同じ結果でした(^^;
どこがおかしいのでしょうか?
どなたかわかる方いましたらアドバイスお願いいたします
>>858 pluginsフォルダにLoadPluginEx.dll入れてみる
パソコン押収されて未だに返されないから腹いせでACCSのサイトをハッキングか。
狙うサイト間違えてますよ
ここはデマ発信地か?
>>861 ありがとうございます
LoadPluginEx.dllとmsvcp71.dll、msvcr71.dllを入れたところ
LoadPluginでの読み込みエラーは無くなりましたが
今度は no video stream found と警告が出ました(^^;
パスとファイル名は間違っていないと思います
そこでvobsubをリサイズ前に持っていってみたら
Avisynth open failure Evaluate; Unrecognized exception!
とリサイズのところで警告出ます(^^;
もうわけわかりません
vobsub無しならちゃんとエンコ出来るのですが 何が悪いんでしょうか・・・・
VSFilterをつかう
>>864 Vdubのフィルターとしてvobsub使えば解決
>>865 再生時に使うということですか?
>>866 それでは fast recompress が使えませんよね
ConvertToYUY2()
vobsub("I:\DVD\ER01\vts_01_0")
みたいな感じでいこうや
>>867 loadplugin("C:\AVSPlugins\vsfilter.dll")
avisource("D:Dat\abc.avi")
vobsub("D:\DAT\abc.idx")
aviとidxとsubを同じフォルダに置いた場合。
位置や色は.idxファイルを書き換える。
みなさんいろいろありがとうございました <(_ _)>
MPEG2DEC.dll使用すればvobsubはそのまま読めるようになりました(^^;
MPEG2DEC3.dll使用時は
>>868さんご指摘のConvertToYUY2()追加で読めました
>>865 idxいじって字幕位置と大きさ変えてみますね
これでなんとかエンコ出来そうです^^
LoadPlugin("C:\Plugin\MPEG2Dec3dg.dll")
LoadPlugin ("C:\Plugin\IT.dll")
LoadPlugin ("C:\Plugin\VSfilter.dll")
LoadPlugin("C:\WINNT\system32\vobsub.dll")
mpeg2source("C:\dvd\video_ts\test.d2v", cpu=0, idct=0, iPP=False)
IT(fps=24,ref="TOP",blend=false,diMode=1)
crop(8,60,704,360)
LanczosResize(640,272)
VobSub("C:\dvd\video_ts\VTS_01_0")
return last
>>871 その場合、
VobSub("C:\dvd\video_ts\VTS_01_0")
はVSfilter.dllとvobsub.dllのどちらが働くの?
LoadPlugin("C:\Plugin\MPEG2Dec3dg.dll")
LoadPlugin ("C:\Plugin\IT.dll")
LoadPlugin ("C:\Plugin\VSfilter.dll")
#LoadPlugin("C:\WINNT\system32\vobsub.dll")
mpeg2source("C:\dvd\video_ts\test.d2v", cpu=0, idct=0, iPP=False)
IT(fps=24,ref="TOP",blend=false,diMode=1)
crop(8,60,704,360)
LanczosResize(640,272)
VobSub("C:\dvd\video_ts\VTS_01_0.idx")
return last
idxで思い出したんだけど
にいやんさんのAVI60用のサンプルスクリプトで、
24fps部分をAssumeFPS(29970,1000,false)で30fpsと連結してる。
これをAVI60で自動120fps化した場合、挿入されるnullフレームが
全部*...*...となって、24fps部分は95.904fpsになる。
解析したidxと同じ分割で、120fps化の時にidxファイル読込めばOKだろうけど。
だからなに
>>871 MPEG2Dec3、MPEG2Dec3dg使うと
VSFilter使ってもエラーでました
no video stream found
ConvertToYUY2()追加で読めました
マキシマイズはノイズまで拡大するからヤダ
ノイズが嫌なら取っちゃえばいいじゃない(マリー
ノーマライズは波形を崩さないだけマシ
今のオートマキシマイズはどんなアルゴリズムかしらんが
微小な音への影響が大き過ぎて使う気にならん
ほんとそうだよな。SoundEngineなんかでオートマキシマイズかけるとこもったような
感じになるからあんまり使いたくないな。
俺もやめとこう
Trim(a,b)++Trim(c,d)
この複数の範囲指定のやり方がわかるまで一日かかった
DeleteFrameじゃなくてTrimのところに書けよと思った>本家
低レベルな愚痴ですまないが同類の助けになれば
+と++の違いって何?
AlignedSplice()
UnalignedSplice()
AlignedSplice()とUnalignedSplice()の違いって何?
わからないなら++かAlignedSpliceを使っておくべし
教えてほしいから聞いてるんだけど
知ったかな人ばかりだからこのスレで聞いても無駄
オタクしか居ないし。
Document読んだけど、それでもどこが分からないのか具体的に書くと建設的かもよ
>>891 ∧_∧ / ̄ ̄ ̄ ̄ ̄
( ´∀`)<
( ) \_____
| | |
(__)_)
>>892 どういうときに違いが出てくるのか分からない
>>894 お前は本当に
>>888 の
ttp://www.avisynth.org/index.php?page=Splice を読んだのか?
The difference between the filters lies in the way they treat the sound
track. UnalignedSplice simply concatenates the sound tracks without
regard to synchronization with the video. AlignedSplice cuts off the
first sound track or inserts silence as necessary to ensure that the
second sound track remains synchronized with the video.
を読め。
読んでも分からない
たぶん英語だからだと思うんだけど日本語にされても分かるかどうか分からない
正直なのは悪いことではない
よし、英語力馬鹿満開の俺が訳してやる
一度しか訳さないぞ良くみとけ
それらの違ったご飯フィルターの道はそれらはサウンドトラック。
エネルギーの無い調味料はシンプルで高級猫でそのサウンドトラックは再び防御してビデオと同期する。
アレルゲンだった調味料は初めのサウンドトラックで切るか
インサーツな静かなシュワちゃんが必要
それは再びメインに躍り出た2番目のサウンドトラックをビデオとシンクロナイズします
do you anderstand?
フィルタ間の違いはそれらがサウンドトラックを扱う方法です。
UnalignedSpliceは、同期にのみ考察を持っていないサウンド
トラックを接続するビデオに装備をしました。それを保証する
ために要求された時、AlignedSpliceは、第1のサウンドトラック、
あるいは静寂を挿入する第2のサウンドトラックを中断する
ビデオによって同時になり続けます。
ご飯フィルター
分かるような分からないような・・・
いややっぱり分からん
来週は冬子の卒業公演
英語ダメなひと多すぎ、馬鹿じゃないの
↑はチョン
日本語ダメなひと多すぎ、馬鹿じゃないの
覇毛死苦怒宇威
夜露死苦目火度九
なんだよ、ここのやつらはアホばかりか。
釣られてねーで早く答えろよ
ι ょ ぅ ょ
要するに、音声を切った貼ったで映像と同期するかしないかの違い
それは継ぎ目ごとに音声と同期を取るってことですか?
たまには自分で試せや、教えて君
AlignedSplice,UnalignedSpliceどちらも使ったことがないんで、Manualを読んで分かる範囲でいうと:
AlignedSpliceとUnalignedSpliceはvideo clipを結合するときのsound trackの取り扱いが違う。
UnalignedSpliceはvideoとの同期を配慮せずに単にclipのsound trackを連結する。
→ 音は単純に連結されるが(最初のclipのsoundとvideの長さに差があれば)clipの継ぎ目でvideoとの
同期は保証の限りではない
AlignedSpliceは、最初の(clipの)sound trackが長過ぎれば末尾を切り捨て、あるいは逆に短ければ
無音部を挿入することにより、次の(clipの)soundとvideoとの同期を確保する
→ videoとsoundの同期を維持してclipを結合するが、その同期をとるためにclipの継ぎ目で音が切り捨てられらり
無音部が挿入されることがある
これでいいかな、
たまには自分で試させろや、教える君
>>914 ん?分かったかも
たとえば映像30秒音声20秒のAVIファイルを2つくっつけるとき
+だと映像60秒音声40秒になり
++だと途中に10秒の無音部が入って映像60秒音声50秒になる
ってことかな?
24fps化とインタレ解除を2種類のフィルターでやるとき
順番はどっちを先にやるのがいいんでしょうか?
にーやんさんとこのチュートリアルでは
インタレ解除−24fps化の順番でサンプルテンプレート出ていましたが・・・
↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑
↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑
↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑
内蔵フィルタLanczosResizeはLanczos3Resizeに精度で劣るらしいけど
LanczosResize使ってYV12でエンコーダに渡すのと
Lanczos3Resizeの前にYUY2にしてエンコードでは
どっちが画質よくなるのだろう?
見比べても俺には違いがわからんと思うので前者でやってますが
>>916 それは少し極端な例だけど、その理解でいいと思う
なるほど
これでようやく+と++を使い分けられるよ
読み込んだソースをそのまま結合するときは++
そこからTrimしたものは+でいいかな
基本的にはそういう感じの使い分けでいいと思うよ。
別ソースを+で繋いでも同期が狂わないなら全て+でいいし、
同期より音の連続性を取りたければ全て+でいけばいいし、
あるいは、とりあえず一切合切+で結合しエンコしたあと、
ある接続部から同期が狂って音ズが起きていたら
その接続を++に変えてsound 出力/muxし直すと言う
柔軟な使い方でもいいんじゃないかな
>>920 Lanczos3Resizeのほうが幸せになれるかも?
色空間変換はあんまり多くないほうがいいけど
俺はDivXやXvidでエンコする場合はYV12でLanczosResizeを使ってます、速いんだもん。
YUY2はhuffyuvやWMV9でエンコするときに・・・
>>917 あれはテンプレなので、順番とか設定とかは、自分なりに変更してください。
>>922 AviSynth.orgなどを見ると、AVI(ソース)の結合は+、Trimの結合は++が推奨されているような印象があります。
>>925 >AviSynth.orgなどを見ると、AVI(ソース)の結合は+、Trimの結合は++が推奨されているような印象があります。
で?その先が重要なわけだが
これまでの説明だとAVIこそ++でTrimは+でかまわないような気がするのだが
>>926 ソース結合の場合は
>>923の考え方で+を使い、
Trimは音を編集した場合やfps変換をしたときのことを考慮して++
そういうことかな?
とりあえずこのスレでの認識が間違ってるということではないよね?
+(UnalignedSplice)
映像□□□□■■■■
音声○○○●●●●
++(AlignedSplice)
映像□□□□■■■■
音声○○○_●●●●
>>924 それではLanczos3Resize使うことにします
なんでWMV9だとYUY2なのか?と思ったらYV12ではインタレース保持エンコできないのか
失敗ファイルたくさん作ってしまうところでしたな…
今ちょうどYV12で処理するように書き換えてから
初のインタレエンコ中だったりするので助かりました
音声と映像がずれるようなソースを使わなきゃいいじゃないか
キャプチャしたソースだと音と映像の長さが微妙に違うことがある
いくつか+でつなげると後ろのほうに行くほど音がずれていくよ
へぼいキャプチャ機器使ってるからじゃないの?
そういう問題ではないから
>Trimは音を編集した場合やfps変換をしたときのことを考慮して++
意味わからん
わかれ
utlとsynthスレにネタ投下。意見きぼん。
http://www.tenchi.ne.jp/~yoko/aviutl/ 今のところちょっと手間かかりますが…。
可変フレームレート出力 for AviUtl
24/30fps混合ソースを適当に可変フレームレート出力する
プラグインセット。
■itvfrプラグイン(逆テレシネ)
AviSynthのITプラグインを改造(AviSynth用)
削除フレームを調べて共有メモリに記録する。
■itvfr対応出力プラグイン
共有メモリに記録されたデータをもとにVFR出力するプラグイン。
・まるも拡張AVI出力改
・wmvout0.3改
の2つを公開
可変フレームレート?
120fpsで出力されるってことか?
wmvout0.3改って書いてるじゃん。
asfコンテナ使って可変フレームレートで出力するんだろ
すんのか?
まるも拡張AVI出力改は120fpsで
wmvout0.3改は可変フレームレートってことのようだな
なんで120fpsなんかにするの?なめらかになるかもしれんけど、
サイズバカでかくなるじゃん。なめらかにするんなら、インタレ
エンコした方がよくないか?
>>943 コピーフレームは再生時に表示されるだけで、データ的にはフラグもってるだけ
映像データじゃないからでかくならない
無論インタレエンコより滑らか
大体現状のAVIやwmvでインタレエンコっていってもなぁ
>>943 釣り? それともmpeg2でしかエンコードした事無い人?
API4のXviD以外のインターレースエンコードはサイズがばかでかく
なるし、PCモニタで見る前提ならインタレエンコした物なんて24fpsの
部分が見れたもんじゃないと思うが。
アニオタはご苦労やのう
947 :
名無しさん@編集中:04/02/09 00:19
いやいや、音楽PVにも24、30、60混在は少なくないよ。
60混在はさすがにすげー少ないと思うぞ
いや分かるけど
60i混在のPVなんてめったに見ないぞ
PCでの再生も考えれば704x480の30i
30iってウケル
>>937 addrangeでCMカット
→itvfr
→NRなど各種フィルタ
→auoencでまるも拡張AVI出力改(wmvout0.3改)で出力
というふうにavisynthだけでできるのかな?
>>953 できなきゃバラバラでやるのと変わりないよね、混合fpsのソースに当たったら試してみるかな。
でもこういうのは自動判定でいい思い出がない・・・
>>954 単純に24fpsにするのでさえ自動は難しいんだから混合だと誤爆しやすいのは仕方ないだろうかと。
aviutl用のtprivtcがほしい
tpr読ませるとRGB変換入っちゃうから
AVS経由じゃだめなん?
tmpgを通してる時点でRGB変換されてると思われ
TMPGEncはRGB32だっけ?
>>961 VFAPIもTMPGEnc自体もRGBオンリー。
んで、tprivtcではフレームの取捨情報しかつかわんから、色空間は関係なし。
avisynthを使ってみたんだけどエンコ速度が変わらないのはなんで
なのか質問したいです。普通にエンコしてもavsファイルを通したのも
終了時間が同じ。MPEG2で長さが1分しかないソースだからでしょうか。
MPEG2DEC3でDVD2AVI1.773のプロジェクトファイルを読み込んでるんですが。
>>963 AVSスクリプトを経由するってだけでエンコ速度が速くなる訳じゃないョ
>>963 フィルタかけた時の時間がAviUtlに比べて遥かに速い。
つまりフィルタをほとんど使って無いのなら、「普通にエンコ」とやらを
した時とさほど変わらないのかもしれないね。
まあ厳密な比較はできないけどAviUtl98から移植したNRと
インターレース解除を使ってできるだけ似た設定にした場合は
Avisynth+VirtualDub等の方が圧倒的に速いと思うよ。
(そんな比較に意味があるとは思えないが)
マシンスペックが高ければ高い程、ソースが短ければ短い程、
当然差は縮まるので、その辺りも考慮すべき。
君はAvisynthを宝島か何かのように考えているのかね?
>>964,965
解説してもらいありがとうございました。
>>967 ちょっと上でも話題になってたけど、色空間も知っとくといいかも
というか知らないと使えるフィルタが限られてくるような・・・
色空間つか、YUY2、YV12、RGBって単語だけ知ってれば
なんとかなると思う(w
Avisynthエラーで大体わかるからね。 エラーが出たら、
YV12toYUY2、ConvertToYUY2を使い分ければモーマンタイ。