699 :
691 :
2005/12/04(日) 21:41:55 マジで?('A`;) 今作ってるソフト、もうやめたほうが良いかな? 仮想サウンドカードを用意して DirectSoundの多チャンネル出力をAC3にエンコードして、リアルタイムでS/PDIFでパススルーする仕組みなんだが・・・ で丁度64bitプログラムを組みたかったので、リアルタイムエンコードは得意そうだからうってつけだと思ってたんだがね。 某コンテストに出す予定だったが、やめとくか・・・。 ちなみに今の完成度は、既にハードコーディングな実験的部分が多いが、ほぼ機能は全うするようになってる。
700 :
675 :2005/12/04(日) 21:57:13
ちなみにオレはAC3とDTSのプレイヤがあるけど配布はしてない。 ロイヤリティを要求されても払えんしな。 GIFやMP3みたいに普及してから徴収はコワイ。 無いと思うがサブマリン特許ってやつにも気をつけないとな。 691が作るだけなら問題はない。配布は厳しいかもな。
特許がらみ気にしだすと、サウンドプログラミングみたいな特許にガチガチに固められてそうな分野は怖いな・・・w ちょっとしたことでも、かなりの特許侵害してそうで・・・
分かっているとは思うけど、特許権と著作権はまったく別の権利なので、 混同しないようにね。法律も全く別のもの。
ちなみにGIFも、 まだ特許が有効であった時期であっても、 日本国内で個人が趣味でソフトを作る限りは、 ユニシスが何を言おうが、日本の法律では無問題だった。 もちろん商用ソフトはアウトだったけど。 ソフトシンセの類も、個人が趣味や研究で作る限りは、 特許法としては問題ないよ。ただし、それを商品化したり しようとすれば、「商品化する人」がきちんと特許の処理をする 必要がある。 あと、規格制定団体がネットで公開しているサンプルコードを 勝手にコピーして自分も著作物として発表してしまったりすれば、 そりゃ特許ではなく著作権の侵害。たとえ趣味でも、そりゃ、アウト。
フリーソフトでも特許料が必要だと思ったが。思い過ごしか? 通報先は法的機関ではなく直でドルビーラボ。 704が言うとおりなら通報しても問題ないだろ。 問題ないとわかれば691も安心してコンテスト応募ができる。
706 :
691 :2005/12/05(月) 17:10:51
とりあえず、まずは俺はドルビーに直接問い合わせれば早いんじゃないかな・・・。 もちろん、たとえ法的にOKでもアメリカの会社の特色的にNGって言われそうだけど・・・w どちらかと言うと、日本における中古ゲームソフトの販売くらいシビアな問題だと思う。
フリーでも課金するとユニシスが言い出したから問題になったし、
特許法上でも、個人的、家族的な運用を超えたら引っかかることになってるはず。
つまり、
>>704 の言ってる無問題ってのは、
個人が趣味でソフトを作って、かつ、その作者が個人用あるいは家族用にそのソフトを使ったとき、
ということなんだろ
ちなみに、特許が通ってない国からリリースするという方法もあり
Irfan ViewがGIFに対応し続けたのは、配布元がGIF特許の通ってない、
オーストラリアだったかオーストリアだったかからとかいう話
708 :
691 :2005/12/05(月) 17:23:14
問い合えず問い合わせてみた。 ・国内・海外で既にドルビーデジタルの技術を使用したソフトウェアが公開されているが、それに関しては許可・もしくは黙認されているのでしょうか? ・(私が作ろうとしているソフトウェアの概要を説明した上で)それをフリーで公開する場合はライセンスの取得が必要か? の2点を問い合わせた。 まぁ、殆どダメ元だと思うけどね。 現状は気まぐれに近い黙認だと思うけど、こうやって聞くと回答はNGだと思う。
>>705 フリーソフト=趣味とは限らない。
企業に限らず一個人であってもがビジネスの一環として配布するなら、たとえ
無料でも特許法で言うところの「業務」ということになるから、特許法の対象だよ。
そうしないと、例えばDLLモジュールに特許侵害になる部分を詰め込んでおいて、
それだけ無料配布、本体のソフトだけが有料、なんてインチキができてしまう。
>>707 特許の成立していない国にあるファイルサーバーを通じて公開すると、公開した
のが企業であっても、少なくとも、その国の特許法では、ファイル公開を停止
できない。もっとも、IPアドレスなどで、特許の成立している国からのダウンロードは
弾くような仕組みを持たせておいたほうが安全だとは思うけど。
一方、それを別の国(そこでは特許成立している)の人が、趣味で使うために
ダウンロードするなら、使うほうも大丈夫。特許が成立している国で、個人が趣味の
ためにダウンロードした後で、それをCDに焼いて友人に配るのもオッケーだけど、
会社の宣伝のために大量に焼いて展示会なんかで配布したら無料配布でもアウト。
特許法は国ごとに違うけど、おおよそ、こんな感じ。
>>708 「大学で研究しているんだけど・・・」という質問なら、ほぼ確実にOKだろうけど、
個人の場合、「作ったソフトをどうするのさ?」と疑われると面倒かもね。
つーか
>>691 は別にファイルとしてac3ファイルを出すわけでもなく
内部的な処理で必要なだけだし、結果的にはAC3の正式ライセンスのデコーダーが要るわけで・・・。
ドルビーからすると、不利益を蒙る内容でもないから、黙認しても良いと思うんだがね。
>>710 実はその仕組みはドルビーからすると良い商売になるんだよ。
だから内部処理でも、商用であちらは出したいからそれ自体不利益だと思われ
つっても、どこもそれをソフトウェアでやるような行動をしてないのが謎だが
ハードウェアはあるがね。
カルビーからすると、不利益を蒙る内容でもないから、黙認しても良いと思うんだがね。
サウンドライセンスのスレでも作ってそっちで話しろよ
自己紹介乙
ac3のライセンスの話のところ悪いけど ac3のファイル構造の情報載ってるサイトない?
717 :
デフォルトの名無しさん :2005/12/07(水) 04:56:42
昨日、MATLAB EXPO行った人いる?
718 :
675 :2005/12/10(土) 19:18:01
ac3のS/PDIF出力って同期ヘッダ(6+2byte)が必要みたいだな。
スレ違いだからこの話はここで終わらそうと思ったけど とりあえず、オチくらいは報告しとこうとおもう。 例のメール >ドルビーの各テクノロジーのライセンスは、AV機器開発メーカ様やPCソフトウェアメーカ様などの >企業様を対象としており、フリーウェア作成のための個人様を対象としたライセンスということは >行っておりません。また、今後もそのような予定はございません。 で、個人で作成する場合はライセンスの取得が必要か?と言う質問に対して 上記の理由で、個人へのライセンスはやってないので、必要ないとのこと。 と言う事で、企業様ではなく 個人の使用であれば、黙認と言う形のようです。
さすがゴルビー、太っ腹だな。
え?どこが太っ腹?? フリー作家にはつかわせねーよって内容じゃないのか?
>>719 詳しく。
>個人へのライセンスはやってないので、必要ないとのこと。
「個人へのライセンス取得はできない」って事だけど、
722はそれを「個人では使用できない」と解釈したみたいだね。
719の返事の文章に続きがないと722の解釈であってると思うが…
そりゃ、特許があっても研究目的とかのレベルなら問題ない。 当然 個人でも販売したりフリーで流通させたる事までドウゾと言ってる筈がないだろう
フリー作家=個人での使用 という解釈はできないな
>>719 それは、基本的に企業が「黙認」を表す時に
言葉を濁す時に良く使われる手法だと思う。
ダメなときは、基本的にはっきりと「個人の使用でも禁止している」的な事を書くはずだから・・・。
まぁ、
>>719 の質問まで載せてくれないとはっきりわからないんだが
ライセンス取得しなければ作れないか?と言う質問に対してなら
まぁ、基本的に「黙認」を表してると思う。
企業が「黙認」を公言するわけにいかないし・・・。
「おおっぴらにやらなきゃ煩い事言わない」ってとこか。 フリーはコントロール効かないし、ヘンな所で火がついたりするから難しいんだよなぁ。
向こうの気分一つで天国か地獄か分かったものじゃないな…。
フリーソフトとかだったら 文句来れば、公開止めるだけで済むんだから、対して問題じゃない気がする。
公開したのを止めただけでは、2次公開を防げない。 それは事前に容易に想像可能な事なので、 2次公開についても最初に開発して公開した人の責任という事になるだろう。 つまり、経済的な損害について賠償する責任がくっついてくるわけだ
禿同
黙認してた場合、そこまで追いかける企業ってあんまり無いと思うよ。 基本的に、今配布してる所を叩くと思う。
黙認なんてのはありえない。 >個人へのライセンスはやってないので、必要ないとのこと。 ライセンスが必要ないというのは、ライセンスは発行されないという事 特許権絶対的な独占権であり、 ライセンスが発行されないかぎりは、 例え独自に実装しようが、フリーだろうが、さらには個人的にさえ 利用できない強い権利。ただ唯一 試験又は研究のためにだけ使う事が可能。 個人の利用で黙認というのは、それは勝手な解釈だと思う。
っていうか、黙認を法的に解釈しようとするのが間違ってる。
法や規則の例外だから、黙認なのであって、
>>733 みたいな考えで黙認を考える事は出来ないよ。
まあ、許可でもNGでもなく 黙認だからな… 全てにおける例外と言うか、不確定要素というか・・・
普通なら>729,>732の言う通りだけど、ライセンス煩そうなドルビーだからなぁ。 gifの前例もあるし、ビビり入るよ。 金になりそうにない個人に噛み付くってのも考えにくいけど。
関係ないけど、うちの会社の知財部に聞いてみた 個人の場合「黙認」じゃなくて「放置」することが多いらしい 気が向いたとき責任追求するってスタンスらしいです
>>736 現状では個人相手にライセンスしないと言う感じなので
やはり個人相手に噛み付く事も無さそうだけど
せいぜい公開停止を求める程度だと思う。
737の放置ってのがあってるような気がするな。
サブマリンにするのが一番おいしいからな
『個人を対象としたライセンス付与を行っていない』
という文面の行間をどのように解釈するかだ。
>>719 は、この文章を
「個人ならばライセンス取得不要」→「黙認」と解釈したようだが、
黙認というまで解釈を飛躍させるのは、かなり危険だと思う。
「個人にはライセンスを付与しない」と解釈するのが一般的だろうな。
あと、開発するのは自由だが、配布まで自由だとは言ってない。
ということで、
>>724 の言うことが正しいと思われる。
ドルビーが遠まわしに「NGです」と言ってくれているのを、勝手な解釈で
黙認→公開 として訴えられても、俺には関係無いけどな。
激しくスレ違い。
ソフト作って公開→ドルビーに文句言われて公開停止→ソフトを改変して公開 →またドルビーに文句言われて公開停止→またソフトを改変して公開→(以下略) これで解決!
745 :
デフォルトの名無しさん :2006/01/16(月) 08:01:58
mciSendString()なんですが これ、PLAY命令で1度は音が出るんですが、もう一度PLAYを押すと音が出なくなります。 で、一度CLOSEしてOPENしなおすといけます。 こういう仕様なんでしょうか? ちなみに再生ソースはwaveです。
>745 seekは?
そういう仕様です waveOutOpenを同時にいくつか開いて waveOutWriteでそれぞれのハンドルへwaveを書き込む あるいはDirectSound使う
748 :
デフォルトの名無しさん :2006/01/28(土) 22:05:55
サウンドとマルティメディア-音の再生-優先するデバイス(Win2kの場合)、を切り替えるAPI(もしくは方法)御存知の方いましたら、お教えください。 やりたいことは、複数のサウンドカード利用時にシステム全体のサウンド出力を手軽に切り替えたいだけなのですが。。。 Mixer APIに当たりをつけ、複数の記事を読みサンプルもいじってみたのですが、 出力先の切り替え方だけ載ってないような(コントロール利用時のフラグで設定できるのかもしれませんが、使えそうなフラグが見つかりません)。 DirectSound関係は、DirectXなくてもOSの出力には関係なさそうだし。 そもそも優先するデバイスがどれかという情報はどこに保存されているんだ。。。 胃が痛いです。。。 検索したキーワード windows サウンドカード 切り替え api 複数 優先するデバイス 切り替え api 変更 windows 再生 mixeropen windows api sound device change output チェックしたサイト www.codeproject.com他
>748 仕事で散々苦労した俺が答えるぜ! つまりは、waveOutOpen( &h, WAVE_MAPPER, ... ) や、 メディアプレイヤーなんかのデフォルトのWAVEデバイスを切り替えたい、と。 レジストリエディタで、 HKEY_CURRENT_USER\Software\Microsoft\Multimedia\Sound Mapper を見れば解ると思うけど、ここの Playback にWaveOutのデバイス名を書けばOK。 デバイス名の列挙は waveOutGetNumDevs()/waveOutGetDevCaps() で良かったはず。 ただし、SetupPreferredAudioDevicesCount のパラメータを間違えると意図した動きをしないので注意。 詳細はチト忘れてしまって申し訳ないが、通常弄らない値なので変えないこと。 #waveOutGetNumDevs()の返り値だった気もする。 上記レジストリが存在しない/壊れた場合、コンパネからデバイス選択し直せば元に戻る。 mixerは乱暴な言い方をすると、音量の調整と録音時のライン指定操作がメインなんで関係無い。 資料が手元に無いんで記憶だけで書いてるので間違いがあるかもしんない。
750 :
748 :2006/01/30(月) 03:47:04
>>749 助かります。組み込んでテストしてみますです。。。
数学Tで座札した俺でもできますか?
752 :
デフォルトの名無しさん :2006/02/01(水) 22:47:49
、「、?サクサ、ホシ?ヌネソ?「イサト??。テホ、ケ、?ax/msp、ホ・ム・テ・チ、テ、ニ、ノ、ウ、ォ、ヒ、「、熙゙、サ、?ォ。ゥ 、ハ、ェ、ォ、ト。「、ス、?ヒアヌチ??ソア?、オ、サ、鬢?ソ、鮖ケ、ヒ、、、、、ホ、ヌ、ケ、ャ。「。「。「。」
753 :
matsu :2006/02/01(水) 22:48:58
ある音源の周波数、音程を検知するmax/mspのパッチってどこかにありませんか? なおかつ、それに映像を反応させられたら更にいいのですが、、、。
FFTというものを勉強しろ。
755 :
デフォルトの名無しさん :2006/02/01(水) 23:44:08
FFTは知っているのですが、今とても急いでいて、明日の朝までに 組み立てたいのです。もしご存知でしたら教えて下さい、、。
756 :
デフォルトの名無しさん :2006/02/02(木) 00:38:25
なんかあったよね、、
切羽詰る前に言えばいいのに。 そもそもそんなマイナーなモンを こんな過疎スレで聞いても解答返ってくるわけねぇじゃん。
知ってるけどおしえな〜い
きっと宿題かなんかだったんだろうな。 締め切り終わった頃に回答出してるところが教育的ですばらしいw
759=667?は意地が悪いのう
もっとも
>>753 がこれをMax/MSPに応用できるとは思えんが
別に質問スレでも宿題代行スレでもねぇからな。 解らない部分聞くでもなけりゃ、やり方聞くでもなし、答えだけ知りたいってのが気にいらねぇ。 しかも明日までとか期限切ってるし、しらねっつーの。
つーか、「今は全く無知です。明日までに勉強して作る必要があります」 なんて相談事では、回答者がどんなに手伝ってあげたいと思っても、 手の施しようがないべさ。「理解して作る」じゃなくて、「他人の解答を 理解せずにコピーして提出する」ってことなら、誰が手伝うものか。
んだんだ。 「急いでるから今すぐ回答だけ教えろ」なんて自己中すぎ。
766 :
デフォルトの名無しさん :2006/02/06(月) 18:20:10
WindowsXPとかに標準で入っている汎用USBオーディオドライバって、 2chを超えるような多チャンネルのPCMデータのやり取りには対応して いるんでしょうか?たとえば3chとか4chとか。USBのAudio Data Format 仕様書では、多チャンネルデータが規定されているようなんですが。 ご存知の方いましたら、教えてください。よろしくお願いします。
WDMなら使える。後はデバイスしだい。
>>766 WAVEFORMATやWAVEFORMATEXでは3チャネル以上は対応してなくて、
WAVEFORMATEXTENSIBLEを使わないといけなかったような気がするする。
769 :
Sound :2006/02/07(火) 01:36:22
現在、パソコンのサウンドカードから音(ステレオ)を取り込み イコライザー等の処理を施した後、リアルタイムで再びサウンド カードから音を出すアプリケーションを作りたいと思っております。 開発環境はVC++等を考えています。 現在、DirectXのDirectSoundを用いてサウンドカードからの 音をWaveファイルに録音したり、録音済みのWaveファイル を再生したりすることはできているのですが、サウンドカード からの入力データを動作中のプログラムの一時メモリを参照し、 それを操作・処理した後に、一時メモリから再びサウンドカード から音を出したいと考えています。 参考となるホームページやキーワード、書籍、具体的な 方法等知っていたら教えてください。よろしくお願いします。
バッファリング再生のこと?
>769 そこまで出来れば、あとは同時にやるだけで、特に悩むようなことはないと思うんだが。
>769 つ[リングバッファ] リアルタイムってことはレイテンシなしでやりたいってこと? 楽器繋いでエフェクタ代わりとかにしたいなら結構面倒だと思われ。 「ASIO」辺りで調べてみ。
WDMでリアルタイムは難しいよな…。 ASIO4ALLのソース見れば、たいていのサウンドカードでなんとかできるかも。
バカだなリアルタイムとか言うとすぐASIOかよ。 使った事もないくせにw 低レイテンシとまでは言ってない。
録音と再生のサンプリングレートが完全に一致してるならいいんだけどね そうじゃないならサンプリングレートあわせの為に 強力なLPF(ローパスフィルタ)が必要になるね。
アップサンプリングの場合でもLPFなんですか。
>774 バカはお前だよ。 16bit, 44.1kHz で処理する時、録音と再生にそれぞれ2KBのバッファを使うと、46msec程度遅延する。 ドライバ内にもバッファがあるので更に遅延するが。 楽器の演奏で50msec遅延すると気持ち悪くなり、100msec以上は使い物にならない。 ま、楽器触らない>774には理解出来ないんだろうガナー。
769は楽器を使うなんて人ことも言ってないが… なんで質問者の内容と違った回答する奴が多いのかね だれも遅延の話なんて聞いてないんだよ
リアルタイムの範囲をどこに置くか。とても難しい問題だな。
リアルタイムかどうかと遅延の大小はあまり関係ない気が。 遅延が一定ならリアルタイムと言えなくもないし。 リアルタイム処理した出音とそれ以外の音を同期ミックスするなら遅延を20ms内外に 納める必要があるが、ミックス込みで処理するなら遅延は100msでもいいわけだし。 要するに出音をどう使うかに依存すると。
ん? 772はレイテンシ無しでやるなら難しい、そうでなければリングバッファ使えって言ってんじゃん。 なんで噛み付いてんの? 漏れも入出力同時にやりたいって言われたらエフェクタがわりにしたいんだと憶測するが。 そうじゃなけりゃwavファイル操作した方が楽だし。
関連論文はないけど学生自体にちょうどそれの研究が流行ってた。 基本は想像どおりで消したい音の逆相をあてる。
>>774 =778は本当に
あれ?
声が遅れて聞こえるよ?
馬鹿だなぁ。
785 :
デフォルトの名無しさん :2006/02/09(木) 20:09:38
すみません教えてください 入力された音声をトランシーバー風に加工したいのですが EQで1KHzあたりをあげても あのザラザラ感がなかなかでません。 あれは変調されている音なんでしょうか? タクシー無線とか、飛行機とかあんな感じの音をつくりたいです どなたかアドバイスください
柳沢慎吾に弟子入りしてみるとか
適当だけど。 3kHz以上カット→300Hz以下カット→非直線性歪
>>787 さらに、ノイズを追加。ノイズは出しっぱなしだと面白くないので、
音量と掛け算するとか
1msでも遅延したら厳密に言えばリアルタイムじゃないと思うのですが。
じゃPCで音楽のリアルタイム演奏は無理だね
音の速さは340m/sくらいだっけか? コンサート会場で生声使ってもリアルタイムとは言えないわけだ
>>787 ,788さん ありがとうございます
非直線性歪 ためしてみます
あと、ノイズゲートもかけて試してみます
>789 ケーブル通る電子の速度分遅れるから厳密に言えばリアルタイムは存在しないと思うのですがwww ま、どの方法使っても789の脳味噌ほど遅れはしないだろうよ。
>>789 厳密にって?リアルタイムの厳密な定義なんて存在するの?
>>789 うむ。0msじゃないとリアルタイムじゃないよな。
ぜひキミがそういうシステムを作ってくれ。宇宙がひっくり返るぞ。
厳密なリアルタイム ⇒ 遅延0ms ってことだろ? そんな話はバカらしいから、あーだこーだと物言いがついてるんじゃないか。
大辞林 第二版 (三省堂)
リアル-タイムしょり 【―処理】<
〔real-time processing〕データ処理方式の一。
データが発生したとき、そのたびごとに処理を行う方式。
定時間処理。
--------------------------------------------
データの発生から処理の完了が規定時間以内にできれば、たと
え一週間かかってもリアルタイム処理だよ。
>>769 が何をしたいのかわからんから、規定時間がどんなも
んか知る由もないが。
まあ、
>>772 は単に ASIO って言いたかっただけだろ。
>797 >一週間かかってもリアルタイム処理だよ。 常識の範囲で物言えよ。 間違ってもその調子で仕事とかすんなよな。
799 プギャーって言って欲しいのかい?
この板も厨荒らしフラグが立ちました!
>>798 惑星探査機とかで制御に数分〜数時間かかるものもある。
あと、化学関係の奴とかならそれこそ制御のサイクルが
一週間レンジと言うのもざらにある。
自分の狭い「常識」が全てと思ってたら、恥をかくぞ。
1万光年も離れた星の光も1万年遅れてリアルタイムに見ています
リアルタイムの定義について1000まで議論するスレかよ。
低レイテンシ=リアルタイムだよ。
×低レイテンシ ○定レイテンシ
少なくとも俺の周りでは100msもかかるようなサウンド処理をリアルタイムとはいわんな。 そんな馬鹿なこと言ってたら話がすすまねぇ。
だれかこのどうでもいい話にケリをつけてくれ
けり。
レイテンシという言葉を見るとなぜか脳内で必ず「0.4」に変換されてしまう。
807の言うのは低レイテンシ処理であってリアルタイム処理ではないってこと。 0(レイ).(テン)4(シ) orz
0点死
>>808 自分の常識≡世間の常識 と思い込んでるお馬鹿が一人
暴れてるだけだろ。
>>810 ちとわろた。
>>812 残念ながら、全然面白くないぞ。
単にASIOアレルギーなだけだったりして?
恥ずかしながら
>>811 の説明を読むまで 0.4 の意味が分からんかった。
これであなたも0.4
レンテンシーだろ。 シなんてブチ切るから四とか死とか連想すんじゃね?
レンテンシーってなんだorz レイテンシーだお。
電気関係だと最後の「ー」は省くのが一般的では。 「ー」と「−(マイナス)」を間違えないようにするとか聞いた。
>>819 JIS かなんかで、決まってたはず。
昔は、ちょっとでもデータサイズを小さくするために省
ける (省いても混乱しない) ところは、省いてしまえと
言う発想だった。今時は、携帯とかにも 4G HDD が載
る時代だから、時代遅れの考え方なんだが、別に省いて
困るわけじゃないからそのままになってるだけ。
あと、いきがって「レイテンシー」とか言ってても所詮
カタカナ英語なので、「レイテンシ」と五十歩百歩。
すいません。急いでいるので教えてください! いっこく堂のレイテンシはどのくらいですか?
823 :
age :2006/02/11(土) 19:31:58
音スレで惑星探査の話を持ち出すバカ晒しage
比喩というものが理解できないアフォがきたな。 プログラマどころか、技術者としての素養に欠けるから、 転職を勧めるよ。(w
理系って下らない揚げ足とる奴多すぎて困る。
キャッ!><
見えない他人に対してはなwww
「低0.4=リアルタイム」野郎の嫌がらせですか? とりあえずスルー
スルーを宣言する奴は無様
意訳 寂しいので相手にしてください、無視しないでください。
あいつサンドバッグ状態だな 惨めすぎ
769が出てくりゃ済む話だと思うんだがな。 解決したのか、769=774なのか。
>>776 つまり、録音より再生周波数がわずかに高い場合でもLPFが必要かって事かい?
当然必要になる。
そして強力でかつ位相特性がフラットなLPFは大きな遅延を必要とする。
たとえば、PCIカードで入力してUSBスピーカーで出力なんて場合は、この同期を合わせる処理が必要だ。
だから、遅延の少ないリアルタイム処理をしたいなら、
まずは録音と再生が同期しているサウンドカードが必要だね。
まずはそっからだ
835 :
774 :2006/02/13(月) 18:22:55
>>833 769はオレじゃない。769=785だと思った。
録音した音をイコライザ(トランシーバ処理)して出力とかな。
話がそれてしまったから785で再度質問したように見えた。
質問者(769)のレベルを考えれば、彼のリアルタイムと言うは
「ファイルに保存しないでメモリのみで」って意味だとオレはとったけどな。
書き込みが無いなら彼にとってレイテンシ問題は関係なかったのだろう。
>>835 > 「ファイルに保存しないでメモリのみで」
また、斬新な「リアルタイムの定義」だな…。
どう見ても769 != 785だし もうちょっと観察力・洞察力をつけような。 だから774や835みたいなことを書いてしまうんだ。
774の人気に嫉妬……は、しねぇなwwwwwwwww
>>838 は本当に
あれ?
発言が負け惜しみに聞こえるよ?
馬鹿だなぁ。
質問者は、単に、パソコンをエフェクターとして使いたいってだけの 発想だと思うなぁ
なんかイヤなことでもあったんだろ
オレも含めての話だが
>>769 の欲しがっている回答は100レスくらい経過した今もまだ得られていない。
俺達、不毛な議論が大好き!!
これがプログラム板クオリティ。
>>769 オレも勉強中でよくわかんねぇけど、
まずはSteinbergのVST SDKとやらで勉強してみたら?
サンプルにエフェクターのプログラミングが幾つかあったと思うよ。
そこから、VSTi(DLL)じゃないStandaloneなアプリへと移行してみてはどうでしょうか?
843 :
842 :2006/02/15(水) 06:40:29
あ。おれも見当違いな回答しちまったか?orz
VST SDKじゃ音を鳴らすところのプログラミング知識は得られないか・・・
Hostに波形をわたすだけだもんな・・・・
そうか
VST Hostっていうアプリのソースを解析すりゃいいんだ。よし
>>764 VST Hostっていうオープンソースなアプリがあるからそいつを見るんだ。
なにかわかるかもしれないっす。
ってサウンドプログラミングを全然わかってない俺が回答してどうする?
>>764 じゃなくて
>>769 だ。
ム板ってIDが出ないから、なんか面倒くせぇなぁ。ひろゆきさんID出すようにお願いしてこようか?
>>842 >オレも勉強中でよくわかんねぇけど
じゃあ黙ってろ。
ここって口先だけの無能な奴の集まりだよ。
難しい質問の答えは、いつだって、抽象的w
そして、どうでもいい言葉の綾にすぐつっかかる。
>>845 は
>>772 が答えだと最良の答えだと思ってるほど引出しもゼロのくせに出てくるし。
>>846 は無能な奴の発言をぶった切る。
>>842 は無能なのにつっかかる。
そして、おれもつっかかる。
こんなスレじゃ
>>769 のためになるような答えは出てこないよなw
他人が自分のレベルに追いつく(追い抜く)のを恐れている。
実は wave inと wave out をつなぐのは簡単なようで、簡単じゃないんだよ。
一昔前のPCIサウンドカードは1枚で同時に使おうとすると、in-outのアイソレーションが悪くて使えたもんじゃなかったし
2枚刺しだと、同期がゆっくりズレてゆくから、
>>775 の処理をしなければいけない
USBサウンドカードも、どうもデータが抜けるようでプチプチ音が入ってしまうのが結構ある
最近は良くなってるけどね
サンプリング変換の技術を持っていれば、簡単かというと
リアルタイムなら
入力したものをリングバッファに入れて、8倍程度のオーバーサンプリングでデータを取り出して
入力したカウント数と 出力したカウント数がだんだんズレてくるからそれにあわせてPLL的な処理をするのだけど
ところが、InもOutもブロック入力出力なんだよね。
だから、1ブロック分ズレないとそのズレが判らない。
で、それをもっと早く知るには高分解能タイマーが必要になる。
その付近が自分で作るとなるとメンドクサイんだよ
>>847 自分の欲しい回答が出てこないからって逆ギレ乙。
769がでてきてないってことはたぶん769はでてきたキーワードで
解決できたってことだ。
逆ギレしたら解決したのかも。 まぁタイミングが悪かったよな。
854 :
851 :2006/02/17(金) 10:18:15
>>852 769≠847、847も同様のギモンを持っていたが、
あの情報だけでは解決できなかった、というつもりで書いた。
はぁ?
856 :
785 :2006/02/22(水) 01:18:46
すみません 785ですが 769さんとは無関係です ちなみに私のやりたいのは 録音ー>通信ー>再生です この部分は可変バッファ込みでできてます/
昨日
急にSFだな
おととい来やがれ!
おとといって…今更言われても、過ぎた日には戻れません
DelayLineでなんとかならんかな
すいません今ドップラー効果が発生しておりまして
リングバッファを一周してきました
レイテンシが172800000msほどあるようです
あんま盛り上がらないからなにかお題を上げてそれをみんなで作るってのはどう? っていう名目の上に俺の作ってほしい物を作ってもらうだけのクレクレ企画やろうぜ
「ザ・ワールド、時よ止まれッ! WRYYYYYYYYYYーーーッ」 「最高に「ハイ!」ってやつだアアアアアアハハハハハハハハハハーッ」 「オレはたぶん… プッツンするだろうということだけだぜ」 「ロードローラーだッ!」 つづく
うむ
869 :
デフォルトの名無しさん :2006/03/17(金) 19:30:09
クリエイティブのEAXってサウンド周りの重い処理を全てハードウェアで処理して CPUの負担を軽減してやれって発想なんだよね? ってことは波形処理に伴う効率的なFFTもサウンドカードのDSPに実装されているってわけだ。 それを逆手に取って、FFTを使うプログラミングを書くときは、ソフトウェア的に処理するのではなく EAX機能を搭載したサウンドカードに計算させちゃうってことはできないかな? ハードウェアで処理することで圧倒的なスピードでFFTとかやってくれそうじゃん。 それにFFT意外にも畳み込みの計算とかもスピーディーにやってくれるんじゃない?
>>869 プログラムを書き換えたり出来るの? そもそもプロセッサの仕様は公開されてるの?
プログラムは書き換えられないだろうけど渡すパラメータを変えて対応できないだろうか? ちなみにプロセッサの仕様は公開される必要はないでしょう。 入力を入れて正しい出力結果が得られれば満足なんだから。
リアルタイム系のフィルターでは、普通はFFTは使わないと思うけど?
ここ数年のグラフィックス・カードの処理能力向上にともなって、 研究者たちが「GPUを汎用計算機として使えないか」ということを考えています。 それと同じですよね。 自分は、GPUを使ったリバーブ・アルゴリズムなんかについて考えているんですが、 GPUに値を渡すことはできても、GPUから値をとってくるのが難しく困ってます。 GPUから値が取れないのは、GPUに情報が入ったら計算させて表示しておしまい、 というのが原因だと思いますが、もしかしたらサウンドカードでもにたことになってるかも。
>>873 な、なるほどΣ(´Д`; )
サウンドカードにデータを渡しても結果は音として再生されて終わりってこともありえるわけか・・・
875 :
873 :2006/03/18(土) 01:22:14
サウンドカードの場合は録音もできるものがほとんどなので、 グラフィックスカードと違って、 サウンドカードからデータを取ってくることはできます。 ただ、PCから渡したデータをサウンドカードのプロセッサ経由させて またPCに持ってこれるかどうかは別の話なんですが。
つまり計算結果を音として再生させてそれをケーブルで録音端子に戻して録音すると。 アナログコンピューターかいな('A`)・・・
877 :
873 :2006/03/18(土) 04:21:27
サウンドカード内部でルーティングできれば、 アナログにする必要ありませんね。
>>875 GPU使うのだって、計算結果をテクスチャ領域にレンダリングして
取り出すんじゃなかったっけ?
880 :
http://www.vector.co.jp/soft/win95/util/se072729.html :2006/03/18(土) 19:04:51
TextSS のWindowsXP(Professional)64bit化おながいします もしくは64bitにネイティブ対応したテキスト置換ソフトありますか?
>>878 MPACT2はDSPだからVGA専用というわけではない
MacOSXに、CoreImage技術を使って、GPUに音声処理をさせる、AudioUnitsプラグインがあったぞ。 名前忘れたがモナリザっぽい名前だった気がする。
883 :
デフォルトの名無しさん :2006/03/21(火) 02:54:44
HRTF って単純に線形補間していいの?
> HRTF 何の略だっけ?
頭部伝達関数
886 :
デフォルトの名無しさん :2006/03/24(金) 16:30:49
積分方程式から音声信号を算出する具体的なやりかた教えろ!
>>886 DTM板で教えてやったろアホ。
お前、大学レベルの数学勉強する前に人間勉強しなおしたほうがいいな。
人間勉強なんて(・∀・;)エロイナ
889 :
デフォルトの名無しさん :2006/03/27(月) 05:07:29
カスラックのせいで衰退したMIDIの事も時々思い出してください
当時はカスラックの所為だったが、 今は高速回線でMIDIにする必要なくなったろ。 それにソフト音源が主流になって再生環境合わせるのも難しいし。
プロが作った音が方々で聴けるってのに、 どこの馬の骨が作ったかわからんデータなんぞ、 DTM音源を買ってまでして聴かないよ。
DTXという電子ドラムと同じ動きをするプログラムを作りたいのですが、 困ったことにDTXは1つのパッドに設定できる音は5音までなのです。 パッドを1.2.3.4.5と続けて叩くと、C.D.E.F.G と発音される設定の上限を10音や20音とメモリを気にせずにプログラムしたいのですが・・・ このような動きのプログラムは難しいでしょうか?
894 :
デフォルトの名無しさん :2006/03/27(月) 11:59:51
>>892 簡単。
何番を鳴らすかのカウンタを作って、
叩かれるたびにインクリメント、
カウンタが最大値になったらもどしてやる。
レスありがとうございます。 プログラミング初心者には難易度が高すぎるみたいですorz
>>896 1音鳴らすのがやっとのプログラム初心者でもできることなんだけど、
ボタンを押すと画面に表示される数字が増えていく、ってのは作れる?
それができたら、数字を表示する部分を音を鳴らすのに差し替えて。
それも作れないですorz プログラミングテラムズカシス( ´Д`)
よくテレビとかでプライバシーの配慮ということでボイスチェンジャーで声の音程を 変えたりしているでしょ?ああいうことってサウンドプログラムでも同じようなことって できるのかな? またクリエイティブのEAXを使えば高速化できてリアルタイム処理をするなんてことも可能?!
>>899 ・・・音声編集ソフトについてるの見たことないかね。
あと、リアルタイムとはなんだね。
>>900 > あと、リアルタイムとはなんだね。
自分でマイクに向かってしゃべって、スピーカーからは音程の変えられた声が聞こえてくると
そんな事を聞いているのではないのだよ。
>>899 プログラムでできるよ。EAXは関係ない。
>>902 以前、リアルタイムの解釈でもめたからって、初心者につっかかるなよ。
性格悪いな、おまえ。
誉め言葉をどうも。
>>903 > プログラムでできるよ。EAXは関係ない。
っていうか、誰かそういうツールもう作ってたりするかな?
そこから先はここで聞くことじゃないな
>>907 よう見つけてくるなぁ(;´Д`)ハァハァ・・・
ボイスチェンジャーを自分で作りたいんだったら、 どの程度の機能が欲しいか考えるといいと思うよ。 ただ声が変わるだけでいいんだったら ディストーション、リング・モジュレーション、ボコーダーなんかでできる。 声質を変化させないまま音程だけ変化させたいというんなら もうちょっと難しいけどタイムワープ(名前あってる?)とか、そういうのが必要。
音程を低くするのは、周波数ロックして 1/2周期の(1+sin(w*t)) を掛け算するとソレっぽい音になるよ 音程を高くするのは、キーコン方式が一番楽だろうね
音程だけ簡単に変えるなら、グラニュラーかな。 音を細切れにして、時間軸方向に縮めて、それをたくさんならべて隙間を埋める。
音程をあげるのとさげるのとでは方式が違うってこと?
>>912 これ、簡単な処理のくせにそれなりにちゃんと聴こえるだよね。
FFTとか窓関数とかやってた苦労はなんなんだ、ってくらい。
ただのピッチシフターじゃん
これだけでどれだけレス消費してるんだか
>>899 はプログラム以前に普通に音声エフェクト処理の知識をつけたほうがいい
916 :
910 :2006/03/28(火) 14:05:48
>>915 ピッチシフターじゃないボイスチェンジャーもあるわけで。
プライバシーの配慮どうこうは間違いなくピッチシフター 適度に音が荒れるから元の声がくずれるしね 楽器には使いにくいけど
電子工作とかエレキットとかでは見たことあるよ>>ボイスチェンジャー でもソフトのもので(フリーの)ボイスチェンジャーは知らないなぁ。 別に作るのが難しいとかじゃなくてPCでボイスチェンジするメリットが 少ないからだと思うが…
ボイスチェンジャーでなくても、ピッチシフトはフリーのがあるよ。 フリーのホストからフリーのVSTを呼んでもいいし。
920 :
910 :2006/03/28(火) 23:08:27
PhysXっていう物理エンジン処理用のチップがあるけど これってサウンドプログラミングでも使えないかな? 複雑な残響音の反射などの計算って還元していけば オブジェクト同士の相互作用と同じにみなせるでしょ?
>>921 たぶん使える。Rayverbのインパルス生成みたいなのを
リアルタイムにやったらすごいだろうな。
>>923 > 少し前に流行った「一青窈のキ〜を4つ下げると平井堅になる」を試してみたかったので
> 作ってみました。
トリビアでやってたやつか。
俺もちょっと興味あったんだよな。
フォルマントいじる系のボイスチェンジャーは単音入力じゃないとむりよ
>>922 すごいな、グラフィックスの処理もサウンドの処理もこなす万能物理演算チップに
なり得る訳か>>PhysX
デュアルコア世代で不要になる気がする。 あと、サウンドはやはりサウンドブラスターのX-Fiチップのような専門チップに任せたほうが賢い気がする。
>>927 > サウンドはやはりサウンドブラスターのX-Fiチップのような専門チップに任せたほうが賢い気がする。
どうだろう。サウンドカードメーカーが用意した枠組みに従う限りは不要な気はするけど、
その枠組みを超えて独自の音源処理を施したい場合とかにはPhysXみたいな汎用演算
チップは重宝するようになるかも。要は生かすも殺すも使い手次第ということで。
929 :
デフォルトの名無しさん :2006/03/31(金) 18:18:48
Windows2000/XP,C++,C#の環境です。 マイク端子やWaveファイルを入力として、その音声データから 電話のDTMF音を抜き出して、プッシュされた「1,2,3,4,#」などの ボタンを識別したいのですが、参考になるサイトやライブラリなどは ありませんでしょうか?
930 :
デフォルトの名無しさん :2006/03/31(金) 18:57:06
そんなマニアックなことを解説してるサイトを見つけるほうが 無駄な労力だろうな。自分で実際にそのプッシュ音の波形を見て 特長見つけて判別するものつくりなさい。
>>929 「DTMF 周波数」でググった後このスレを音程検出で検索すれ
昔電話のトーン音を正確に模せる音大在籍の姉妹が受話器の前でハモって プッシュボタンに一切手を触れずに天気予報や電話案内に電話をかけている 様を見たときは戦慄を覚えたな。
トリビアの泉だろ? そんな昔でもないじゃん
特報王国だったような?
そう、特報王国だったね。
>929 正弦波ふたつだけでできてるから検出はラクチン。
>>932 実は1と7しか出来なかった罠。しかも1と7は1209Hzが共通だから
1人は同じ音しか出していない。まぁ、やれって言われたら無理だが。
938 :
929 :2006/03/32(土) 06:22:44
できたよ。情報ありがと。 DTMF音の間が極端に短すぎると抜けが出るけど、 実用にはOKかな。 間が20msくらいが限界。リアルタイムにやるならね。
キチガイが発生するからリアルタイムうんちゃらは止めれ。
( ゚д゚)?
リアルタイムシステム=遅延時間を常に一定値以下に”保証”できるシステム 「では”保証”できる遅延時間がどれだけか」という話は、リアルタイム性とは別の話だ。 ”保証”出来ないシステムは、リアルタイムとは呼べない。
実に下らん。原理主義者のご到着。 そんなことぐらい誰でも知っていて、それでも使う意味を理解したらどうだいwww
って、別に批判してるわけじゃないのか。スマ。
本当のリアルタイムシステム (英語に直すとひどい言葉になりそう) なんて、
2chで不特定多数と話す価値が無いだろうね。
殆どの人間はリアルタイムじゃない仕組みしか使っていないだろうし。
結局
擬似的なレベルしかできないし、むしろ擬似的なレベルで上手く回る仕組みのほうが重要。
>>938 もリアルタイムシステムとは言っていない。「リアルタイムに感じる」との解釈が正解のような。
擬似的じゃないリアルタイムとは? そろそろこのあたりで時間と空間について語り合いませんか。
スレ違いのうえにどうでもいい
946 :
デフォルトの名無しさん :2006/04/03(月) 14:47:18
春だなぁ
948 :
デフォルトの名無しさん :2006/04/04(火) 09:15:27
質問です。 例えば、 「あ〜〜」って発音してる音声と 「い〜〜」って発音してる音声があって それを1つのMIXしたデータAを用意 ここから、「い〜〜」と発音したデータを引いて差分から 「あ〜〜」と発音してるデータを作ることは無理なのでしょうか?
同じ人の声だと難しいかもねぇ。 発声タイミングが違えばなんとかなるかもしれない。 でも基本的にはすごく難しいと思っておこう。
独立成分解析でググれ
独立成分分析は多チャンネル録音してないと使えないよ。 声が2つだったら少なくとも2チャンネル必要。
よく刑事ドラマとかで無線越しの声が出てくるけど あれって普通のマイクで録音した声をいじって いかにも無線越しに聞きましたよ、と波形処理することって可能? それとも一対の無線機買ってきてそいつに音を通さないと それらしい効果は得られないのかな?
>>952 一度ものすごく低いレートでエンコードしてみなよ
いいヒントになると思うよ
>>953 それはローパスフィルターがらみじゃなかった?
柳沢慎吾に弟子入りしろとあれほど
ローパスとかバンドパス・フィルタに鋭いレゾナンスつけるとそれっぽくなるかもしれない。 ピーク周波数を上下させると、昔のAMレシーバー(スケルチ回路?)みたいな音がする。 ちょっとだけディストーションかけるとマイクに口くっ付けて話しているような音になっていいかも。 荒めのピンクノイズを混ぜたり、いろいろ試してみるべし。
http://saki.2ch.net/radio/kako/963/963053838.html >パトカー用無線(MPR-100)変復調方式
:PLL4相PSK 音声符号化方式
:ADM(適応デルタ変調)伝送速度
:16kbps フレーム同期信号
:11011000(正) 00100111(転)1フレーム320ビット構成
という事のようだから、サンプリング周波数を16kに減らしてから、ビット数を減らしてやれば良さそう。
あと、小信号時に8k 4k 2kHz を足してやるともっとそれらしくなると思う
あの警察無線や軍用無線の独特な声質って低ビットレートPCM変換されたことに起因するのか?
みんながイメージする警察無線って、 やっぱりアナログ時代の音だと思うよ。
アナログの音か・・・ ハイパスフィルターやローパスフィルターはかけてみたがそれらしい音にはならなかったような・・・ わざと潰して歪ませてみたりするか
その辺は感覚の問題だからプログラム板だと板違いだろ。 既存のコードを使ってなんとかするだけならDTM板でやれ
変調復調も音質に関係しているんじゃないかな? 理論上は線形変換でもアナログ回路で実装すると非線形になって (近似すれば線形)独特の音質が形成されてると考えるのはうがった見方かな?
慎吾ちゃんがやってるのはもろにディストーションだもんね。
無線というのは決められた帯域、決められた出力があるから非線形が入るのが当然。
いや、そこをしっかりローパスフィルタ使って帯域制限してやれば 非線形にならない、というのがナイキスト理論。
音量が大きいと FM変調の場合 決められた帯域を超える 音量が大きいと AM変調の場合、決められた出力を超える
>>967 それは使う音量を間違えてるんだよ。正常動作範囲内だったら非線形。
でも965で言いたかったことが分かった。
ただ、警察ドラマみたいに無線機に向かって怒鳴ったりしたら
変調させる前にクリップするんじゃないかな。
そこで非線形が生まれるのか。
>>967 CB無線はAM方式だったはず。
もっと高い周波数だとFM使うことが多いのかな。
AM変調だとすると > 音量が大きいと AM変調の場合、決められた出力を超える つまり音が全体的に過大入力になることで歪み、無線独特の音質になったってことかな? 逆に入力の音量が正常なら、AM変調の無線でもAMラジオ並の音質は確保できるということか?
警察無線で定格以上の過大出力をするとは思えないんだけど。
全然サウンドプログラミングじゃねーよ 頭悪 つか、定格以上になる以前にクリップするだろ普通
普通はクリップしないように工夫するんじゃない?
その工夫がつまり、AGC=非線形な処理のわけだ
それならラジオだってAGC処理はしている。 でも無線みたいな音質にはならないからクリッピングが原因とは想像しがたいが・・・
SSB?
普通に受信するとモガモガ聞こえるんだよな、SSB。ナツカシス。
>>976 警察無線ってFMラジオ並みの音質あったっか?
>>980 音質は、FM/AMの方式で決まるんじゃなくて、どれだけ帯域を取っているかの方だろ
昔の警察無線は、さらに秘話装置も使われてたから >> 977の言うSSBの原理
人間の脳が音による空間認識をしてるから音源の三次元位置を忠実に再現するための 録音方式と言うのがいろいろ開発されてて、今のところ一番普及してるもので最限度が高いものが 人間の頭の模型の量耳の位置にマイクをつける方法というのがある 耳に直接入ってくる音と耳の中でこだまする音の両方で人間が空間を認識してるからこれが一番 効果があるらしい 普通に録音したものを擬似的にこういった加工はできないだろうか 一番興味があるのはホロなんとかってある科学者が録音した音があってこの録音方式の際限度は 上で書いた頭の模型の非ではないくらい忠実に再現できる 実際に検索すればころがってるのでヘッドホンつけて聞いてみるとわかる ただこの科学者、世界が滅亡するとかいう理由で録音方法を死ぬまで誰にも言わなかったから 謎のままなんだそうだ どういう構造で立体認識をする音になるのかがわかればこの録音方式の解明にもなるんじゃないだろうか そういうことって可能なのかね?
>>984 適当な内容で長文かくなよ〜。
ホロフォニックよりアイソフォニックとか、優れた技術はあるだろ〜。
頭の模型だけじゃだめで、胸も必須だぞ〜。そこの反響がキモなんだから。
録音方法を死ぬまで誰にも言わなかったってのはウソ。
米軍が権利を買い取ってるし、録音に参加した人も多数。
録音中の黒い布の中には、精巧な上半身つきダミーヘッドが
あっただけだそうだ。当時のダミーヘッドはそれこそ頭だけだったので、
それだけでも革新的なんだよ。
ホロフォニックって、「耳から参照音が出ていて云々…」って
説明だけ聞くとえらいトンデモ発明に聞こえるんだけど
実際聞くとビビるな。
>>984 頭部伝達関数とかでググるよろし。
>>985 適当なのはあんた
isophonicなんてhorophonicsの比じゃない
聞いてみな
比べ物にならんよ
♪
♪