画像処理 その13

このエントリーをはてなブックマークに追加
1デフォルトの名無しさん
画像処理プログラミングについて質問、議論を行うスレッドです
・画像処理について素人同士で大激論
・初学者の質問に対してやさしく(的を外れた)解答を与える
・その道の玄人も大歓迎

前スレ
画像処理 その12
http://hibari.2ch.net/test/read.cgi/tech/1247100724/
2デフォルトの名無しさん:2011/04/04(月) 20:59:31.81
保守
3デフォルトの名無しさん:2011/04/06(水) 22:42:46.48
テンプレって無いんだっけ?
4デフォルトの名無しさん:2011/04/06(水) 23:54:10.83
5デフォルトの名無しさん:2011/04/18(月) 20:01:34.33
前スレ、落ちてたのか
6デフォルトの名無しさん:2011/04/26(火) 02:53:39.66
全くの初心者がどのサイトまたはどの書籍を参考にしたらいいか教えてください
forとかwhileとか配列とか簡単なCくらいなら使えるけどIplimageとか訳がわからないってレベル
7デフォルトの名無しさん:2011/04/26(火) 12:03:54.62
何を知りたいか、もうちと詳しく言ってくれるとレスが付きやすいかも
8デフォルトの名無しさん:2011/04/26(火) 23:16:05.13
>>6
Essential OpenCV Programming―with Visual C++2008

OpenCV初心者ならこの辺りが良いんじゃなかろうか
C++/CLIだから、.NETで扱えて比較的楽
そのままMFCに行くも良し、C#でラッパー使うも良し

C++/CLIは癖があるから、そのまま使い続けるのは危険だがwww
9デフォルトの名無しさん:2011/04/27(水) 01:11:05.36
これしか薦めようがないな、うん
http://www.google.com/
10デフォルトの名無しさん:2011/04/27(水) 19:43:11.15
>>6
構造体のポインタあたりまでCの学習をしてくるんだw
11デフォルトの名無しさん:2011/05/09(月) 01:28:45.04
つまらないな
12デフォルトの名無しさん:2011/05/14(土) 10:45:34.96
画像処理の勉強をしたいんだけど、どの位まで行けばプロ級なんすか?

私の当面の目標は、とりあえずライブラリを使って、色々な画像処理を覚えながら、
簡単なアプリ作って、色んなボタン押して画像処理できるようになって、、、
まずは半人前を目指す予定
13デフォルトの名無しさん:2011/05/14(土) 14:44:39.36
画像処理関連アプリだとPhotoShopの○○機能みたいなの入れてって言われること多い
それを二つ返事で引き受けられないようだと素人
14デフォルトの名無しさん:2011/05/14(土) 15:34:11.10
なるほど〜その辺勉強してみますわ
15デフォルトの名無しさん:2011/05/14(土) 16:57:59.55
OpenCVスレの方が適してるかもだけど
26日15時〜17時に中部大の藤吉先生と広島大の栗田先生の講演が
Ustream配信されるよ
16デフォルトの名無しさん:2011/05/21(土) 13:32:16.55
http://code.google.com/speed/webp/

また新しい画像形式が増えるのかしら
17デフォルトの名無しさん:2011/05/23(月) 18:31:02.07
ブラインドデコンボリューションって方式が色々ありますが、
レントゲンのような透過画像の場合、どれが一番良いのでしょうか?
検索しても天体用とか色々あってちょっと混乱してます・・・。
ソースもあんまり無いですし。
matlabを使って見るのが一番早いんでしょうが持って無いので、すいませんがどんな助言でも構いませんのでお願いします。
18デフォルトの名無しさん:2011/05/24(火) 22:56:32.87
画像処理技術の最新動向とかってどうやってチェックしてる?
19デフォルトの名無しさん:2011/05/25(水) 09:44:06.92
このスレをウォッチ
20デフォルトの名無しさん:2011/05/26(木) 22:32:39.59
とりあえずWebP Discussion Google Groupは
Google Readerに登録しておいた
21デフォルトの名無しさん:2011/05/28(土) 15:30:12.08
NL-Means法のGa(差分2乗に対する距離ごとの重み)に使う
a(標準偏差)ってどのように決めているのでしょうか?

多くの論文内では,探索範囲や重み評価の窓幅,指数関数の
減衰を決めるhに対しては実験で使った値が公表されているのに
aについて述べられている論文が見つからなかったので質問させて頂きました.
22デフォルトの名無しさん:2011/05/29(日) 23:09:54.01
このスレでいいかわからないんですけど、他に適切なスレが見つからなかったので質問させてください。
psdファイルの解像度(dpi)を取得する方法ないでしょうか。

600dpiのpsdのデータが大量にあるんですが、少しだけ72dpiのデータが混ざってしまっています。
これを検出するツールを作成したいのです。
ImageMagickで出来ると一番都合がいいんですが、調べた限りではImageMagickだと
dpiを変更することはできるけど、取得はできないようでした。
23デフォルトの名無しさん:2011/05/29(日) 23:14:34.31
ImageMagickのソースを見たらどうでしょう。
24デフォルトの名無しさん:2011/05/30(月) 00:49:02.12
普通にidentify -verboseで解像度も出るようだけど?
25デフォルトの名無しさん:2011/05/30(月) 02:12:20.67
26デフォルトの名無しさん:2011/05/30(月) 02:13:16.32
joke板恒例学生証うp大会開催中@http://toki.2ch.net/test/read.cgi/joke/1306496085/

現在の最高学歴=名古屋大学工学部
    次点 =慶應大学薬学部
   最下位 =駅弁大

※うp方法
@携帯で学生証?を撮影(個人情報は隠して、2chのIDを紙に記載し一緒に撮影してください)
A画像をhttp://upup.be/に送信
B画像のURLが記載された返信メールが来るのでそのURLをスレに記載
 
※真面目にやらんで画像をいじって加工OK!(joke板ですから)
27デフォルトの名無しさん:2011/05/30(月) 12:17:31.42
PNG, JPEG, GIF, BMPがデコードできて
WindowsとLinuxで共通に使える軽い画像ライブラリを教えてください。
libpng, libjpegなどを個別に使ってましたが、さらにbmpとかに対応しないといけなくて
いい加減めんどくさくなりました。

28デフォルトの名無しさん:2011/05/30(月) 12:23:47.54
つ[ImageMagick]
2927:2011/05/30(月) 12:36:02.30
>>28
それ全然軽くないです。
30デフォルトの名無しさん:2011/05/30(月) 12:42:31.11
軽いってどの程度よ
31デフォルトの名無しさん:2011/05/30(月) 13:12:07.71
OpenCVで良くね?
32デフォルトの名無しさん:2011/05/30(月) 21:18:05.77
OpenCV, CImg, ImageMagick, GraphicsMagick, DevIL, GIL, CxImage, Imlib2, FreeImage
個人的にはImageMagickが好き
33デフォルトの名無しさん:2011/05/30(月) 21:31:39.99
そういえば昔DevILを使ったなぁ。結構よかった気がする。
34デフォルトの名無しさん:2011/05/30(月) 23:15:15.50
>>24
ありがとうございます。
自分であれこれググった時にはそのパラメータにたどり着けませんでした。

で、試してみたのですが、解像度600dpiのファイルでちゃんと600x600が出てくる場合と、
なぜか30068x16になる場合があるようです。
画像そのものは問題なさそうなのですが、Photshopのバージョンによっては上手く解像度が取得できないんでしょうか・・・?
35デフォルトの名無しさん:2011/06/01(水) 22:42:44.55
ドロップシャドウって検索したらペイント系ツールの使い方ばっか出てくる。
陰影効果作りたいだけなんだけど、プログラム作る側の観点で解説してるサイト知らない?
36デフォルトの名無しさん:2011/06/02(木) 21:27:15.37
YUV420みたいにチャンネルごとにサイズが違う画像にアフィン変換かけたいんですけど、
1チャンネルずつ独立にかけるしかないんですかね
37デフォルトの名無しさん:2011/06/15(水) 23:14:50.42
http://www.youtube.com/watch?v=t99BfDnBZcI

これいいな
ネットがどんどん便利になっていく
38デフォルトの名無しさん:2011/06/16(木) 21:25:56.84
需要あるのか...
39デフォルトの名無しさん:2011/06/16(木) 21:37:07.23
40デフォルトの名無しさん:2011/06/18(土) 11:29:00.55
顔認識システムについて質問です。
同じ大きさの二つの写真を比べて、何%一致とかいいますよね?
この場合二つの写真を区画して、それぞれの同じ位置の場所の部分
を比べて一致したらx%分一致ってことですか?

似たような写真でも、違う写真ならば、全ての区分において一致しない
こともあるんじゃないですか?

ここら辺良く分からないので教えてください。またスレ違いなら関連
スレ教えてください。

物理板で聞いたのですが、ここが最適化と思いました。
41デフォルトの名無しさん:2011/06/18(土) 12:28:23.04
ここは最適化じゃないよぉ。
42デフォルトの名無しさん:2011/06/18(土) 12:30:45.35
このスレは最適化されています。
43デフォルトの名無しさん:2011/06/18(土) 12:31:44.10
特徴ベクトルがどうたらこうたらで識別器がどうじゃこうじゃの識別率や誤識別率がうんぬんかんぬん
44デフォルトの名無しさん:2011/06/18(土) 13:11:29.71
>>43
どういう判断で一致率を計算してるんでしょうか?
45デフォルトの名無しさん:2011/06/18(土) 14:44:11.02
通りすがりの素人だけど、

■□■□
□■□■
■□■□
□■□■

↑と↓がどのくらい一致しているかを調べるとすると、、、

■□■□
□■□■
■□■□
□■□□

先ず横方向に■が何個あるか数えて、両方のビットマップで数が揃っている確率を調べる
次に縦方向に同じ事をして、斜め方向にも同じ事をする

みたいな話を聞いた様な聞いてない様な・・・
これが >>43 さんの書いてる特徴ベクトル?
46デフォルトの名無しさん:2011/06/18(土) 16:51:59.19
画像パターンを特定する「特徴量」ってのがあって、この特徴量ってのにもさまざまな
計り方があって、それぞれ関数とか統計とか使ったりするわけだな。
よくあるのは、その「もの」の写真を何パターンかプログラムに処理させて、その「もの」
の特徴を学習させる(機械学習)ってのがあるな。
47デフォルトの名無しさん:2011/06/18(土) 21:03:24.36
顔認識だったらまず顔を認識して、顔の特徴を抽出するから、写真の区画がどうとかは関係なくなる。
特徴点を3つ使うとすると、三次元の特徴ベクトルという事。
48デフォルトの名無しさん:2011/06/22(水) 00:35:59.43
超高速に2値化画像をラベリングするのってどうしたらいいすか?
いろいろ論文や特許はでてるけど、これぞ1番、もしくは2番くらいの教えてください
49デフォルトの名無しさん:2011/06/22(水) 00:56:49.39
opencvを使って、やりたいことはできるが、それだとアルゴリズムが理解できない。画像処理工学?的で処理をプログラムレベルまでおとして、説明してくれてるサイトしりませんか?特にrgb⇒yuv変換、2値化、blobなど
50デフォルトの名無しさん:2011/06/22(水) 01:00:40.94
rgb->yuv ってこの計算式をそのままコードにするのじゃダメなの?

http://en.wikipedia.org/wiki/YUV
51デフォルトの名無しさん:2011/06/22(水) 11:41:41.87
最近は数学の勉強ばっかりで訳わからん
まー勉強するしか無いんだけどさ

って愚痴スマソ
52デフォルトの名無しさん:2011/06/22(水) 19:59:32.53
>>48
高速ラベリングは過去スレにたくさんあるな

過去スレ見ると
鳥脇先生の2パスアルゴリズムや
image MLに流れていた1パスアルゴリズムが速いらしい

会社で使っているのは3パス以上のアルゴリズムだが
4096×4096でラベル数1000程度の画像で20ms(core i3)くらい
53デフォルトの名無しさん:2011/06/22(水) 21:17:33.34
>>52
●持ってないんで過去ログみれない
鳥脇先生やimage MLで流れたという手法の文献ってわかりますか?
てか4Kで20msってバカ速じゃないですか。文献ありますか?それとも独自だから教えられない?
54デフォルトの名無しさん:2011/06/22(水) 21:45:07.15
ここって医用画像やってる人多い⁈
55デフォルトの名無しさん:2011/06/22(水) 22:10:05.71
少ない
56デフォルトの名無しさん:2011/06/23(木) 00:55:40.36
いよぅ
57デフォルトの名無しさん:2011/06/23(木) 02:44:01.94
鳥脇先生の名が挙がっていたから多いのかと思ったが違ったみたいね
58デフォルトの名無しさん:2011/06/23(木) 09:15:58.26
>>53
image-ML
http://www.eml.hiroshima-u.ac.jp/member/staff/tamaki/memo/index.php?image%20ML
1998/08/17〜1998/08/20の投稿

2パス
鳥脇純一郎: "画像理解のためのディジタル画像処理(II)", 昭晃堂 (1998),
C言語ソースは岡田稔@名古屋大学(当時)が作成

1パス
論文は1987 年 1 月の信学会の PRU (PRMU ではない :) 。題名等は不明
C言語ソースは高橋裕信@電総研(当時、電総研は今の産総研)によるもの

ソースはML過去ログがあればそれを見るか投稿者本人に問い合わせてくれ
59デフォルトの名無しさん:2011/06/23(木) 11:19:36.31
>>17
レントゲン画像でブラインドデコンボリューションが有用な局面って
どんな状況を想定されてますか ? 散乱は被写体の内部構造に依存するとして
事前撮影した画像から状況を読み取ってモデルを変更するとかですか ?
60デフォルトの名無しさん:2011/06/23(木) 11:22:06.50
測定計画は「最初が肝心」なので取得された画像を後からどうこうするより
透視像をリアルタイム解析してウェッジフィルタを自動挿入するほうが
被曝低減と画質改善を同時にできるから有用じゃないかとおもったり...
61デフォルトの名無しさん:2011/06/23(木) 13:03:57.47
>>59
散乱を推定して修正することで、今まで見えなかった物が見えたりしないかなと思っています。
被爆を抑える為に、他の光を使用したり。
62デフォルトの名無しさん:2011/06/23(木) 18:59:09.09
>>61
ちょっとググってみると20年以上前の放射線技術学会の発表記録で
SPECTの散乱線除去を検討したものがありました
盲点でしたけどSPECT関係は昔から理工学的な検討が尽くされているので
その方面のいろいろな論文は古くても参考になるかもしれません

実装するときの指標としては通常行われるグリッドを通した画像と
同じ程度に(散乱推定で)みえればいいのでは? と個人的にはおもったり。
63デフォルトの名無しさん:2011/06/24(金) 14:43:56.35
どこかのページで、霧の中を車で走行しながら撮影した動画があったけど、
それを画像処理したら建物や電柱がはっきり見えていたのには驚いた
64デフォルトの名無しさん:2011/06/24(金) 15:25:50.88
どのくらい?
65デフォルトの名無しさん:2011/06/24(金) 15:31:10.10
霧で目の前や道路もほとんど見えない状態だったのに、
周りの建物や電柱が認識できるレベルにまで復元されていた
霧の中なんて散乱係数一定じゃないのに、どーやったらこんなの計算出来るのかと

前に適当にググって見つけたんだけど、今探しても見付からねぇ・・・
66デフォルトの名無しさん:2011/06/24(金) 20:16:57.47
原発事故収拾部隊に召喚したい
67デフォルトの名無しさん:2011/06/25(土) 00:10:18.68
20cm四方の段ボールの切れ端5×4の20個並ぶとして、それぞれに
直径3,4センチの真っ白の円をプリントし、カメラの画像でしるしを認識したい。
2値化する際にしきい値を動的に決めたいんですが、どんな決め方が適してると思いますか?

また、ラべリングの中に円形度を調べられるっぽいのを本で見たのですが、
実際にあったら、円形度で円を認識したいと思いますが有用だと思われますか?
68デフォルトの名無しさん:2011/06/27(月) 09:20:41.53
輝度分布でヒストグラム作って、白部分とダンボール部分の差を閾値にすれば良いんじゃね?
円を認識出来るのは影次第だから、何とも言えないところがある
円用に照明環境も調整出来る施設なら良いけど、ただの施設にカメラ置くだけじゃ多分ダメぽ
69デフォルトの名無しさん:2011/06/27(月) 09:33:58.44
>>67
適応的2値化 とかいうやつでどうか? だいたい↓のような感じだったかと思う.

画像がグレースケールだとして,
まずそれに適当なフィルタサイズでガウシアンフィルタでも掛けたぼかし画像を用意する.
フィルタサイズは画像次第だが,画像幅の1/3とか1/4とか1/10とか適当にやる.
で,ぼかし画像輝度値にこれまた適当な係数(0.0〜1.0.例えば0.5とか)を掛けた結果を各画素位置での閾値とする.

やること簡単だし,ある程度は陰影に対処できる.
70デフォルトの名無しさん:2011/06/28(火) 09:15:41.46
透視投影変換の原理が良くわかりません。
自分でもググってみたのですがイマイチピンとこなくて・・・orz

http://opencv.jp/sample/sampling_and_geometricaltransforms.html
↑この下から2つなんですけど、入力4点と出力4点を指定して変換してるというのはわかるのですが、

GetPerspectiveTransform
WarpPerspective

の2つの関数の内部でどんな処理が行われているのか、教えていただけないでしょうか?
71デフォルトの名無しさん:2011/06/29(水) 01:14:35.85
2つの関数のリファレンス見れば原理が書いてあんだろハゲ
72デフォルトの名無しさん:2011/06/29(水) 10:24:24.57
ハ、ハゲてなんか、い、いねーぞ、な、な、なに言ってんだよ、ハハ
73デフォルトの名無しさん:2011/06/29(水) 10:43:24.10
ズレてますよ
74デフォルトの名無しさん:2011/06/29(水) 10:56:06.01
>70
とりあえず、ソースをあたってみた
opencv-1.0.0.tar.gz
cv/src/cvimgwarp.cpp:1471-1540

ノーテーションが若干違うが
http://okwave.jp/qa/q3685711.html
の下側の解答と同じことをしている
75デフォルトの名無しさん:2011/06/29(水) 23:07:03.39
>>70
3次元ベクトルと四元数、もしくは行列で行けるんじゃね。

そのサイトのピンクの四角形を四元数で行う場合。
1.元の四角形の4個の頂点座標を既に持っているものとする。
2.軸ベクトルを用意する。
 (ピンクの四角でいうと、底辺の部分が軸になってる。底辺の2つの頂点同士を引き算することで得られる)
 (軸の方向は、右から左だろうが左向から右だろうが角度のとり方が変わるだけでどっちでもいい)
3.回転対象のベクトルを作る
 (ピンクの四角でいうと、上辺の頂点座標から底辺の頂点座標を引く事で得られる)
4.回転対象ベクトルと、軸ベクトルを四元数にかける
 (そこで得られたベクトルで、底辺の頂点座標を移動した座標を作る)

以上で完了。
画像に適用する場合は、各頂点を、画像の各ピクセルに見立てればいい。
移動後のピクセル座標が重複した場合は平均化など別途ぼかしの技術を調べて調整する。
76デフォルトの名無しさん:2011/06/30(木) 17:19:27.50
2次元画像の「拡大縮小だけ」してくれるライブラリないですか?
拡大縮小だけできれば十分な俺にはフルスペックの画像処理ライブラリは大きすぎる。

77デフォルトの名無しさん:2011/06/30(木) 17:32:58.45
アホか
78デフォルトの名無しさん:2011/06/30(木) 17:44:28.97
そのくらい自分で作れ
7976:2011/06/30(木) 18:02:31.10
最低Bicubic法かできればLanczos法がいいです。
作れるぐらいなら聞きません。
80デフォルトの名無しさん:2011/06/30(木) 18:07:47.34
人に聞けば答えを持ってきてくれると思ったら大間違いだ
81デフォルトの名無しさん:2011/06/30(木) 18:11:54.31
拡大縮小なんて、ライブラリ以前に、素で用意されてるがな(´・ω・`)
8276:2011/06/30(木) 18:24:10.83
そんなこと言わずに本当に困っているのでコピってくればすぐ使えるC++のLanczos法のソースを教えてください。
83デフォルトの名無しさん:2011/06/30(木) 18:38:39.80
クグれガス
84デフォルトの名無しさん:2011/06/30(木) 18:45:47.24
あなたのためだから
8576:2011/06/30(木) 18:52:48.14
もう2時間はぐぐったけど見つからないの><
86デフォルトの名無しさん:2011/06/30(木) 19:01:56.57
じゃあねえよ、シネ
87デフォルトの名無しさん:2011/06/30(木) 19:15:44.87
Googleで見つからない時は、Yahoo!で探してみるといいよ。
88デフォルトの名無しさん:2011/06/30(木) 19:23:13.59

    // ̄~`i ゝ                    `l |
    / /        ,______   ,_____    ________  | |  ____ TM
   | |     ___ // ̄ヽヽ // ̄ヽヽ (( ̄))   | | // ̄_>>
   \ヽ、   |l | |    | | | |    | |  ``( (.  .| | | | ~~
      `、二===-'  ` ===' '  ` ===' '  // ̄ヽヽ |__ゝ ヽ二=''
                         ヽヽ___//   日本
         ______________  __
         |Lanczos C言語           .| |検索|←をクリック!!
          ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄   ̄ ̄
         ◎ウェブ全体  〇日本語のページ
89デフォルトの名無しさん:2011/06/30(木) 19:44:51.65
           YES → 【見つかった?】 ─ YES → じゃあ聞くな死ね
         /                  \
【探した?】                        NO → それより僕と踊りませんか?
         \
            NO → 死ね
90デフォルトの名無しさん:2011/07/01(金) 00:27:31.76
課題か何かか?
自力でやれよ
9167:2011/07/01(金) 06:00:00.97
自分なりに考えてキトラーのしきい値判別法にきめて、境界線追跡で円周長も求める、円形度みるようにしました。
これをペイントで作った理想画像で上手くいったので、実写でやりました。
甘くないんですね。
輝度しきい値が、78と低くく丸以外も検出しまくりです。ためしにしきい値高くしても上手くいきませんでした。影で黒にふられたマークもありました。
しきい値判別法考えなおします。
あと、なんちゃらフィルタにかけないと影の影響でちゃんですね。
92デフォルトの名無しさん:2011/07/01(金) 09:20:11.70
>>67
>>68
予想通り
9369:2011/07/01(金) 10:04:17.96
>>91
実際の画像がどんななのか不明だが 
画像全体に対して単一の閾値を決めようとしているの?
撮影対象面に無視できないほどの明暗があるんだったら
単一閾値でうまくいかないのはやる前にわかりそうなものだが.

とりあえずいまやっている処理内容はそのままで
その画像から一部分だけ切り出してきた画像に
やってみたらどうなるかとかやってみたら?
94デフォルトの名無しさん:2011/07/01(金) 11:18:51.85
>>91
まずは機械屋や電気屋に、出来る限り均等な条件で計測出来るように設計させろ
何も考えずに適当に作らせて「ライン作ったから後はよろ^^」で終わらせると、
設置する環境毎に調整しないといけなくなる上に、誤検出が多くて使い物にならなくなる
影ってのは環境次第では時間帯によっても変わるし、近くを人が通ったりするだけで影響受けたりするからなー
まー調整料取れるから、会社としては良いかもしれんが

最終的には画像処理次第だが、処理するレベルを下げる努力をしたほうが良い機械になるぞ
95天使 ◆uL5esZLBSE :2011/07/03(日) 10:45:56.58
2011年、Ruby,Perl,PHP,Pythonって並べたときにさ
ここで、Ruby以外を選ぶ奴ってマジでなんなんだろうな
土方が何をほざいて
96デフォルトの名無しさん:2011/07/03(日) 11:05:32.02
天使ちゃんマジ天使
PHPと同じところに並べてほしくないな
97デフォルトの名無しさん:2011/07/03(日) 14:11:18.61
Rubyって糞遅いじゃん
98デフォルトの名無しさん:2011/07/04(月) 10:16:36.70
>>95
>2011年、Ruby,Perl,PHP,Pythonって並べたときにさ
画像処理で、その辺のが並ぶことがあるのか疑問だが・・・
99デフォルトの名無しさん:2011/07/04(月) 10:30:44.27
コピペマルチしまくってるクソコテだから反応するな
10091:2011/07/04(月) 18:15:46.99
部分切り出して、やったら検出できました。なんで、部分画像分割とやらでいくつか領域わけてやります。
だけど、段ボール背景だと閾値がひくくなっちゃうんだけど、閾値が高めにでる閾値決定法ないすか。
現状、灰色の背景で検出できてるがフラッシュたいた画像は検出できんわ。
仕様うんねんは実現性検証だんかいなんでなんも決まってません。今はフラッシュたいたやつ検出できるまでいきたい…
101 忍法帖【Lv=17,xxxPT】 :2011/07/04(月) 19:03:42.55
×うんねん
○うんぬん
◎云々
102デフォルトの名無しさん:2011/07/04(月) 19:06:56.45
      ,. -─- 、
      /   ___丶
   ∠. /´ ,.- 、r‐、`|
      l |  | ー | lー | |
     l. |@`ー' oー' l
   (\ヽヽ 〜〜〜〜ゝ にんにん
   \.ゞ,>nn‐r=<
    ( / `^^´`ヽハ)
     /`! ー--=≦-‐1
103デフォルトの名無しさん:2011/07/04(月) 21:34:25.05
YUV4:4:4の動画を読み込んで4:2:2に変換したいのですが、CbCrの出力
を水平1つ飛ばしにするだけでいいのでしょうか?

//PH,PWは縦と横のサイズ
/*読み込み*/
for(y=0;y<PH;y++){
for(x=0;x<PW;x++){
Y1[y][x]=(unsigned char) fgetc(fp_in1);
Cb1[y][x]=(unsigned char) fgetc(fp_in1);
Cr1[y][x]=(unsigned char) fgetc(fp_in1);
}
}
/*書き出し*/
for(y=0;y<PH;y++){
for(x=0;x<PW;x++){
fputc((unsigned char) Y1[y][x], fp_out);
}
}
for(y=0;y<PH;y++){
for(x=0;x<PW;x+=2){
fputc((unsigned char) Cb1[y][x], fp_out);
fputc((unsigned char) Cr1[y][x], fp_out);
}
}
104デフォルトの名無しさん:2011/07/04(月) 21:52:35.01
おまえがいいとおもうならばそれでいい
105デフォルトの名無しさん:2011/07/05(火) 09:34:47.49
>>100
実際に映るダンボールと白枠の画像が無いとわからんが、
俺はライン状を流れる物を検出してると思ってるから処理時間も考えるとy=ax+b程度の係数でダンボールと白枠を分離させろとしか言えん
あとはカラーにしてサブピクセルの比率から判別するとかな

フラッシュで真っ白になったら検出出来ないのは当たり前
もっと安定した光源使え
なんでそんな機械仕様なんだと上を問い詰めろ
106デフォルトの名無しさん:2011/07/05(火) 12:40:46.17
フラッシュはちゃんとバウンスさせてる?
テカりやすいもの写すのに点光源とかダメだよ
107デフォルトの名無しさん:2011/07/05(火) 12:41:37.13
いや逆に点光源のほうがうまく反射してステルスになるのか??
108デフォルトの名無しさん:2011/07/05(火) 13:27:03.51
機械屋<フラッシュで強い光を当てれば、他の照明からの影の影響を受けなくなる

とか言ってるんだろうか
109デフォルトの名無しさん:2011/07/05(火) 19:33:03.08
いや、助かりますわ。最近異業種から電気系に転職したんでなんの知識もないんす。
とりあえず、フラッシュたいたような画像の認識は常識的にないと。
ついでになんですが、カウントした値をLCDだか?別のディスプレイに表示させたいんですが、マイコンかCPUボード使った組み込みになるんですか?
110デフォルトの名無しさん:2011/07/05(火) 21:10:39.68
PCからならUSB接続のサブモニタやデュアルディスプレイのグラボ、S端子接続のTVなどでも出せるし
キャラクタLCDなら秋月あたりにセットで売ってるんじゃない?
111デフォルトの名無しさん:2011/07/06(水) 09:34:16.70
>フラッシュたいた画像
がありかなしかはどんな絵になってるのかわからないことには何とも言えん.
画像見せてもらえないなら適切なアドバイスをもらうのはなかなか難しいと思うよ.

あと,パターン検出方法にしても
撮影方法が固定
(姿勢や配置位置等は固定なのか,常に特定のカメラを使用するのか 等)
されているのならその状況に特化した工夫の余地もあるだろう.
例えば,↑の()内が全て固定だとすれば
画像のどこらへんにどの程度のサイズでパターンが存在するかまで
既知であるハズなので,その部分領域だけを相手にすればよく
パターン検出難易度はかなり下がるわけで
フラッシュたこうが,局所的な領域内での処理は十分可能かもしれないわけだし.
112デフォルトの名無しさん:2011/07/06(水) 09:48:26.67
>>109
ダンボールのライン検出を作ってるのは想像出来るんだが、情報が少なすぎてこっちも妄想でアドバイスしてるだけだから盲信するなよ
フラッシュも撮像に適切な光であれば問題無いが、光量が安定しなかったりハレーションするようなのはNG
個人的には多灯LEDを常時点灯させてるのが安定してるかなと

カウントした値を適当なLCDとかに表示するのは、実際に作業する人間がどの位置でどのように判別するか次第
基本的には組み込み系キットを使うが、大きく表示したいのなら別PCってパターンもある
知識無いならPICとかの本を読むとか、Interfaceのバックナンバーに練習キット付いてるからそれ見て覚えれ
113デフォルトの名無しさん:2011/07/06(水) 13:44:44.01
質問です。

ImageMagick(Windows版)についてです。
指定したフォントで斜体の文字列を描画したいのですが、
うまくいきません。できないのでしょうか。

convert -size 100x100 xc:none -fill #303030 -pointsize 20 -style italic -draw "text 0,50 Test" Test.png
このようにすると斜体の「Test」が描画されますが、

convert -size 100x100 xc:none -fill #303030 -pointsize 20 -font "C:\WINDOWS\Fonts\MSMINCHO.TTC" -style italic -draw "text 0,50 Test" Test.png
フォントを指定すると標準の文字が描画されてしまいます。
どのようにすればよいでしょうか。
114デフォルトの名無しさん:2011/07/08(金) 11:11:09.50
>>63-65
http://ladon.ist.hokudai.ac.jp/research-contentstop/image-restoration

霧の中を運転している動画、やっと見付かった
影が見えているから、この程度なら何とかなるかな・・・?
11576:2011/07/08(金) 11:31:47.02
Lanczosの拡大縮小実装した。
チンカスゴミ野郎どもが情報を出し渋るから苦労した。
本当に役に立たないカスニートどもが死ねばいいと思う。
116デフォルトの名無しさん:2011/07/08(金) 11:59:31.56
Lanczosは当然3だろうな?
2で満足するなよ
117デフォルトの名無しさん:2011/07/08(金) 20:26:59.28
やっぱここはレベル低いな。
Lanczos4で実装したに決まってるだろ。
11876:2011/07/09(土) 00:30:49.38
そんなわけないだろ。バカか
ちゃんと引数で2か3を選べるようになっている。
一流のプログラマーならみなそうする。
119デフォルトの名無しさん:2011/07/09(土) 01:32:43.56
よくやった テスト画像で精度を試してみろ
http://image-d.isp.jp/commentary/czp/czp512.bmp
120デフォルトの名無しさん:2011/07/09(土) 09:29:54.92
1/2 x 1/2 に縮小
http://www.picamatic.com/show/2011/07/09/04/27/7679229_256x256.png
外周部がおかしいのと小さい円が多数出現しているがキニシナイ。
121デフォルトの名無しさん:2011/07/10(日) 00:22:57.94
ふむ
外周の濃い部分は比較的正確だが
内側の灰色が薄い部分はニアレストネイバーに近い出力になってると思われる
122デフォルトの名無しさん:2011/07/11(月) 09:14:05.48
>>119
てか、なんでペイント画面のキャプチャーなんだよw
軽い嫌がらせとしか思えんwww
123デフォルトの名無しさん:2011/07/12(火) 11:59:43.20
物凄くくだらない質問でスマン
ピクセルの正しいスペルがpixelだと言うことを今初めて知ったんだが、
pixcelでもググると沢山出てくるのは何か違いがあるの?
みんな俺と同じように間違えているだけ?
124デフォルトの名無しさん:2011/07/12(火) 12:50:14.93
そもそも造語なんじゃなかったっけ?
picture cell
みたいな
125デフォルトの名無しさん:2011/07/12(火) 14:19:59.01
ピクセルは、一般的に picture element (picture=写真・画像の意、element=要素、PEL)からの造語、またはpicture cell (picture=写真・画像、cell=細胞・記憶素子)からの造語とされる。
http://ja.wikipedia.org/wiki/%E3%83%94%E3%82%AF%E3%82%BB%E3%83%AB

後者の略し方を間違えて覚えてたのかなー。
何かの本でもPixcelって書いてたような気がする。
ありがとうございました。
126デフォルトの名無しさん:2011/07/12(火) 16:19:06.32
>>74
返事が遅くなってすいません!
サイトを提示していただいたおかげで変換方法は理解できました。
自分でもopencvのソースをあたってみて確認もしました。
ありがとうございました!

ただ、そこから先に理解を深めようとすると躓いてしまいます・・・。
何故そのような式になるのかという原理を知りたいのですが、いろいろ書籍をあたってもピンとくる解説がありません。
透視変換は三次元から二次元に投影している、という曖昧な理解までは到達しました。

(x,y) = ( (A*X+B*Y+C)/(G*X+H*Y+1) , (D*X+E*Y+F)/(G*X+H*Y+1) )

という変換式にどうすれば辿りつけるのか・・・
図解や解説、サイト、または書籍など、なんでも構いませんので是非教えてください!
127デフォルトの名無しさん:2011/07/12(火) 22:52:17.56
↓を読んで分からなければ諦めろ
http://www.mlab.ice.uec.ac.jp/~ej-sib/vision/vision_projective.html
128109:2011/07/12(火) 23:01:45.03
画像アップしました。画像に対してアドバイスお願いします。

http://freedeai.180r.com/up/src/up4683.jpg
http://freedeai.180r.com/up/src/up4684.jpg
ほんとはbmpファイルです。

4683の画像は、6個ちゃんと検出して、他は除外できてます。
ただ、タイルの部分が2値化したときに、円と同じ白になってしまってるの
で、ラべリングやら輪郭追跡の処理対象になっているので、処理に時間がか
かってます。タイル部分を2値化時点で黒にしたいです。現在は、円形度と
面積で判定して何とか検出してます。
4684は現状のアルゴリズムだと、検出できません。現在4分割してしきい値
を算出していますが、左上の領域のしきい値が低く出て、軒並み2値化時に
白くなってしまってます。円は5個しか検出できません。
理想は両方の課題が解決できればいいのですが・・
129デフォルトの名無しさん:2011/07/13(水) 01:46:29.11
CPUの気持ちになって考えろ
130デフォルトの名無しさん:2011/07/13(水) 04:34:33.76
>126
ちゃんと読んでないけど>127の射影変換(32-33)のところかな
誤字が多いことで有名な『詳解 画像処理プログラミング』p.232-234にちゃっかり載っていてわろた
131デフォルトの名無しさん:2011/07/13(水) 05:18:03.43
>128
プログラムを書く前にGimpなりPhotoShopなりでシミュレートしたらどうだろうか
実際どういう処理順かしらないけど

原画像 -> (ノイズ除去) -> (コントラスト補正) -> 2値化 -> ラベリング -> 面積求めて円形度判定
2値化のところは、白丸(輝度が高い)であることがわかっているのなら画像内の最大輝度値から20, 30を引いたあたりを閾値にするとか

原画像 -> (ノイズ除去) -> (コントラスト補正) -> エッジ抽出 -> 2値化 -> ハフ変換
とか思ったのはここだけの話、とか言ってみるテスト
132デフォルトの名無しさん:2011/07/13(水) 10:03:29.96
>>128
現状のアルゴリズムがわからんが
@最初にRGBの比率見て、差があるのは全部黒にする(タイルの部分が白になるのはこれで解決するはず)
A画面を細かく分割(16x16とか)してヒストグラム作ってから差を見て二値化
B画面を繋ぎ合せて円形のみ抽出
だけでいけそうな気がする
13369:2011/07/13(水) 10:08:08.93
>>128
背景が固定で無い環境を考えているなら
全ての背景を除去できる2値化閾値を常に算出する処理パラメタなんて決められないだろうから
2値化でタイル部分を黒にしたい とか考えるだけ無駄だと思う.
(対話的にパラメタを調整していいのなら別だが)
あなたが画像を撮影する環境変動の範囲内で
検出対象たる白丸をその形で残せる閾値決定手法とその処理パラメタ
を用意できたら,後は以降の判別処理の精度を高める方に注力すべきと思う.

円の検出は>>131が言うように
2値画像をErosionした画像とDilationした画像の差分絶対値画像あたりをエッジ点として
ハフ変換でもいいかも?
134デフォルトの名無しさん:2011/07/13(水) 10:10:46.14
あと,部分画像でやってみろと言ったのは何が起こっているかを
考察してみろというニュアンスが大きかったわけで
画像内での白丸の位置に対する前提知識とかを使わない状態で
単純に画像4分割とかしたら,
分割個所で閾値が不連続になることの副作用の方が悩ましい結果になりそう.
例えば>>69 に書いたような 閾値が滑らかに変化する方法を勧める.
提示画像の背景なら,タイル表面がざらついているから
良い閾値で2値化すると細かな白領域が無数に出る結果になると思うけど
(円の画像上面積に関する知識は使ってもいいみたいだから)
そんなのは輪郭追跡とかに入る前にモルフォロジ演算あたりでほとんどつぶせるはず.
135デフォルトの名無しさん:2011/07/13(水) 18:26:19.40
ImageJの関数を解説しているサイトってありませんでしょうか?
本家サイトのは1行だけの説明になってない説明しか無いので、
http://rsbweb.nih.gov/ij/developer/source/index.html
でソース見ながら解析してます。

ImageProcessorとImagePlusとFHTの違いとか、あんまり理解しないままやってますが。
てか、なんで画像フォーマットが複数あるんだろうと頭がパニクってます。
136109:2011/07/15(金) 01:06:03.20
いろいろもらったけど、正直理解できない部分があるので・・・
停滞してます。

ぼかし画像輝度値に1未満の係数かけたらしきい値低くなっちゃうじゃんとか。
でもフィルタは陰影にはいいっぽいすね。
最大輝度値から固定値ひくのうまくいかないす。
そこで、グレースケールのヒストグラムの極大値が大体、2つか3つあるんだけど、
巷の算出法だと真ん中の山近辺がしきい値になってうまくいってない。
ヒストグラムのいくつかある極大値の濃度値がわかるアルゴリズムってあります?
一番濃度たかいのと2番目の真ん中くらいにしきい値おきたい。
あとハフ変換て声もあるけど、なんか処理が大変ぽいのとうまくいかない場合が
あるみたいなのでやめたんだけど、ラべリング、輪郭よりいいのかな。
分割も確かになめらかなのがいいっすね。でもそのときのアルゴリズムが今のところ理解できないっす。
あと、分割した領域にモノがなかった時の処理とかどうしようとか。
ぐぐってっるけど、どうにもすすんでない・・・
137デフォルトの名無しさん:2011/07/15(金) 09:26:48.62
おそらく今>>109

画像を複数の小領域に切り分けて
個々の領域毎にその領域内の画素群の画素値に基づいて閾値を求め,
その閾値はその領域内の全ての画素で共用される

という形を取ってるんだと思うけど,これを

ある画素に着目したときに,この画素を白とするか黒とするか
を決める閾値は
その画素を中心とした小領域内の画素群の画素値に基づいて求める

とすれば閾値は
(閾値計算方法としてぼかし画像を使う例を挙げたが
 別に平均だろうが,領域内のヒストグラムを使おうが)
滑らかに変化するでしょ?という話だよ.
138デフォルトの名無しさん:2011/07/15(金) 09:57:45.02
小領域の大きさは画像に合わせて決める必要があるだろうけど
後段の判定で白丸の面積の情報を使えるということはある程度
写る大きさは決まっているのだろうから,
複数の画像で試してよさそうなサイズに決めてしまえばいいかと.
(提示画像なら60〜150pixel四方程度とか??)

領域内に白丸が無い場合 については
その中に偶然 丸くて,周囲より明るくて,白丸と同じくらいの 領域
が存在しているときしか問題にならないのでは?
(とは言え,背景が全く自由な場合だと
 これが結構な頻度で起こるから困るんだけども)

領域サイズと白丸のサイズがだいだい決まってくれば
ヒストグラムから閾値決める方法としては
Pタイル法 とか使えたりしないかな?
139デフォルトの名無しさん:2011/07/15(金) 10:16:19.71
>>136
基本、ヒストグラム等を滑らかにするのはガウシアンとか使うけど、
ぶっちゃけ山を取り出すだけなら前後で平均値を取るだけでいい
一発で滑らかにならなかったら、数回繰り返しても良いし
平均取る範囲は画素数(256諧調だとは思うが)やカメラの性能にもよるから自分で調節な

分割した領域で何も無かった場合、閾値で分けるか、黒にしちゃっても良い
円形抽出してるなら、円形の中に何があっても関係無いし
140デフォルトの名無しさん:2011/07/22(金) 13:16:36.48
使用しているosはwindowsで
libpngを使って16bitグレースケール画像を作成すると
表示したときにヒストグラムがおかしくなり
表示が乱れる原因って分かりますか?
141デフォルトの名無しさん:2011/07/22(金) 14:36:14.25
ライブラリの使い方が間違ってるんだろ
142 忍法帖【Lv=31,xxxPT】 :2011/07/22(金) 17:17:31.30
まさかと思うが、上下バイトが反転してたりして。
143デフォルトの名無しさん:2011/07/22(金) 17:41:46.32
16bitグレースケールって地味に特殊な使い方だな
8bitなら大丈夫なのか?
144デフォルトの名無しさん:2011/07/22(金) 19:59:17.14
>>141-143
画素値が最大255のデータを16bitグレースケールで保存した場合正常に表示されるのですが
ある程度高いと表示がおかしくなるみたいです
ライブラリについてそこまで詳しく調べたわけではないので調べなおしてみます
145デフォルトの名無しさん:2011/07/22(金) 20:15:32.50
>142が的を射た悪寒。
146デフォルトの名無しさん:2011/07/22(金) 20:26:02.59
>>145
エンディアンが違うという解釈でいいのでしょうか?
と思って調べていたらどうやら当たりっぽいです
ちょっと調べなおしてみます
ありがとうございました
147デフォルトの名無しさん:2011/07/24(日) 12:48:34.94
めんどくさかったので
今までgimpで画像処理プログラムしてきたんですが
OpenCVに変えると劇的に速度が速くなったり
他にもいいことあるんですか?
148デフォルトの名無しさん:2011/07/24(日) 13:16:18.89
いいこともあれば悪いこともある。それが人生というものぢゃ。
149デフォルトの名無しさん:2011/07/24(日) 14:53:41.68
今日はついてないな
150デフォルトの名無しさん:2011/07/25(月) 02:25:18.17
gimp便利なのに
あまり使ってるのみかけないのは
きっと他にもっといいソフトがあるのだと思ってた
しかしそれらしいものがない
schemeやpythonで画像処理スクリプト組めるのってPILぐらいしかみつからない
151デフォルトの名無しさん:2011/07/25(月) 02:29:04.81
スクリプトで画像処理っていう需要がない
152デフォルトの名無しさん:2011/07/25(月) 04:07:27.65
unix系でスクリプトとかだとImageMagick使うんじゃん?
153デフォルトの名無しさん:2011/07/25(月) 04:17:39.11
フィルターなんかでバイト配列を対象とした処理を書く時はスクリプト言語のメリットは無さそう
遅くなるだけ?
154デフォルトの名無しさん:2011/07/25(月) 18:29:48.61
思いついた処理をさくっと試してみる、とかならスクリプト言語もいいんじゃない?Cでゴリゴリ書くよりかなり楽できるし。
155デフォルトの名無しさん:2011/07/25(月) 19:42:06.29
例えばどんな処理?
156デフォルトの名無しさん:2011/07/25(月) 22:54:59.63
ppmで画像処理をする課題やってるんだけど、回転処理のとき角度270の時だけ左側に黒い線ができる・・・ヒントください・・・
157デフォルトの名無しさん:2011/07/25(月) 23:11:59.23
黄金の獅子が目覚めし時、太陽のいかずちを月の水面に捧げよ。
158デフォルトの名無しさん:2011/07/26(火) 00:13:12.03
>>156
これか?
http://hibari.2ch.net/test/read.cgi/tech/1311026419/159
めんどくさいからソースを(codepadかideoneに)貼れよ。
159デフォルトの名無しさん:2011/07/26(火) 09:22:51.18
tanθ
160デフォルトの名無しさん:2011/07/26(火) 09:25:34.99
普通に考えれば端数の処理が間違ってるんじゃね?としか言えんよな
161デフォルトの名無しさん:2011/07/26(火) 09:28:20.44
面倒くさいから画像処理はimagemagickとかでやってるんだけど
どうしても自分で処理したいところが出てきてしまったのですが

今のトレンドってpnmじゃないんだよね?
どういう形式が一番おしゃれなの?
162デフォルトの名無しさん:2011/07/26(火) 10:08:39.30
オシャレかどうかはその人のセンス次第
163デフォルトの名無しさん:2011/07/26(火) 10:09:59.14
君のセンスを教えて
164デフォルトの名無しさん:2011/07/26(火) 10:20:01.15
リュックにビームサーベル2本が常識だろ
165デフォルトの名無しさん:2011/07/26(火) 10:49:14.53
ポスタードリームとかもう覚えてるのはおっさん認定だな
166デフォルトの名無しさん:2011/07/26(火) 11:01:02.40
つまり>>165はおっさん
167 忍法帖【Lv=32,xxxPT】 :2011/07/26(火) 11:58:40.49
>>161
libpngでも使えば。リンクは面倒だけど、手っ取り早い。
私はImageMagickと連携させるならpnmで済ませてしまうけど。
168デフォルトの名無しさん:2011/07/26(火) 19:50:27.50
最近、面倒くさがりが多いけど、全部同じ人かな?

ファイルの読み込みなんて一度コードを書いたら幾らでも使い回せるんだから、
心を決めて手を動かすだけだと思うんだが・・・
169デフォルトの名無しさん:2011/07/26(火) 20:09:08.21
とか言いつつ俺も面倒くさいから Cocoa のライブラリで読み込んでるけど・・・
170デフォルトの名無しさん:2011/07/27(水) 09:31:17.16
Bitmapで読み込んだ物をbyte配列やIplImageに変換してるけど、面倒くせぇ
特にグレースケールと24Bitと32Bitが混ざった時にはわけわからん
171デフォルトの名無しさん:2011/07/27(水) 18:49:19.33
でかい画像でなけりゃ おなじ大きさの32BitColor のビットマップを別に作って
読み込んだ bmp をいきなり BitBlt byte配列化やIplImage変換の対象は↑側を使う
ってのはどうだい?
172デフォルトの名無しさん:2011/08/05(金) 22:16:33.58
ttp://www.fujitv.co.jp/mezanew/ana/photo/a110805.jpg
スマートフォンの画面に何が写っているのか
解析出来る強者はいないか
173 忍法帖【Lv=35,xxxPT】 :2011/08/06(土) 08:43:25.94
見た感じ、FacebookのようなSNSっぽいね。
174デフォルトの名無しさん:2011/08/06(土) 15:38:32.29
下側に霊が・・・
175デフォルトの名無しさん:2011/08/08(月) 12:47:57.55
上側にカオナシが・・・
176デフォルトの名無しさん:2011/08/26(金) 16:03:32.28
死ね
177デフォルトの名無しさん:2011/09/06(火) 11:59:30.32
失礼します。
bitmapフォーマットについてですが、1Byte程度の任意の値を入れたいと思っています。
最初の14Byteのファイルヘッダの予約領域や、40Byteの情報領域の最後の「重要なパレットのインデックス」に、
任意の値を入れることで誤動作を起こすような画像ソフトってありますでしょうか?
自分で簡単に入れてみたところ、特に問題は無さそうだったので。(もちろん、今後追加されたらどうなるかわかりませんが)
もしくは、画素の(0,0)辺りを情報バイトとして使用したほうが無難でしょうか?
よろしくお願いします。
http://www.kk.iij4u.or.jp/~kondo/bmp/
178デフォルトの名無しさん:2011/09/06(火) 12:40:31.16
後ろに足せばいいじゃないか
179デフォルトの名無しさん:2011/09/06(火) 16:48:25.77
任意の情報入れられる画像フォーマットあるだろーに
180 忍法帖【Lv=40,xxxPT】 :2011/09/06(火) 18:34:04.54
>>177
正しくそう言うデータを監視するツールなら昔作った。
181デフォルトの名無しさん:2011/09/14(水) 01:27:56.60
画像処理の知識が乏しく困っています、教えてください。
リアルタイムで三次元のベクトル図を描画するために便利なライブラリはありますか?
182デフォルトの名無しさん:2011/09/14(水) 01:31:39.78
opengl
183デフォルトの名無しさん:2011/09/24(土) 15:25:19.45
画像処理の学習を始めるにあたりどちらをベースにするか迷っているのですが、
2次元に限定した場合OpenCVとOpneGLの違いって何でしょうか?
OpenGLの方が情報量も多く実績もあるのに
あえてOpenCVが選択されるのは何か理由があると思うのですがよくわかりません。
184デフォルトの名無しさん:2011/09/24(土) 15:42:34.40
>>183
OpenCVが画像処理のためのライブラリです。
OpenGLは画像を表示するためのライブラリです。
185デフォルトの名無しさん:2011/09/24(土) 15:47:59.21
OpenGLとOpenCVなんて
そもそも比較対象になるようなものじゃないだろ・・・
186デフォルトの名無しさん:2011/09/24(土) 17:54:20.54
>>184
ありがとうございます。

OpenCVは撮影した画像を解析して条件に合致するところだけ加工するみたいな用途で、
OpenGLは複雑な図形を描画してそれをスムーズに回転させるみたいな用途
というという理解であってるでしょうか?
187デフォルトの名無しさん:2011/09/24(土) 19:42:28.35
>>183
画像処理ってのは、画像に対して何らかのを処理する技術のことなんだ。
CGみたいに画像を生成するようなのとは、分野が違う。
188デフォルトの名無しさん:2011/09/24(土) 19:58:23.63
>>186
画像データを解析したり加工したりするのがOpenCV
画像データをポリゴンにマッピングして表示するのがOpenGL
OpenCVで解析、加工したデータをOpenGLで表示するというのもありえます。
189デフォルトの名無しさん:2011/09/25(日) 10:50:38.17
>>187-188
ありがとうございます。
納得しました。精進します。
190デフォルトの名無しさん:2011/10/05(水) 08:02:05.31
モザイクのかかってない動画を機械学習させた本格的モザイク除去を考えた
191デフォルトの名無しさん:2011/10/05(水) 12:40:28.06
>>190
超解像の研究でかなり前からあるし
特許なしオープンソースで作って公開してから報告しろ
192デフォルトの名無しさん:2011/10/07(金) 14:07:13.55
まずはモザイクのかかってない動画を公開するんだ
193デフォルトの名無しさん:2011/10/24(月) 15:18:37.42
画像のマッチング計算(?)の文献を見ているのですが…
2つの画像f,gをフーリエ変換した結果F,Gの相関を計算するとかいう話になっていて、
そのときの相関の式で G側が複素共役にされているのですが
何故共役にしなくてはならないのでしょうか?
ググってみたところ、複素関数で相関を計算するときは一方を共役にするらしい
ことはわかったのですがその理由がわかりません

あと、この相関を逆フーリエ変換して画像の世界(?)に戻したものは
どういった意味のものになるのでしょうか?
194デフォルトの名無しさん:2011/10/24(月) 16:10:35.29
>>193
その文献が何かを示して質問すれば答えてくれる可能性が増えると思わんかね?
195193:2011/10/25(火) 17:08:22.40
質問内容は

f→(DFT)→F, g→(DFT)→G
とフーリエ変換した先で相関(正しい呼び方は”相互パワースペクトル”??)を計算する際に,
FG ではなく FG* (*は共役) とするのは何故?
あと,この FG*をIDFTしたら結果は何?

といったものだったのですが,改めて>193を自身で読み返してみると
↑のような質問内容であることすら読み取れない状態になっていました…すみません.
ご指摘通り,今見ているものを示しておきます.
ttp://w2.gakkai-web.net/gakkai/ieice/vol1no1pdf/vol1no1_030.pdf
(この文献では"正規化"ということで FG*/|FG*|になってますが)
196デフォルトの名無しさん:2011/10/25(火) 18:15:37.31
いや、2つの画像の相関(ある意味畳み込み)はフーリエでは乗算になるわけで
_F_[] : フーリエ変換, sum(x) : サメーション,xは添字で-∞から∞, exp(x) : ネピア数のx乗, j : j^2 = -1
f : 信号, F : フーリエ変換後の信号, ~F : 共役
相関のフーリエ変換
_F_[sum(k_1)sum(k_2)f(k_1, k_2)g(n_1 + k_1, n_2 + k_2)]
= sum(n_1)sum(n_2){sum(k_1)sum(k_2)f(k_1, k_2)g(n_1 + k_1, n_2 + k_2)}exp(-j w_1 n_1)exp(-j w_2 n_2)
= sum(k_1)sum(k_2)f(k_1, k_2)exp(j w_1 k_1)exp(j w_2 k_2)
sum(n_1)sum(n_2)g(n_1 + k_1, n_2 + k_2)exp(-j w_1(n_1 + k_1))exp(-j w_2(n_2 + k_2))
ここで、k_1 = -l_1, k_2 = -l_2, n_1 + k_1 = m_1, n_2 + k_2 = m_2に置き換える
sum(-l_1)sum(-l_2)f(-l_1, -l_2)exp(-j (w_1 l_1 + w_2 l_2))
sum(m_1 - k_1)sum(m_2 - k_2)g(m_1, m_2)exp(-j (w_1 m_1 + w_2 m_2))
= sum(l_1)sum(l_2)f(-l_1, -l_2)exp(-j (w_1 l_1 + w_2 l_2))
sum(m_1)sum(m_2)g(m_1, m_2)exp(-j (w_1 m_1 + w_2 m_2))
= F(-w_1, -w_2) G(w_1, w_2)
= ~F(w_1, w_2) G(w_1, w_2) //
なんかだまされた感じ
197デフォルトの名無しさん:2011/10/25(火) 18:59:41.71
画像間のズレ、傾き(出来ればゆがみも)を検出 or 除去してくれるような
ライブラリとかがあったら教えてください
除去まで行ってくれる場合には16bitカラーの入出力に対応していてくれると嬉しいです
デジカメで同じ被写体を複数枚撮った画像(若干のズレ、傾きが含まれる)を
自動で重ね合わせて処理したいです
よろしくお願いします
198デフォルトの名無しさん:2011/10/25(火) 20:14:13.97
SIFTとかで位置合わせしたりする
199デフォルトの名無しさん:2011/10/25(火) 21:19:48.68
>>196
そのままのライブラリは知らないけど
OpenCVで特徴点マッチングして射影変換すればできる
もっとよくしたいならopencv_stitchingを参考にしたらいい
200デフォルトの名無しさん:2011/10/26(水) 11:42:25.20
16Bitカラーとはマニアックなw
24Bitに変換くらいは自分でやれば良いんちゃう?
201197:2011/10/26(水) 20:47:55.88
レスありがとう

>>198-199
ググってみてSIFTのソースとか見てみましたが何をしているのか全く判らん・・
ImageMagickを使ったことがある程度の自分が手を出すのは無謀な処理なのか・・・il||li ○| ̄|_

>>200
判りにくくてすみません。16bit/colorでRGB合わせて48bitと言う意味です
202デフォルトの名無しさん:2011/10/27(木) 09:19:38.47
1波長が16Bitってもっとマイナーだろwww
203デフォルトの名無しさん:2011/10/27(木) 10:23:33.46
48bitカラーだと、HDMI1.3でも使うのか?
位置検出だったら8bitグレースケールでもそんなに変わらんから、減色して傾き角度や位置ズレを計算して
それを元画像に当てはめるだけで良いかと
204デフォルトの名無しさん:2011/10/29(土) 17:04:04.05
画像から赤色と緑色のヒストグラムを生成し、それぞれの色を抽出するプログラムを作っています。
Opencv関数を使わずにBGR各々のヒストグラムを生成するにはどうすればよいでしょうか?
205デフォルトの名無しさん:2011/10/29(土) 17:24:30.21
画像の各ピクセルにアクセスして数える。
206デフォルトの名無しさん:2011/10/29(土) 17:29:42.46
>>204
自分で画像に画素単位でアクセスして集計すればよろしかろ。
207197:2011/10/29(土) 18:52:00.89
レスありがとうございます

>>202-203
後段の編集に耐性を持たせるためにRGB 48bitで扱いたいです
位置・角度検出は>>203さんの指摘通り8bitの1チャンネルのみで十分だと思います

判らないなりに実験してみました
ttp://fox.jeez.jp/src/Fox_4832.zip.html
dl pass:surf
extract pass:surf_mating
File list
 DSC00212-H_s.png→画像1(Hチャンネル画像)
 DSC00213-H_s.png→画像2(Hチャンネル画像)
 test02.py→find_obj.pyを改造
 DSC00212_s.xls→マッチング結果他
環境 Python2.6 x86+OpenCV2.3.1 x86

考え方が根本的に間違えている可能性もありますが・・・
位置ズレはともかく、傾いている角度の求め方がぴんと来ません
キーポイントのベクトルの角度?が使えるかなと思いましたが、ばらついて使えそうにないです
何か上手い方法があったら教えてください。よろしくお願いします
208デフォルトの名無しさん:2011/10/29(土) 20:26:10.37
>>205-206
ありがとうございます
CvScalar s;
int i,j;
for (i=0; i<r_img->height; i++) {
for (j=0; j<r_img->width; j++) {
s= cvGet2D(img,i,j){
配列にアクセスするにはこれを使うんですよね?
色々考えていましたが、ここから赤色のみ抽出する方法が分かりません…
209デフォルトの名無しさん:2011/10/29(土) 20:42:04.67
IplImageだったらimageDataから直接アクセスできるでしょ
210デフォルトの名無しさん:2011/10/29(土) 21:45:28.75
>>208
画像がBGRなら
s.val[0] // Blue
s.val[1] // Green
s.val[2] // Red
211デフォルトの名無しさん:2011/10/30(日) 03:05:07.96
シュレッダー文書、復元できたら380万円
http://www.yomiuri.co.jp/science/news/20111029-OYT1T00757.htm
212デフォルトの名無しさん:2011/10/30(日) 09:40:02.45
shredded document reconstruction system
ttp://www.unshredder.com/
213デフォルトの名無しさん:2011/10/31(月) 11:13:41.16
>>211
>参加資格は、18歳以上の米国永住の個人かチーム。

組み合わせを考えるだけだからそんなに難しいことじゃないと思うけど、この時点でやる気無くした
214デフォルトの名無しさん:2011/11/01(火) 00:09:03.22
欠損してるし難しいだろ
215デフォルトの名無しさん:2011/11/01(火) 11:27:01.55
どうせ実際にやってみると絶望することになる
216デフォルトの名無しさん:2011/11/01(火) 20:13:55.72
印刷のカスレとか行の歪みとか

OCRだと文字種少ないほうが簡単だけど
この場合は逆に難しくなりそう
217デフォルトの名無しさん:2011/11/01(火) 20:46:52.77
普通の文書で欠損あるとなると
218デフォルトの名無しさん:2011/11/01(火) 20:53:36.93
PRMUのアルゴリズムコンテストのネタになりそうだな
219デフォルトの名無しさん:2011/11/01(火) 21:35:14.72
>>218
PRMU アルゴリズムコンテスト 2007
220デフォルトの名無しさん:2011/11/02(水) 12:29:50.96
jpegファイルの明るさ情報について教えてください。

プログラムでjpegファイルを読み込み、
画像の明るさの指数(指数はかってにつけてます。)を数値値化したいです。

jpegのフォーマット上、どのような判断を行えばよいのでしょうか?
221デフォルトの名無しさん:2011/11/02(水) 12:32:24.99
勝手に付けるんだったら勝手に付ければ?

数値値化って何?
指数なんだけど数値じゃないの?
222デフォルトの名無しさん:2011/11/02(水) 12:35:30.75
>>221
すみません、説明が悪かったです。
例えば、明るさの段階を0-255とします。

次に、読み込んだ画像の明るさのレベルを測定します。
測定の結果、jpegファイルの明るさ指数を0-255のどれかに割り当てたいです。

jpegファイルを読み込み、そのjpegファイルの明るさを判断するには、
jpegフォーマット上、どの辺りを探れば判断できるかな?と聞いた次第です。
223デフォルトの名無しさん:2011/11/02(水) 12:35:52.47
>>220
画像フォーマットに囚われずに、画素値を抽出して数値化すればいいと思うよ。
224デフォルトの名無しさん:2011/11/02(水) 12:54:21.23
jpegフォーマットのどこかに「この画像の明るさ」という属性値があるとでも思ってる?
それともjpeg関係なく、画像の明るさを判定したいわけ?
225デフォルトの名無しさん:2011/11/02(水) 13:11:53.12
例えば、デジカメでRAW撮影したら、
YUV形式とかですよね。

100*100の画像があって、YUV形式ならば、画像の10箇所くらいの輝度を見れば、大体の明るさがわかると思います。
jepgではそのような明るさを見ることはできなくて、
例えば、yuvに変換して見るとかしか方法はないのでしょうか?

私がしたいのは、画像の明るさ判断は、jpegに対してのみです。

ちなみに、jpegは全然しらない素人です。
226デフォルトの名無しさん:2011/11/02(水) 13:43:52.15
Windowsに標準でついてるペイントでも使って、
jpegをbitmapに変換したら解り易いと思うんだ
227デフォルトの名無しさん:2011/11/02(水) 13:47:25.10
>>225
圧縮かかってるのにそのままピクセルを参照出来るわけないよ。
デコード必須。
228デフォルトの名無しさん:2011/11/02(水) 14:14:38.29
せめて画像処理の本の一冊でも読んでからにしてもらいたい
229デフォルトの名無しさん:2011/11/03(木) 16:57:27.99
CAPTCHA()
Text-based CAPTCHA Strengths and Weaknesses
http://elie.im/publication/text-based-Captcha-strengths-and-weaknesses

Decaptcha Breaking 75% of eBay Audio CAPTCHAs
http://elie.im/publication/decaptcha-breaking-75-percents-of-ebay-audio-captchas

ついでにこいつも破ってくれ!
http://yuina.lovesickly.com/wp-content/uploads/2008/11/captcha1.jpg
230デフォルトの名無しさん:2011/11/03(木) 22:19:22.32
>>229
4 * ( sin( 7 * 0 - PI() / 2 ) ) = −0.109648534
ってのは解るが、残りの左半分をどう片付けるべきか解からん。

aが集合でa0が集合の第一要素なんだろうな。
231デフォルトの名無しさん:2011/11/03(木) 22:27:38.75
一体何と戦っているんだ
232デフォルトの名無しさん:2011/11/04(金) 00:27:13.39
>230
偏微分してから0代入なんだけど
233デフォルトの名無しさん:2011/11/04(金) 01:50:19.02
数式処理なんてコンピュータのほうが得意だし
チューリングテストになっていないだろ
234デフォルトの名無しさん:2011/11/04(金) 07:09:50.29
ネタにマジレス
235デフォルトの名無しさん:2011/11/04(金) 11:32:47.77
>>230
0
236デフォルトの名無しさん:2011/11/04(金) 19:38:58.01
d/dx [ 4 sin( 7x - π/2 ) ] | x=0
= 28 cos( 7x - π/2 ) | x=0
= 28 cos( - π/2 )
= 0

間違ってないかな?
237デフォルトの名無しさん:2011/11/04(金) 19:53:53.83
CAPTCHA終了のおしらせ
238デフォルトの名無しさん:2011/11/04(金) 20:19:33.80
d/dx [ 4 sin( 7x - π/2 ) ] | x=0
= 4 d/dx [ - cos( 7x ) ] | x=0
= - 28 sin( 7x ) | x=0
= 0
239デフォルトの名無しさん:2011/11/04(金) 20:30:03.48
数式のネタCAPTCHAを作った人はいろんな意味でセンスある
240デフォルトの名無しさん:2011/11/05(土) 14:24:12.20
>>228
おすすめは?
241デフォルトの名無しさん:2011/11/05(土) 16:44:58.57
新編 画像解析ハンドブック
242デフォルトの名無しさん:2011/11/05(土) 17:01:19.60
相関関数について知ってる方いません?
いろいろな定義があってどれつかっていいかわからず、空間領域と周波数領域っていうのもようわからないです。
243デフォルトの名無しさん:2011/11/05(土) 22:27:33.09
ppmのカラーフォーマットでP3形式(アスキー)と、P6形式(バイナリ)があるけど
これらの変換ってどうすれば良いですか?
244デフォルトの名無しさん:2011/11/05(土) 23:24:14.62
// p3 -> p6
int val; fscanf(fp3, "%d", & val); fputc(val, fp6);
// p6 -> p3
int val = fgetc(fp6); fprintf("%d ", val);
245デフォルトの名無しさん:2011/11/05(土) 23:50:18.59
>>238
この28ってどっから来たん?
4*7でどっからか7が来たんだと思うけど。
246デフォルトの名無しさん:2011/11/06(日) 00:16:36.75
一体何と戦っているんだ
247デフォルトの名無しさん:2011/11/06(日) 03:29:18.31
>245
高校数学やれよ
d/dx[sin(ax + b)] = acos(ax + b)
まぁ、>238はcos()の微分を間違えているんだけどね
248デフォルトの名無しさん:2011/11/06(日) 04:00:37.46
この程度の数学の問題が解けない人間が画像処理のスレにいるはずがない
さては貴様、人間ではないな!
というわけ
249デフォルトの名無しさん:2011/11/06(日) 09:04:35.09
>>246
好きになれない自分とだろ
250デフォルトの名無しさん:2011/11/07(月) 17:58:40.15
>>247
指摘ありがとう
誘導されてきました。

メディアンフィルタを作っているのですが
3要素に限定した場合、ソートするよりも速いアルゴリズムがあれば教えてください。

もしくは、3要素に限定した場合で最も速いソートアルゴリズムがあれば教えてください。
252デフォルトの名無しさん:2011/11/08(火) 09:45:04.05
3要素でソートアルゴリズムなど使わないと思うが

RAMへのアクセスを少なくする方法がいいのか、計算量を少なくする方法がいいのか
そういう話?
253デフォルトの名無しさん:2011/11/08(火) 09:46:09.51
>>251
それのどこが画像と関係するの?
それと、3要素の比較が本当にボトルネック? そういう場合はボトルネックが他にあることが多いと思う。
254デフォルトの名無しさん:2011/11/08(火) 10:25:05.08
>>251
3要素って単純に3画素だよな?
それを比較するのにわざわざソートさせる必要なんてあるのか?

って話
255名無し募集中。。。:2011/11/08(火) 12:16:36.94
3x3の9画素という意味ならソートは必要だよな
256251:2011/11/08(火) 12:26:28.01
>>252, 254
比較回数や計算量が少なくなる方法を知りたいです。
それがソートアルゴリズムでも他の方法でもかまわないです。

>>253 横の3画素でメディアンをかけ、次に縦の3画素でメディアンをかけるというフィルタにしています。
画素を要素と書いてしまったのは、C言語スレで先に質問していたので
画像に限定することなく、単に中央値を求めるアルゴリズムとしたかったからです。
このスレに来るときに書き換えるべきでした。すいません。

最終的にハードウェアに落とすので、関数呼び出しやメモリのボトルネックは考えておらず
最初に書いたとおり、アルゴリズムが知りたいです。
257デフォルトの名無しさん:2011/11/08(火) 12:42:22.96
3画素のうち、最大値を有する画素を1つ選ぶ(比較2回)
選ばれなかった2画素のうち、値の大きい方が中央値(比較1回)

比較計3回ってな方法で、どですか?ヽ(´ー`)ノ
258デフォルトの名無しさん:2011/11/08(火) 13:45:21.48
>>256
よけいなお世話かもしれないけど
いわゆる3×3メディアンフィルタと結果が異なっているのは別にいいの?
259251:2011/11/08(火) 14:49:12.62
>>255 >>258
3x3ではなく横3画素をかけてから縦3画素をかけるもので
3x3と結果が異なっていてもかまいません。

>>257
ありがとうございます。
この方法も実装してみようと思います。
260デフォルトの名無しさん:2011/11/08(火) 15:20:00.22
ttp://www.ipsj.or.jp/10jigyo/fit/fit2002/LI_9.pdf
x86ならSSE2で最大値を一気に処理できるから違った処理のが速かったり
261デフォルトの名無しさん:2011/11/09(水) 00:01:01.39
3要素の中央を見つけるだけならアルゴリズムとか凝った話しにならないような…
ハードに落とすなら、そっちでの最適化を考えた方がよくないか?
262251:2011/11/09(水) 08:28:53.93
3回の比較が最低限度のようです。
ソートも3要素で3回の比較というのは、計算量のオーダーに合った値のようです。

比較がもっと少ない方法や、比較以外の方法がとか
中央値を求めるだけに特化した方法とか、ないようですね。

皆様おつきあいくださいありがとうございました。

>>257の方法を実装しようと思います。
263デフォルトの名無しさん:2011/11/09(水) 12:14:08.69
おまいら小学生か
264193:2011/11/11(金) 09:40:13.88
>196
提示いただいた数式を解読すべく
畳込みと相関は似てるけど違うものとかいうあたりから調べたりして
大変遅くなりましたが ありがとうございました.

で,よしじゃあ実際やってみるか,となったわけですが…

画像fの中からパターン画像gを探すような場合って
当然ながら画像サイズは f>g なわけですが,
それに反して
フーリエ変換して比較する2画像のサイズは同じじゃないとダメ(だと思う).
これってどうすれば??

fと同じサイズになるようにgに余白を(画素値0で?)追加した画像hを作って
fとhで計算すればいいのでしょうか?
でもそうすると,計算される相関の意味が
本来の "f vs g" ではなくて "f vs h" に変わってしまうような…
265デフォルトの名無しさん:2011/11/12(土) 15:59:20.87
>>262
すれ立てるまでもないスレで、似たような話題があった。
そっちは、3頂点のソートだったが。
単に3点ソートという点で言えば、比較回数はそれ以上
上げられないが、要素の交換を最適化するとかいう方法もある。
例えば、要素交換はせず、テーブル参照で要素を入れ替えるとか。

// 入れ替え先の要素番号テーブル d[0] = s[ index[0] ]; とか書いて使う
static const int
Tri::index[][3] =
{
{ 0, 1, 2 },
{ 0, 2, 1 },
{ 2, 0, 1 },
{ 1, 2, 0 },
{ 1, 0, 2 },
{ 2, 1, 0 }
};

// Tri::indexの何番目を参照するか返す
template<class Type> int Tri::SortIndex( Type vertex0, Type vertex1, Type vertex2 )
{
int index = 0;

if( vertex0 > vertex1 ) index = 3;
if( vertex1 < vertex2 ) return index;
if( vertex0 < vertex2 ) return index + 1;

return index + 2;
}
266デフォルトの名無しさん:2011/11/12(土) 16:01:20.35
間違えた

×: d[0] = s[ index[0] ];
○: d[0] = s[ Tri::index[index][0] ];
267デフォルトの名無しさん:2011/11/12(土) 16:30:39.03
ハード化するんでしょ
データはバーストで取り出してるとして
3データなら一撃で結果でるんじゃね
268デフォルトの名無しさん:2011/11/19(土) 16:26:01.28
RAWを現像するとき、メーカー純正ソフトやdcrawでは飽き足らないので
自作している人はいないか?
専用のスレもないみたいだよね。
自作しようとしても、意外と情報がないから分からない。
269デフォルトの名無しさん:2011/11/19(土) 17:07:35.61
デジカメ板に無かったけ?
270名無し募集中。。。:2011/11/19(土) 20:17:04.72
ここは画像加工という意味の画像処理スレじゃないけども
フィルターとか前処理的なものは十分含むと思うから
やりたい事を書けばいいと思うの
271デフォルトの名無しさん:2011/11/19(土) 22:57:33.95
OpenCVにDNGの読み書き機能が入れば、RAW原像をやる人も増えそうだな。
272デフォルトの名無しさん:2011/11/21(月) 15:29:53.08
本来の意味でのRAWデータだと、メーカー毎(下手すりゃ機器毎)にフォーマットが違うからなぁ
下手すると1色8Bitじゃなかったりするし、ヘッダも違うし
273デフォルトの名無しさん:2011/11/21(月) 22:27:16.39
ヘッダがあるとか、どんなRAWデータだよ。
274デフォルトの名無しさん:2011/11/21(月) 22:43:57.94
これも面白そうやね
http://ufraw.sourceforge.net/
275デフォルトの名無しさん:2011/11/21(月) 23:50:33.06
ヘッダがないと、縦横の画素数やビット幅も分からないだろ〜
276デフォルトの名無しさん:2011/11/21(月) 23:52:51.14
DNG Converterというのがフリーで使えて
どんなカメラのRAWもDNGに変換できるからDNGを出発点にするのが良い
277デフォルトの名無しさん:2011/11/22(火) 00:09:18.29
MATLABでDNGのBayer配列データを読み出す方法
ttp://blogs.mathworks.com/steve/2011/03/08/tips-for-reading-a-camera-raw-file-into-matlab/

やっている事はMATLABのTIFFの入出力関数を用いて読み出しているだけ。つまり、CからTIFFライブラリを使えばDNGは読み出せるということ。
278デフォルトの名無しさん:2011/11/22(火) 01:19:23.61
ロジのWebカメラは、Rawモードがあるね。
279デフォルトの名無しさん:2011/11/22(火) 03:30:21.42
>>275
デジカメのRAWモードとやらは知らんが、ファイル名にサイズを埋め込むRAWデータはあるね。
280デフォルトの名無しさん:2011/11/22(火) 10:22:20.30
>>273
画素値だけで画像のサイズもbit数もわかるのは、エスパーか限られた条件で取られたRawデータだけだろ
281デフォルトの名無しさん:2011/11/22(火) 23:36:24.72
DCRAWでRAWをTIFFに変換するのがもっとも楽だろ
dcraw -D -4 -j -t 0 -T
282デフォルトの名無しさん:2011/11/24(木) 09:43:55.63
>>280
世の中には何も書かれていないデータがごろごろしているってことが理解できませんか?
で、仕様書見ると隅っこに小さく書かれているんだw
283デフォルトの名無しさん:2011/11/24(木) 11:52:08.77
>>282
仕様書なんて出来てから送られてくるものですしw
FPGAの仕様が変わりましたー^^v
なんて言って、末尾に追記されることなんてよくあることですしw
284デフォルトの名無しさん:2011/11/26(土) 18:12:22.77
rawつっても、画素値がRGBとかじゃなくてRAW(bayerとか)なのと、
ヘッダなしのデータと、(少なくとも)2種類あるってのをごっちゃにしてる人がいる気がする
285デフォルトの名無しさん:2011/11/26(土) 20:06:43.98
クスクス
286デフォルトの名無しさん:2011/11/27(日) 09:03:07.30
雲と蜘蛛、橋と箸の区別が困難な人たちの集まり
287デフォルトの名無しさん:2011/11/27(日) 10:27:54.26
規格もなにもなくそのメーカー/ベンダーにとって必要な最小限の情報をヘッダにして,あるいはヘッダなしで
画像データをベタ書きしてるから raw なんだが
288デフォルトの名無しさん:2011/11/27(日) 10:41:33.24
RAWをRGBに変換するCソースここに載せてくれ
289デフォルトの名無しさん:2011/11/27(日) 10:56:57.55
クスクス
290デフォルトの名無しさん:2011/11/27(日) 12:29:09.73
>>288
いいから>>287を100回読め
291デフォルトの名無しさん:2011/11/27(日) 13:33:32.09
俺様RAWが多すぎ

RAWは、まだ調理してない生のままという意味で、
センサーハードウェアの出力がそのままなものはRAWであって
そうでなければRAWではない
292デフォルトの名無しさん:2011/11/27(日) 13:37:22.77
ファイルに関するヘッダやメタデータがショボいファイルはDAT、BIN、HEXなど呼び方は多い
293デフォルトの名無しさん:2011/11/27(日) 14:06:47.13
hexはbinaryじゃないだろ。
まぁ、binaryだったとしても驚かないが。
294デフォルトの名無しさん:2011/11/28(月) 01:32:41.72
DOSつながりで3文字ってのは
もう限界だろよ
295デフォルトの名無しさん:2011/11/28(月) 02:55:55.74
DOS繋がりっつーか、FATの制約だよ。
296デフォルトの名無しさん:2011/11/28(月) 22:06:48.42
255階調のグレースケール画像をn階調画像に変換してpgm画像として出力するプログラム kai.c を作成しなさい。
出力画像の階調は、255階調を等間隔に区切って指定するようにしてください(n=2の場合は{0, 255}, n=3の場合は, {0,127,255})。
また,nの値は端末から入力するようにしてください。

という課題が出たのですがわかりません。
ヒントでもなんでもいいので教えてほしいです。
お願いします。
297デフォルトの名無しさん:2011/11/28(月) 22:27:41.01
for(float i = 0; i <= 255; i += 255 / (n - 1))printf("%d ",(int)n);
てきとうだけど、こんなかんじ?
298デフォルトの名無しさん:2011/11/28(月) 22:28:35.12
あ、まちがってる。まあいいや
299デフォルトの名無しさん:2011/11/28(月) 23:12:42.11
int i,n;
scanf("%d",&n);
printf("P2\n#\n%d 1\n255\n",n);
for(i = 0; i < n; i++)printf("%d ",(int)((255.0/(n - 1)) * (float)i));
無駄がありそうだけど、自分のじゃないからいいや。
300デフォルトの名無しさん:2011/11/29(火) 23:01:50.29
学生の課題にヒントは無しやろ
聞くなら友達に
301デフォルトの名無しさん:2011/11/30(水) 00:12:10.23
最近売られているロジクールのウェブカメラを用いて
uvcdynctrlでRAWの取得に成功した人はいますか?
302デフォルトの名無しさん:2011/11/30(水) 11:36:58.59
画像処理って傾向として整数演算と浮動小数点演算のどちらが多い?
303デフォルトの名無しさん:2011/11/30(水) 12:41:44.05
>>302
テスト実装の段階では(解析の理論をそのまま素直に実装したような場合)
浮動小数点演算でやるけれど大抵の場合丁寧に見直すと整数演算で
処理できるし、そのように変換できる場合には整数演算の方が速い場合が
多いので本気実装では整数演算を多用するみたいな感じ。

FFTみたいにあんまり整数演算に置き換える余地がないようなものも
あるけどな。
304デフォルトの名無しさん:2011/11/30(水) 13:38:21.07
どんな画像処理を行うかにもよるけど、人間の目で違いを出す程度なら整数レベルで十分だしな
画像解析とかになると、小数必要だけども
305デフォルトの名無しさん:2011/12/03(土) 15:42:33.36
こんにちは

環境中に、ラインレーザを適当に照射します。
その様子を撮影した画像から、ラインレーザの形状のみを抽出するにはどうしたらよいでしょうか?
ソフト名とプログラムをお聞きできればうれしいです。
ちなみに、PCにはMATLABであればインストールされています。
よろしくおねがいします
306片山博文MZ ◆0lBZNi.Q7evd :2011/12/03(土) 17:01:26.16
>>305
明るいところだけ抜き出せば?
307デフォルトの名無しさん:2011/12/03(土) 19:08:08.95
>>306
それはどのソフトでどのような処理を行えばよいのでしょうか?
ペイントで抜き出せば?ということですか?
308デフォルトの名無しさん:2011/12/03(土) 19:29:12.17
おおう・・・
309デフォルトの名無しさん:2011/12/03(土) 19:49:41.80
ここはプログラム書くヒトの板
何かソフトウェアを探してるなら板違い
310デフォルトの名無しさん:2011/12/04(日) 16:32:32.19
だな
311デフォルトの名無しさん:2011/12/10(土) 00:32:28.75
画像処理でフーリエ変換じゃなくウェーブレットを使うメリットを教えてください!
静止画像にt軸を持つウェーブレットを適用する理由が分からんです・・・
312デフォルトの名無しさん:2011/12/10(土) 01:12:12.66
313デフォルトの名無しさん:2011/12/10(土) 01:18:41.96
なるほど、フーリエだと元画像の位置情報が欠落していたけど
ウェーブレットだと位置情報の欠落が防げるってことでOKっすね?
314デフォルトの名無しさん:2011/12/10(土) 17:37:56.33
>>313
元々モルレーが狙ってたのもそういう方向だな.
モルレーのはガウス窓フーリエだったから少し今言うウェーブレットとは違うけどね.

モルレーなんかのやり方はわりと泥臭い方法だったけど後になって色々
刺激を受けた人が整理してみたら1957ぐらいから研究されていた特異積分作用素
の話とくっついたりして実は数学的にも深い内容を持ってるなんて事になった.
315デフォルトの名無しさん:2011/12/14(水) 07:04:28.60
画像処理を勉強している学生です。
ふと疑問に思ったことなのですが、SIFTでオリエンテーションを2つ持つキーポイントには、オリエンテーションごとに特徴を記述するとあるのですが、これは128次元の特徴量を2つ記述すると言うことでしょうか。
その場合キーポイントが128×2で256次元の特徴量を持つのでしょうか?
316デフォルトの名無しさん:2011/12/14(水) 11:48:19.34
>>315
そんなことしたら他と比較できなくなるから
同じ位置とスケールから2つの特徴量を得るって意味じゃないかな
317デフォルトの名無しさん:2011/12/14(水) 12:04:47.77
>>316
そうそう。128次元の特徴量を2個作るよ。
318片山博文MZ ◆0lBZNi.Q7evd :2011/12/15(木) 11:07:53.10
画像をフーリエ変換すると何かいいことあるのでしょうか?
319デフォルトの名無しさん:2011/12/15(木) 11:27:28.39
>>318
地デジみたことない?
320片山博文MZ ◆0lBZNi.Q7evd :2011/12/15(木) 11:29:42.40
>>319 情報圧縮ですか? ふむふむ。
321デフォルトの名無しさん:2011/12/15(木) 11:35:53.26
mp3圧縮みたいなことができる・・・んだろうな、多分
322デフォルトの名無しさん:2011/12/16(金) 19:26:11.60
イラストと写真を判別するいい方法ないかな?

正規化したHSVヒストグラムのSVだけを見て
その両方が中程度に分布してたら写真と判定してみたんだが
厚塗りとか色彩豊かなイラスト、露光不足だったり間接照明な室内写真とかはそれぞれ誤判定した

Exif付いてるイラストがあるので、それでの判別は無しで
何か他の方法あれば頼む
323デフォルトの名無しさん:2011/12/16(金) 20:27:52.33
イラストを撮影した写真はどうするんだ
324デフォルトの名無しさん:2011/12/16(金) 20:32:02.05
てs
325デフォルトの名無しさん:2011/12/16(金) 20:32:57.41
軽快なマンガミーヤクローン作るのに向いてる言語はなんですか?
326デフォルトの名無しさん:2011/12/16(金) 20:37:41.26
スレ違いだボケクズ氏ね

確かにクローン欲しいよねえ
本当になんとからんものか
余計な機能とかいらないんだよね
327デフォルトの名無しさん:2011/12/16(金) 20:39:45.97
>>322
画像全体でヒストグラム取って、SVそれぞれ独立して見てるだけ?
328デフォルトの名無しさん:2011/12/16(金) 22:01:09.47
>>323
>>322の方法だとそういうのは8割くらいは写真になった

>>327
はい
色々種類ありすぎて、画素そのもので勝負するしか無いかなと思って
329デフォルトの名無しさん:2011/12/16(金) 23:27:46.81
>>328
アニメの場合は、SVの分布が大きくなるの??小さくなるの?
330デフォルトの名無しさん:2011/12/16(金) 23:43:46.61
>>322
イラストを撮影した写真は写真と判定するなら
固定パターンノイズを推定するのは?
331デフォルトの名無しさん:2011/12/17(土) 11:13:54.31
というか説明からイラストを写真にとったものをどっちに扱いたいのかがわからない
332デフォルトの名無しさん:2011/12/17(土) 13:57:40.84
いまんとこ、ちょっとヒューリスティック過ぎて・・・
http://nagamochi.info/src/up95474.jpg

>>329
セル画は撮影してるから写真だろって引っ掛けは無しな
作品や場面によるけど大抵は、輝度が偏るのでVの分布が狭くなる感じ

>>330
なるほど、デジカメの特性を見るのか
メディアンフィルタ掛けた画像との残差を見てみる

>>331
普通の写真ですらまだ全然判別出来てないのに、なんでそこに固執するんだよ
正直それはどっちでもいいよ
でも例えば光沢紙にプリントしたものなら、人間なら光の反射とかから写真だと分かるよね
333デフォルトの名無しさん:2011/12/17(土) 14:26:35.46
>>331
本質から離れたことにやたら固執する奴ってどこにでもいるな
334デフォルトの名無しさん:2011/12/17(土) 15:13:07.51
サンプルワロリン
335デフォルトの名無しさん:2011/12/17(土) 17:44:02.82
周波数分布も判定に使えそうだが、どうだろうか
336デフォルトの名無しさん:2011/12/18(日) 00:44:25.09
オリジナル−メディアンフィルタの差分画像を、写真とアニメで比較してみたが、同じ色の領域で、写真だとノイズが乗ってるのが分かる。アニメだとほぼ差が0。

ただ、輪郭とか輝度変化が激しいところは、写真とアニメ両方で差があって、差の出方に違いがイマイチ見られないかな。
ここからどうやって固定パターンノイズと輪郭などの影響を分離するのかが分からん。
337デフォルトの名無しさん:2011/12/18(日) 01:33:21.43
ブロックノイズ出やすいのもあるし輪郭周辺はマスクしちゃっていいと思う
ただ、輪郭抽出とノイズ推定って紙一重だよな・・・

>>335の言う2次元FFTを実装してみたが
見方が分からないので結果とにらめっこして学習中。日記ですまん
338デフォルトの名無しさん:2011/12/18(日) 01:45:23.55
>>322
1,Googleの画像検索に画像を上げて、キーワードを探す。
2.キーワードをWikipediaで検索。
3.絵画や漫画系に飛んだらイラスト判定
339デフォルトの名無しさん:2011/12/18(日) 02:12:36.38
ワロタw
google が API 作ってくれればいいんだよなあ。
340デフォルトの名無しさん:2011/12/18(日) 11:01:42.83
>>336
オリジナルーメディアンってノイズ検出器であると同時にエッジ検出器でもあるからな
テクスチャに影響されずにノイズを検出しなきゃならん。

コンピュータビジョン最先端ガイド4に固定パターンノイズ推定について記述があったぞ。

1 Non-Localフィルタを使う
2 輝度変化がほぼ平面の部分で比較
3 周波数空間で処理

いろいろ手はあるようだが、どの程度の精度で推定できるのかは不明。
勘では2が実用性高そう。
341デフォルトの名無しさん:2011/12/18(日) 15:11:20.94
HOG, SIFT, SURF, Ferns, etc. の特徴量計算を片っ端から試してみれば?
342デフォルトの名無しさん:2011/12/19(月) 05:46:24.42
>>315 >>316
314です。レスありがとうございます。理解が深まりました。
343デフォルトの名無しさん:2011/12/19(月) 05:48:25.98
>>316 >>317
スレ汚しすみません。安価がずれていました。315でした。
344デフォルトの名無しさん:2011/12/26(月) 17:24:53.33
いえいえ
345デフォルトの名無しさん:2011/12/26(月) 18:11:20.01
靖国神社に放火、神門の一部焼ける

26日未明、東京・千代田区の靖国神社で境内の神門に火がつけられる事件がありました。
事件の前にはインターネット上に犯行予告ともとれる書き込みがあり、警視庁で関連を調べています。

火はすぐに消し止められましたが、神門の扉の一部が焼けました。現場には灯油のようなものがまかれた跡があったほか、
まく際に使われたとみられるコップ2つが残されていたということです。

境内の防犯カメラには黒っぽい服装の男が火をつけているのが映っていたということで、警視庁は男の行方を追っています。

 また、事件前にはインターネットのツイッター上に

「在日コリアンの苦しみを代弁したって、どうせ日本人の心には届かない。だったら靖国神社を放火してやろう」

などと犯行予告ともとれる書き込みがあり、警視庁は関連を調べています。
http://news.tbs.co.jp/newseye/tbs_newseye4912428.html

画像
http://livedoor.blogimg.jp/tokuteishimasuta/imgs/0/a/0ae57015.jpg
346デフォルトの名無しさん:2012/01/04(水) 23:36:11.44
Photoshop辺りでいうレイヤー処理までサポートしているライブラリってありますか。
Gimpは良さそうなんですが、できればライセンスが緩めので・・・。
347デフォルトの名無しさん:2012/01/05(木) 10:39:06.57
レイヤーって単にアルファチャンネルのある複数の画像を持ってて
順番に重ねて表示しているだけじゃねーの
348デフォルトの名無しさん:2012/01/05(木) 11:35:51.17
ラスタレイヤーだけならね。
ベクタレイヤーもあればエフェクトレイヤーもあると思うんだ。
349デフォルトの名無しさん:2012/01/05(木) 15:32:22.10
それはレイヤーに重ねてるものがラスタ画像かベクタ画像かフィルタ操作かって話だろ
350デフォルトの名無しさん:2012/01/05(木) 15:48:06.76
そうだね。順番に重ねて表示しているだけじゃないね。
351デフォルトの名無しさん:2012/01/05(木) 17:13:15.90
順番に重ねて表示してるだけの予感
352デフォルトの名無しさん:2012/01/05(木) 17:55:39.23
どう考えても順番に重ねてるだけだろwww
353デフォルトの名無しさん:2012/01/05(木) 19:52:25.09
レイヤーフォルダやら下のレイヤーとグループ化で
その順番も単純じゃないんだけどな
354デフォルトの名無しさん:2012/01/05(木) 21:23:55.67
その辺までやってくれる画像ライブラリはなさそうだな
355デフォルトの名無しさん:2012/01/05(木) 21:44:02.92
レイヤーフォルダも通過とそれ以外では順番が変わる
356デフォルトの名無しさん:2012/01/05(木) 22:32:30.82
うっせえな。
357デフォルトの名無しさん:2012/01/05(木) 22:41:14.41
うっせえな、順番に重ねてるだけだろwww
358デフォルトの名無しさん:2012/01/05(木) 22:57:08.25
2D+Zデプスマップから立体視用の左右の画を得たいのですが
上手い変換方法が思いつきません
何も考えずにずらしたら隙間が出来ちゃうし・・・
良さそうな方法があったら教えてください
最終的にはリアルタイムで処理したいので速度はそれなりに重視します

よろしくお願いします
359デフォルトの名無しさん:2012/01/06(金) 09:50:35.62
「視差」でググると出てくるかな
http://eiga.com/extra/oguchi/6/

機械がKinectぽいし、この辺りが参考になるかも
http://opencv.jp/opencv2-x-samples/point-cloud-rendering
360デフォルトの名無しさん:2012/01/06(金) 22:26:16.57
Windowsで10bit出力ってどうやるの?
361デフォルトの名無しさん:2012/01/07(土) 09:57:53.71
362デフォルトの名無しさん:2012/01/07(土) 11:25:52.91
>>361
thx
363358:2012/01/10(火) 00:01:06.61
>>359
レスありがとうございます
ディスプレイスメント・マッピングですか・・・Blenderでも使って実験するしかないか

HDMIのL+デプスマップはどうやって変換しているのかな・・・

>OpenCV
そのサンプルは左右の画からデプスマップを得るコードで
逆だと思うのですが・・・
364デフォルトの名無しさん:2012/01/11(水) 10:08:09.27
jpeg画像からDCT係数を直接取り出したりってできるんでしょうか
365デフォルトの名無しさん:2012/01/11(水) 10:42:25.64
>>364
単にjpegのデコードを途中で止めればいいだけだから、そういうコード書けばできるよ
そういうライブラリがあるかって話しなら聞いたことないなぁ・・・
366デフォルトの名無しさん:2012/01/11(水) 21:55:00.04
>>364
計算すりゃいいだろ
367デフォルトの名無しさん:2012/01/11(水) 22:34:50.81
DCT符号?jpegアナライザにその機能あるよ。
自分で調べてバイナリ抜き出してもいい。
368デフォルトの名無しさん:2012/01/11(水) 23:11:59.93
うっせえな。
369デフォルトの名無しさん:2012/01/14(土) 02:02:20.09
何かわからないことでも?
370デフォルトの名無しさん:2012/01/20(金) 00:40:48.02
kernelマシンってパターン認識以外で使われてるみたことない
他に何か応用あっただろうか
371デフォルトの名無しさん:2012/01/20(金) 09:40:59.52
SVMの応用なんて山ほどあるだろ
372デフォルトの名無しさん:2012/01/20(金) 09:41:37.78
カーネルサンダースってケンタッキー以外で使われてるみたことない
他に何か応用あっただろうか
373デフォルトの名無しさん:2012/01/20(金) 11:04:29.22
>>372
くそわろた
374デフォルトの名無しさん:2012/01/20(金) 11:16:51.70
何が面白いんだ
375デフォルトの名無しさん:2012/01/20(金) 12:10:58.55
ケンタッキー州どころか、日本にも進出しているよ。
376デフォルトの名無しさん:2012/01/20(金) 13:48:20.12
>>372
軍事用途に応用できるんじゃないかな
もともと軍人だし
377デフォルトの名無しさん:2012/01/20(金) 14:26:56.52
>>372
道頓堀で発掘されたな
大阪の神に応用されたらしい
378デフォルトの名無しさん:2012/01/20(金) 17:40:18.53
呪物として利用された。
379デフォルトの名無しさん:2012/01/20(金) 18:07:39.54
高速なDFTができたらしい。
http://arxiv.org/pdf/1201.2501v1
380デフォルトの名無しさん:2012/01/20(金) 18:11:02.93
元データに何らかの特性が必要らしい
疎(スパース)だとかなんだとか
381デフォルトの名無しさん:2012/01/20(金) 19:39:49.17
>>380
残念、ありがとう。
382デフォルトの名無しさん:2012/01/20(金) 20:09:04.57
質問です。
ハリスのコーナー検出についてわかりやすく紹介してるところありませんか。
Wikiとか見たんですが、もう少し図とかあるかんじで教えてもらえると嬉しいんですが。
383デフォルトの名無しさん:2012/01/20(金) 22:09:00.18
これの/?cp=以下のハッシュ値みたいなものが何なのか分かりますか?

よさげな画像なのでとりあえず見るだけでもどうぞ
よかったら回答願います^^;

ttp://img.stardust-web.net/pub/imgc/?cp=gzPTeBGsJejFLAbSmZLMqYdCVfbuc4RWT5od31Bn94VDPoQQwdakKwyrAhzfYMngZDce7COS7aKEwwIkBRVfjJsrmso9Ek&path=/user/entry/blog_id_9/1965a6849181d08346fac3849723cc7d.jpg&cplc=0
384デフォルトの名無しさん:2012/01/21(土) 12:10:20.49
画像処理と関係ないからどっかよそに行け
これからは気持ち悪い画像を貼らないように

ちなみにcpは564bit、pathは128bit。後者はMD5くせえな
385デフォルトの名無しさん:2012/01/21(土) 13:17:50.29
2次元離散フーリエ変換したときに、DC成分を真ん中に持ってくるために
第1象限と第3象限、第2象限と第4象限を入れ替えますが、

データ数が奇数のときってどうやって入れ替えるんでしょうか?
386デフォルトの名無しさん:2012/01/21(土) 13:20:54.10
【プログラミング部】 PHPが100倍速で動くようになったぞー
http://awabi.2ch.net/test/read.cgi/poverty/1327050821/
387デフォルトの名無しさん:2012/01/21(土) 14:30:27.22
>>385
データ数が奇数という事は、奇数x奇数だな。寧ろ、判り易いじゃないか。
012
345
678



567
801
234

偶数だとこんな感じ。
0123
4567
89ab
cdef



6789
abcd
ef01
2345
388デフォルトの名無しさん:2012/01/21(土) 14:33:27.52
いけね、それぞれ

867
201
534



ab89
efcd
2301
6745

だったw
389デフォルトの名無しさん:2012/01/21(土) 15:34:31.76
>>388
ありがとございます

5x5ならどうなりますか?

0 1 2 3 4
5 6 7 8 9
a b c d e
f g h i j
k l m n o
390389:2012/01/21(土) 15:37:55.80
i j f g h
n o k l m
3 4 0 1 2
8 9 5 6 7
d e a b c

であってます?
391デフォルトの名無しさん:2012/01/23(月) 14:06:00.84
>>390
いんじゃね?
要は、元のパターンをタイリングしてパターン半分ずらした状態なんだから。
392デフォルトの名無しさん:2012/01/24(火) 14:32:18.63
圧縮した状態でも、座標を指定すればその画素値を取得出来るようなフォーマットってあるのでしょうか?
あるとしたら圧縮率は悪くなのでしょうが。
メモリに出来るだけ溜めこんで、出来るだけ高速に画像処理をするという矛盾したことをやりたいと思っています。

64bitOSにしてメモリ大量に詰むのが一番でしょうが、もしもありましたらお願いします。
393デフォルトの名無しさん:2012/01/24(火) 14:50:22.64
>>392
ないない。
あるとしたら、ってそれはもう非圧縮っていう。
なんかのライブラリ挟んでそういう風に見せることは出来るだろうけど
394デフォルトの名無しさん:2012/01/24(火) 14:55:40.49
私はそんなフォーマットわからない。
けど、もし同じことをしようとしたら画像処理途中のグレイスケールや2値画像でメモリにおいとくかな。

どんな用途なんだろう
複数のハイスピードカメラで学習画像をマッチングさせるのかな
395デフォルトの名無しさん:2012/01/24(火) 15:27:13.69
画像の特性にもよるかなぁ。
画像処理というよりバイナリのメモリ圧縮と探索の話になるが。
396デフォルトの名無しさん:2012/01/24(火) 15:54:10.21
カラーなら色空間変換で茶を濁すとか (当然不可逆
R8G8B8(24bit) → Y8U4V4(16 bit) 等
397デフォルトの名無しさん:2012/01/24(火) 15:58:46.16
>>392
そもそもそれは画像なの?
特徴点抽出した結果とか輪郭線抽出した結果とかなら、別な有効な手段もあるんだけど。
398デフォルトの名無しさん:2012/01/24(火) 17:13:30.56
>>393
ですよねー。

>>394
せいぜい余分なデータを省くくらいですよね。
CoaXPressをフルに使った映像をリアルタイムで各種画像処理しながら動画保存するのですが
画像処理に同一動画の前の画像を利用する処理があるので、全部メモリに溜めこめないかなと。
399デフォルトの名無しさん:2012/01/25(水) 20:36:24.25
>>398
アクセスパターン次第じゃね?
ランダムアクセスじゃなきゃフォーマット設計すればできそう。
400デフォルトの名無しさん:2012/01/26(木) 15:05:55.69
JPEGは8x8で符号化してるから画素単位までとは行かなくても
その周辺を含む領域でなら復号出来るだろ

可逆にしたって、ブロック単位でやればいいだけじゃね
圧縮率は下がるだろうが
401デフォルトの名無しさん:2012/02/01(水) 18:11:39.59
OpenCVなどで日本語文字列を描画するのに
なんかいいライブラリありませんか?
402デフォルトの名無しさん:2012/02/01(水) 18:43:34.61
いくつもある画像変換ソフトって設定でサンプリング?1:1:1みたいのとかJPG圧縮率90%とか合わせても変換後のサイズが全然違うのなんで?
403デフォルトの名無しさん:2012/02/01(水) 18:45:49.05
内部アルゴリズムの違いだろ
404デフォルトの名無しさん:2012/02/02(木) 00:08:35.74
フィルタ処理とか特徴点検出とか諸々の画像処理の基本的なアルゴリズムはわかっているんだけど、
高速動作のための実践的な実装を学ぶのにいい本はない?
405デフォルトの名無しさん:2012/02/02(木) 00:57:50.76
>>404
高速動作する実践的な実装のコードや
数値計算やHPCの本を読めばいいのでは
406デフォルトの名無しさん:2012/02/02(木) 09:31:57.49
>>404
急がば回れ。
一般的な高速化のアルゴリズムやデータ構造(部分計算、DP、木など)や画像処理とは
直接の関係の無い分野のアルゴリズム(文字列処理や人工知能)に詳しくなっていると、
画像処理でもアイデアがいくらでも湧いてくる。

そのうち循環畳み込み演算を膨大な回数繰り返す処理をfft/ifftを使った処理と比較して
3桁高速化するなんてこともできるようになる。
407デフォルトの名無しさん:2012/02/02(木) 13:55:04.41
私も406と同じ意見。
アルゴリズムをもっと勉強してブレイクスルーを考えるのがはやいと思う。
普通の高速化なんて目じゃないほどはやくなるよ。

普通の高速化ならopenMPとかソートアルゴリズムの本なんかがオススメかな。結局計算しなくていいとこをいかに早くみつけるかが肝
408デフォルトの名無しさん:2012/02/02(木) 14:09:36.28
>>404
私偉そうに高速化どうこういってますが、最近SURF特徴点抽出方法覚えたてで高速化に苦戦してます。
2つの画像の128次元ユークリッドベクトルの距離が近いものを探す処理で全部の線を比較するダメダメ処理しかわかりません。

一緒にがんがりましょう
409デフォルトの名無しさん:2012/02/03(金) 21:19:51.55
そんな簡単にブレークスルーできてたらノーベル賞取りまくりやわ。ええ加減にしとけよ
410デフォルトの名無しさん:2012/02/04(土) 01:33:02.72
アルゴリズム自体は固定で実装上の細かい最適化テクニックってことなら
Intelが出してる最適化リファレンス・マニュアルだな。
411デフォルトの名無しさん:2012/02/04(土) 02:22:36.88
SIFTなんてガウシアンの畳み込み何回もやるから凄い重いけど実装の工夫だけで超高速にできるもんなんだろうか
412デフォルトの名無しさん:2012/02/04(土) 04:22:00.26
パワープレイになりますけれども
CUDAで超並列マルチスッドレとか
413デフォルトの名無しさん:2012/02/04(土) 16:41:48.44
マシンパワーに頼った実装ってなんかつまらないな
414デフォルトの名無しさん:2012/02/04(土) 20:06:53.47
マシンパワーを引き出すのも面白いぞ
415デフォルトの名無しさん:2012/02/04(土) 21:37:39.20
だからって16bitCPUで32bit使ったり、32bitCPUで16bit扱うのはマヌケだろう?
グラフィック分野では、CPUやGPUの実装に合わせてゴリゴリ書いて
パフォーマンスを叩き出すのが昔からの慣例。
416デフォルトの名無しさん:2012/02/04(土) 23:00:30.46
最適化ってその時々の中流機で速いことに意味があると思う
ハードを追加することが前提ならいくらでも金かけりゃいいってことになってつまらん
417デフォルトの名無しさん:2012/02/04(土) 23:13:43.23
ハードを追加することでコンスタントに処理速度が上がってく段階になると、
さすがにプログラマとしてはつまらなくなると思う

でも、例えばシングルコアがマルチコアになったとか、
複数のマシンをLANで繋いで負荷を分散できるようになったとか、
GPUが計算に使えるようになったとか、
CPUがCellに変わったとか

そういう劇的な変化時におけるパワープレイは、それはそれで面白い
その環境に最適化する場合の考え方ががらっと変わるからな
パワープレイの方法を間違うと本来の力が全然が出せないし
418デフォルトの名無しさん:2012/02/04(土) 23:16:59.74
>>417
>ハードを追加することでコンスタントに処理速度が上がってく段階になると、
>さすがにプログラマとしてはつまらなくなると思う

処理速度に余裕ができた分、新しいアルゴリズムを追加できるように
なるんだから面白くなるんじゃないの
419デフォルトの名無しさん:2012/02/04(土) 23:46:23.11
>>418
人によって段階をどう捉えるかは違うけど、私は次のような段階を考える

1. 様々なアルゴリズムを考え、実験し、検証する(計算上の仮想実験も含む)
2. ハードが変化し、1のアルゴリズムで実用的になるものも現れる
3. ハードの追加によってコンスタントに処理速度が上がってく

この段階で私がプログラマとして最も面白いと感じるのは 1 の段階

次に面白いのは 2 の段階だが、これはどちらかと言うと、
1 のアルゴリズムが使えるようになったおかげで可能になった
他の処理の実装などが面白い

3 の段階になると、処理速度が上がることが分かっているから、
単なる作業と確認でしかなくなる
確かにこの段階でも 2 の様なことは起きるのだが、
ワクワク感やドキドキ感は無いな
420デフォルトの名無しさん:2012/02/04(土) 23:51:17.93
いや、だから、3の段階に達したらまた別の
アルゴリズムを考える1に戻ればいいじゃん

処理速度に余裕ができたんだから新しいアルゴリズムを追加できるんだよ
421デフォルトの名無しさん:2012/02/05(日) 00:18:39.70
>>420
> いや、だから、3の段階に達したらまた別の
> アルゴリズムを考える1に戻ればいいじゃん

全くその通り

どうも言い方が悪かったみたいだ

あるひとつの方法に関して、その実装が
ハードを追加することでコンスタントに処理速度が上がってく段階になると、
その環境でその方法を使い続けることはプログラマとしてはつまらなくなる
(仕事としては、こちらの方が圧倒的に多いが)
422デフォルトの名無しさん:2012/02/05(日) 00:39:57.52
>>421
いや、違うか
何て言えば良いのかな・・・

目標 --> 達成 --> 目標 --> 達成・・・というプロセスが続いていくわけだが、
ハードを追加することでコンスタントに処理速度が上がってく段階というのは、
その目標を達成するのにハードの追加で事足りてしまう段階だ

>>419 の 1 の段階は目標を達成するための行為であり、そこで複数の方法を考える

その方法は 2 の段階で実用になるものもあるだろうし、そこで新たな課題が出ることもある

しかし、3の段階になると、その方法を使ってあとはマシンパワーを上げていくだけになる
要求に対して足りないパワーを補うだけ
例えばサーバーやコアの数を増やしたり、メモリを増やしたり
この段階では、この方法に関してはもうプログラマ(私)があれこれ模索することもなくなり、
プログラム的にはほとんどメンテだけの状態に入る

何が言いたいのかというと、>>413 はつまらんと言うが、
3 と違って 2 の段階でマシンパワーに頼るのはスゲー面白いだろ、と言うこと

ほとんどスレチだからもう終わる、長々とすまんかった
423デフォルトの名無しさん:2012/02/05(日) 03:54:10.98
既存の画像処理をOpenCLで並列化なんてのはおもしろいぞ。
画像処理はほとんど反復処理だから劇的に高速化する。
424デフォルトの名無しさん:2012/02/05(日) 04:42:11.21
元々が糞プログラムじゃない限り劇的にはならないよ
425デフォルトの名無しさん:2012/02/05(日) 08:10:58.82
無知乙
ハードウェアの性能が何桁違うと思っているんだ
426デフォルトの名無しさん:2012/02/05(日) 09:52:01.29
最近は何桁も違わないよ
427デフォルトの名無しさん:2012/02/05(日) 11:47:31.03
GPUとかFPGA使って高速化したっていう発表は学会でもあるけど、フーン当たり前じゃんって反応だな
既存のアルゴリズムを複数スレッドに分けるだけじゃなくて、マルチコアを前提とした新しいアルゴリズムでないと感動しないな
428デフォルトの名無しさん:2012/02/05(日) 11:50:11.65
フーン。
429デフォルトの名無しさん:2012/02/05(日) 12:00:10.26
>>427
へー
430デフォルトの名無しさん:2012/02/05(日) 12:03:23.32
感動って無知だからできるんだぜ。
431デフォルトの名無しさん:2012/02/05(日) 18:35:00.12
ハードによる高速化はシングルスレッドものと比較して早いって言ってるだけで
マルチスレッドCPUで真面目に記述したものとは大差ないんだよな
それとCPUのシングルとマルチでの比較だけど
マルチだとどうしても制御構造で無駄な処理が大量に入り込むから
シングルでMMXとか使った場合と比較しても大差ないんだよな
CPUのコア数が数十とかにでもならない限りは恩恵は実感出来ないだろうな
432デフォルトの名無しさん:2012/02/05(日) 19:16:35.65
SSE ならまだしも、MMX って古代技術だろ
今の時代 MMX の恩恵が受けられる分野って何がある?
433デフォルトの名無しさん:2012/02/05(日) 19:33:58.25
たぶんSIMD拡張全般を指して言ってる?
434デフォルトの名無しさん:2012/02/05(日) 20:16:11.16
MMXじゃなくてMMXとかって書いてあるだろ
日本語読めない人なのか?
435デフォルトの名無しさん:2012/02/05(日) 20:27:06.92
>>434
だから、その中には MMX も含まれてるんだろ?

シングルでMMX使った場合と比較しても大差ない場合もあるんだろ?
436デフォルトの名無しさん:2012/02/05(日) 20:49:39.87
一番わかり易い例を出せば
シングルスレッドで画像処理をする場合はたいていメモリポインタは加算演算だけで
現在のピクセルデータの場所を計算出来る
しかしマルチスレッドでやろうとするとピクセル毎に乗算でポインタを計算しないと出来ない
アルゴリズム的な総計算回数ではシングルのほうが圧倒的に高速なんだよな
437デフォルトの名無しさん:2012/02/05(日) 21:18:04.03
>>436
画像の一部に処理を施すのなら、どちらにしても
アドレスは (ベースアドレス + x + y * ピッチ) で計算する必要があると思うが

それに、そもそも今時かけ算が足し算の2倍時間がかかるなんてことは無いんだから、
マルチコアの環境ならマルチスレッドにして同時に計算した方が速い場合の方が
圧倒的に多いと思うぞ

輪郭摘出しかり、グレースケール化しかり、ノイズ除去しかり・・・
438デフォルトの名無しさん:2012/02/05(日) 21:37:49.20
>>437
>ベースアドレス + x + y * ピッチ
足し算と掛け算が同じ処理時間だと過程してもこの式を見る限り4倍ですが?
439デフォルトの名無しさん:2012/02/05(日) 21:47:39.87
>>438
おまえの言ってる意味が分からない。コード書いたことないだろ。
440デフォルトの名無しさん:2012/02/05(日) 21:51:09.74
>>439
ほとんどの画像処理は1次元の概念だけで処理出来る
だから1ピクセルにつきポインタ加算を1度すればいいだけ
441デフォルトの名無しさん:2012/02/05(日) 22:16:47.17
>>440
言ってる意味が分からない。おまえ画像処理したことないだろ。
442デフォルトの名無しさん:2012/02/05(日) 22:24:24.94
ノイズリダクションというよくあるフィルターを考えても1ピクセルだけで処理すとかないし。

100歩譲って全ピクセルなめるだけと仮定しても、
2スレッドに分けたときそれぞれのベースアドレスが変わるだけで、
どっちのスレッドでも、ポインタをインクリメントするだけ。

なにが4倍なのか本当に意味が分からない。
443デフォルトの名無しさん:2012/02/05(日) 23:05:33.38
>>442
ノイズリダクションも全8方向の1時限的相対位置を加減算するだけでデータ位置が特定出来る
444デフォルトの名無しさん:2012/02/05(日) 23:14:40.65
もともと掛け算命令のない8ビットCPUの頃からアドレス計算は加減算と論理演算で計算してる。
ベースアドレス + x + y * ピッチなんてのは人間の理解用だ。
そもそもx86のアドレッシングは強力だ。アドレっシングで遅くなるとかほんと意味不明。

はっきりいって画像処理なんていう並列しやすい処理は、
スレッドが二つになれば速度は倍近く早くなる。
445デフォルトの名無しさん:2012/02/05(日) 23:19:37.83
だからこそスレッド数を増やすだけのGPU実装を最適化というのは夢が無いよ
446デフォルトの名無しさん:2012/02/05(日) 23:32:15.18
>>438
お前さ、簡単なグレースケール化でいいから、
シングルスレッドと、マルチコア+マルチスレッドの両方をプログラムしてみて、
処理速度を計測してみなよ
447デフォルトの名無しさん:2012/02/05(日) 23:37:38.86
GPU内部で死ぬほど並列化していて、しかもそれがプログラマブルだというのに
それを使わないほうが夢があるとかどうかしてる。

楽してGPGPUライブラリ使えよ。
448デフォルトの名無しさん:2012/02/05(日) 23:44:02.87
これから画像処理の最適化が盛り上がりそうなのってスマートフォンじゃん
NEONベースの最適化ってどれくらい効果あんの?
449デフォルトの名無しさん:2012/02/05(日) 23:52:59.78
>>446
9600GTでさんざんやったが結局CPUと変わらないという結論に達した
CPUでのマルチスレッド化もやってみたが
区画を複数に分割してもそれぞれの境界をうまく相互作用させないといけない
単純にシングルでやるみたいな加算でループ一発とは行かないんだよ
だから2コアでやってみたが結果は変わらない
4個なら多少は早いかもしれないが多少だろうな
450デフォルトの名無しさん:2012/02/06(月) 00:00:24.29
>>449
CPUでのマルチスレッド化をやっても上手く行かなかった原因が
> 区画を複数に分割してもそれぞれの境界をうまく相互作用させないといけない
であり、また >>436 だと結論づけたのか

分析力が欠乏していると言わざるをえない、仕事仲間じゃなくて本当に良かった

では、他の人たちが画像処理のマルチスレッド化で成功しているのを見て、お前はどう思う?
魔法でも使ってると思ってるのか?
451デフォルトの名無しさん:2012/02/06(月) 00:03:29.85
>>431
まずSIMDとマルチスレッドは同時に使えるわけだが

GPUはメモリの転送でかなりのオーバーヘッドがあるから
グレースケールのような単純処理だとほとんど変わらないけ
大きいガウシアンフィルタのような転送するデータ量に対して計算が多い処理ならかなり速くなるぞ

452デフォルトの名無しさん:2012/02/06(月) 00:05:17.93
>>450
何も成功してる例なんてないって
だからSIMDを使ったシングルが一番効率がいい
速度と作りやすさのバランスでね
早くなったと言ってるのは最適化されてないプログラムと比較して言ってるか
CPUはスペック低くしてハードだけ高スペックにしてるとかそんなもん
詐欺だよ詐欺
453デフォルトの名無しさん:2012/02/06(月) 00:06:03.66
>>451
だからマルチスレッドのアルゴリズムが高コストになるから意味ないってw
454デフォルトの名無しさん:2012/02/06(月) 00:36:35.56
>>452
例えば Adobe Lightroom がマルチコア環境で処理が速くなるのは、
シングルコア環境時は拙いコードが走っていたり、
CPUはスペック低くしてハードだけ高スペックにしてる環境での比較だからなのか?
455デフォルトの名無しさん:2012/02/06(月) 00:52:22.64
>>449
ありえね〜www

100%おまえのバグだろw
456デフォルトの名無しさん:2012/02/06(月) 01:04:47.31
アセンブラの知識が不足しまくってんだろうな。
どういう処理にコストがかかるとか全然分かってないのだろう。

境界をうまく相互作用と言ってる時点で設計が間違ってる。
無駄な分岐判定でストールしまくってるコード書いてるんだろ?
457デフォルトの名無しさん:2012/02/06(月) 01:11:57.79
この流れだとGPU凄いよ派と大したことない派で簡単なコード公表するしか決着つかないんじゃね?
2値化くらいの簡単な処理なら表にできないもんかね
458デフォルトの名無しさん:2012/02/06(月) 01:17:06.29
>>454
使ったことがないから知らないが早くなるのか?
明らかに見ただけで分かるくらい劇的か?
単に画像処理とは無関係なUI関係が早くなってるだけじゃなく?


>>456
だいたいグレースケールみたいに単純な処理はむしろマイノリティだろう
例えばラベリング処理とかどうする?
459デフォルトの名無しさん:2012/02/06(月) 01:30:40.18
>>457
そのくらい単純だとメモリアクセスやディスクIOが律速になりそう
460デフォルトの名無しさん:2012/02/06(月) 01:30:51.41
>>457
簡単すぎる処理だと、たんなるメモリ速度のベンチマークになるだけ。
それなりに複雑な処理やらせないと駄目。
461デフォルトの名無しさん:2012/02/06(月) 01:41:23.67
複雑な処理になるとピクセル情報を判定タスクという単位にしてスタックにためていって
各スレッドはスタックから順次取り出して判定処理をしてタスクを追加するという作業を繰り返すことになる
スタックの排他制御での時間ロスが発生する
メモリも膨大に食うし
遅い
462デフォルトの名無しさん:2012/02/06(月) 01:45:00.77
なぜ排他制御がいる?
マルチスレッドでは同期コストが一番高いというのに。

基本を無視して設計し杉。
同期が頻発するところは分けてはいけない。鉄則です。
463デフォルトの名無しさん:2012/02/06(月) 01:47:33.21
スタックを複数スレッドで共有とか狂気w
464デフォルトの名無しさん:2012/02/06(月) 01:47:50.08
>>462
>同期が頻発するところは分けてはいけない。鉄則です。
そんなこといったら画像処理のほとんどは並列化出来ないってことだから
言ってる通り、マルチスレッドの恩恵はない
465デフォルトの名無しさん:2012/02/06(月) 01:50:15.89
意味不明。全くの逆で画像処理のほとんどは並列化可能。

そもそもGPUはバケモノじみた並列化をした実装になってる。これをどう説明するのか。
いくらなんでも素人過ぎる。
466デフォルトの名無しさん:2012/02/06(月) 01:55:41.29
そんな事よりマンガミーヤのリニューアル版作れる人が居ない事のほうが問題
467デフォルトの名無しさん:2012/02/06(月) 02:10:11.56
高速化出来るのはもともと高速な分野だけ
468デフォルトの名無しさん:2012/02/06(月) 02:25:04.14
カメラ画像解析プログラムを良くかくけど、並列計算してくれるライブラリー(IPPとかIPL,MP)に処理を投げるとかなり速くなるよ。
ただ主にはやくなるのは画像取得や画面描写のところだね
二値化→オープニング→ラベリング
とか処理結果を引き継いで処理していくのはなかなか並列計算しにくいかな
469デフォルトの名無しさん:2012/02/06(月) 07:23:18.71
>>458
全く違う、目に見えて速くなる

それはそうと

> 単に画像処理とは無関係なUI関係が早くなってるだけじゃなく?

こう思った理由が気になる
マルチコア+マルチスレッドで速くなるという話で、
なんで画像処理とは無関係なUI関係が速くなると思ったのだ?
お前はマルチスレッドでUI関係が速くなるライブラリでも自作してたのか?

今時UI関係が速くなるという状況がよく分からんのだが
そもそも、お前の言う「UI関係」って何だ?
470デフォルトの名無しさん:2012/02/06(月) 09:02:03.08
>>463
461が1ピクセルごとにタスク切って同期化してるならアホとしか言えんが
Producer-Consumerでキューなりスタックなりがいるのは当たり前だろ
471デフォルトの名無しさん:2012/02/06(月) 12:20:37.71
GPUのレンダリングパイプイランの実装がどうなってるか理解してるか?
同期というのは、同時にアクセスする可能性がある設計になってるから必要なんだよ。
もしそういう設計ならその設計は既に間違ってんだよ。

Producer-Consumerとか言ってる時点で設計が間違ってる。
画像処理で採用するパターンではない。
472デフォルトの名無しさん:2012/02/06(月) 13:10:38.39
>>470はスレッドプールみたいなモノの事を言いたかったんじゃないの?
473デフォルトの名無しさん:2012/02/06(月) 13:11:48.78
ていうのは嘘で、タスクキューみたいなやつ。
474デフォルトの名無しさん:2012/02/06(月) 13:13:09.51
というわけでさようなら!
475デフォルトの名無しさん:2012/02/06(月) 19:06:06.63
同期するようなのは並列化出来ないってのが本来の主張であって
なぜなら画像処理の大部分は同期処理が必須という前提があるからね

「同期を伴うものを並列化するのは設計の時点で間違い」という主張は意味不明なんだけど

476デフォルトの名無しさん:2012/02/06(月) 19:09:32.98
なにを言ってる意味が分からない。
477デフォルトの名無しさん:2012/02/06(月) 19:19:34.09
>>475
同期処理が必須の画像処理と、並列化できる画像処理
10個くらいそれぞれ箇条書きで書いてみなよ
(10個も思いつかんかも知れんが)

認識が間違ってたらみんなで指摘し合えば良い
478デフォルトの名無しさん:2012/02/06(月) 20:06:10.38
>>477
高速化出来るのは単純な微積分問題だけ
つまりぼかしやグレースケールやらといったフィルタ系の
CPUでも十分実用レベルだろってものだけ

同期が必要になるのは
オブジェクト検出、ラベリング、パターンマッチなど
一番高速化したいものたち
479デフォルトの名無しさん:2012/02/06(月) 21:41:08.71
どうも、処理全体を一つの大きな塊と考え、
それを等分しようとしてできないと言っているような感じがする
480デフォルトの名無しさん:2012/02/06(月) 22:15:02.97
>>478
君が同期が必要だと思っているその3つは全て並列処理することで高速化可能
それぞれ一例を挙げると・・・

オブジェクト検出は検出したいオブジェクトのサイズがだいたい分かっていれば、
画像を分割して、それぞれでオブジェクト検出を並列にできる
検出したいオブジェクトが分割の境界にまたがる恐れがあるのなら、
単に分割するのではなく、オブジェクトのサイズを考慮してオーバーラップさせればいい
(この方法はオブジェクトに対して画像サイズが小さいと効果が無いが)

ラベリングは行毎に横方向にスキャンし上の行との関連を調べながら行うのなら、
画像を何行かずつに分けてそれぞれ並列にラベリングし、
最後に境界線の上下の繋がりを調べれば良い

パターンマッチも、ある程度絞った候補を最後に総当たりして、
それぞれとのマッチング度合いを測るところで並列処理できる
ランダムな数値が並んでいる1次元配列に特定の数値が入ってるかを調べる処理が
マルチスレッドで高速処理できるのと「概念的には」同じだ
この部分を並列化することで高速化できるから、
その前のある程度絞る部分も検査基準を下げて高速化の恩恵が受けられる
481デフォルトの名無しさん:2012/02/06(月) 23:46:15.31
GPU意味ない派がシングルコアAVXでGPU並の速度出せば納得するけどね
ラベリングでもテンプレートマッチングでも何でもいいけど
482デフォルトの名無しさん:2012/02/07(火) 00:02:57.93
並列処理もまともに設計できない馬鹿素人を相手にするのはもう止めときましょう。

建設的ではない。
483デフォルトの名無しさん:2012/02/07(火) 00:55:53.73
>>480
条件が限られすぎ
一部分だけ並列化したって労力の割に効果はほとんどない

>>481
GPUが早いかどうやって話はしてない
無駄なプログラムを書く労力を使ってまでして得るような速度ではないという話

>>482
まともに設計しないといけない時点で思想自体が馬鹿なんだと気がつこう
484デフォルトの名無しさん:2012/02/07(火) 01:32:59.67
オーダー減らないと意味ない派の研究者と20%も高速化すれば御の字の技術者が争ってたりしないか?
485デフォルトの名無しさん:2012/02/07(火) 07:23:06.33
>>483
> 条件が限られすぎ

オブジェクトのサイズがだいたい分かっていればの部分か?
普通は何のオブジェクトを抽出するか設計する段階で、
画像のサイズに対するオブジェクトのサイズの割合は
だいたい適正値の範囲を決めておくものだが、君は決めないのか?
定点カメラで車の交通量を測る場合然り、
デジカメで被写体の顔を認識する場合然り

> 一部分だけ並列化したって労力の割に効果はほとんどない

その一部は全体のボトルネックになっている部分だったりする

君は当然「>>480 と同じ方法」で実験してみて、
でもそれほど処理速度が出なかったんだよね
分析した結果どこがボトルネックになってたと結論づけた?
486デフォルトの名無しさん:2012/02/08(水) 05:57:38.34
馬鹿は黙ってろ
487デフォルトの名無しさん:2012/02/08(水) 08:51:43.04
具体的な移動体検出 背景差分なんかで並列処理する方法を知りたい。
私はオーダー計算減らさないとあんまり効果ないんじゃね?派
488デフォルトの名無しさん:2012/02/08(水) 09:17:38.77
>>487
フレーム間のピクセルの差をとるループやその累積を更新するループを並列化するだけだ。
オーダー減らなくても4倍、8倍、300倍速くなれば、
他のもっと複雑な計算もできるようになって
時間的な制約でできなかった高精度な方法も使えるようになってきたり
数日かかってたような処理が数時間でできるようになってうれしいだろ。
実用に使ってないやつは時間的制約なんてのが無いから分からないだろうが。
489デフォルトの名無しさん:2012/02/08(水) 15:50:38.82
>>487
初心者なのになんで〜派とか言ってんの?
490デフォルトの名無しさん:2012/02/08(水) 17:34:29.60
>>489
初心者も細分化されてんだよ
491デフォルトの名無しさん:2012/02/08(水) 17:40:09.72
単に「自分は馬鹿だから並列処理ができない派」ってことだろ。
492デフォルトの名無しさん:2012/02/08(水) 19:21:22.06
そもそも並列化によってオーダーが減る事はあり得ない

にも関わらず並列化の研究が盛んで、かつ有益な結果が出続けてるのは、
>>488 の言うように同じオーダーでも係数の違いに意味がある処理もあるからだ
493デフォルトの名無しさん:2012/02/09(木) 05:57:44.86
確かに、アルゴリズムの工夫で計算量のオーダーが2次元から1次元になったとしても
計算速度が100倍、1000倍になるとは限らないからな

並列化で処理速度が100倍、1000倍になるほうが嬉しいことのほうが多いんじゃないか?

494デフォルトの名無しさん:2012/02/09(木) 08:17:35.72
専用ハード使って100倍ならスーパーコンピューターで1兆倍でもやればって話なわけで
現状のマルチコアCPUもGPUも10倍すらいかないよ
495デフォルトの名無しさん:2012/02/09(木) 12:38:45.86
数倍になれば大成功だと思うが

5日かかってた解析が1日で終わる
5日かかってたレンダリングが1日で終わる
5日かかってた・・・
496デフォルトの名無しさん:2012/02/09(木) 13:14:57.71
今時マルチコアが普通なんだし、並列化しないと1個しか使われなくてもったいないよ。
HD動画をリアルタイムに処理するとかだとぜんぜん違う。
497デフォルトの名無しさん:2012/02/09(木) 14:36:18.82
ちょっと関係ないが、映画のVFXは、一フレームの処理が
1時間程度以下が要求されるそうな。
フレームひたすら多いからね。
まああの世界はふつうのマルチコアPCでやってるとは思えんが。
498デフォルトの名無しさん:2012/02/09(木) 16:22:21.65
画像処理というか数値計算みたいなものだけだと
ほとんどはコア数に線形に速くできるだろ。
最近は4コアか8コアだから4倍か8倍くらいにはできるものが多いのに
それをやっていないと、いくらいいアルゴリズムを使っていても
大損していると思うわ。

GPUはフィルタ処理なら数百倍は速くなるぞ。
複雑な処理は異常に書きにくい上にあまり速くできないが。
499デフォルトの名無しさん:2012/02/10(金) 12:43:32.45
GPU使ったり並列処理使ったり
linuxでもwinでもMacでもポータブルに実装する方法ってないですか?
Boost.threadは並列処理のポータブルなラッパー?
GPUでも同じ感じのあるといいのだけど
500デフォルトの名無しさん:2012/02/10(金) 13:04:52.64
OpenCLとか
501デフォルトの名無しさん:2012/02/10(金) 15:23:26.79
Javaの失敗を見て分かるとおり、そんなの不可能。
プログラマなら常識のはずだけど。

Write once, debug everywhere!!が鉄則。
502デフォルトの名無しさん:2012/02/10(金) 15:42:59.72
write once, debug you
503デフォルトの名無しさん:2012/02/11(土) 01:12:51.51
OpenCVのGPU使う方法ってポータブルなんだろうか
504デフォルトの名無しさん:2012/02/11(土) 13:38:10.70
>>503
CUDA Toolkit が使える環境なら、ポータブルかと。
http://opencv.willowgarage.com/wiki/OpenCV_GPU
http://opencv.willowgarage.com/wiki/OpenCV%20GPU%20FAQ
OpenCL はサポートしてない。DirectComputing もたぶんサポートしていない。
505デフォルトの名無しさん:2012/02/11(土) 17:16:38.72
昔見限ったImageMagickを入れてみたが相変わらずXCFも作れないのな
PSD期待したがopacityなんかすぐ実装出来るだろうに
506デフォルトの名無しさん:2012/02/11(土) 19:53:21.65
一度見限ったらもうそいつには期待しない
二度とチャンスは与えない
そうやって生きていきましょう
507デフォルトの名無しさん:2012/02/11(土) 20:32:18.66
XCFもPSDもライセンス絡みの問題があるだけだろ
508デフォルトの名無しさん:2012/02/11(土) 21:26:25.18
libpngで例外落ちする画像があって、Gimpでは読み込めるから問題ないんだろうけど
読み込む度に落ちるタイミングが違う
そこでpng_read_endをする直前にSleep(5000)といれてみたら
落ちずに待機して止まってる様子で5秒たつと例外が発生する
そしてこのSleepの直前にprintf("end\n")と入れてみたら5秒もせずに例外落ちする
なにこれ
509デフォルトの名無しさん:2012/02/11(土) 21:35:09.56
libpng のソースを落として問題の画像でデバッグしてみれば、
「なにこれ」の疑問が解消されるかも知れない
510508:2012/02/12(日) 01:35:05.59
最新版ダウンロードしてやったら出来た
511デフォルトの名無しさん:2012/02/13(月) 06:40:52.44
ポータブルでいうならOpenCLだろう
AMDとnVidia両方のGPUでいけるし、CPUもいける
512デフォルトの名無しさん:2012/02/13(月) 06:44:40.49
しかし、これからのお薦めはなんと言ってもDirectComputeだろうな。
513508:2012/02/13(月) 06:51:50.42
プログラム側が対応するというよりはハード側が現行のプログラムを並列処理するようになる流れだと思う
その流れでしか普及しない
514デフォルトの名無しさん:2012/02/13(月) 07:14:26.83
DirectComputeって、HLSLを使わなきゃいけないし
Macで使えないからないな
515デフォルトの名無しさん:2012/02/13(月) 09:10:00.21
Macで使えないってどんだけメリットなんだよ。最強じゃん。
516デフォルトの名無しさん:2012/02/13(月) 10:48:49.63
いまのMacはソースコードからコンパできるでしょ
がまんなさい
517デフォルトの名無しさん:2012/02/13(月) 10:52:48.98
今時はコンパって言うのかw
518デフォルトの名無しさん:2012/02/13(月) 10:57:34.38
コンパwwww

勉強させてもらったわ
519デフォルトの名無しさん:2012/02/13(月) 11:39:19.78
結局、画像処理を並列化するには何使うのがいいんだ?
520デフォルトの名無しさん:2012/02/13(月) 12:01:32.06
画像処理にも色々あるでしょ
得て増えてガール
521デフォルトの名無しさん:2012/02/13(月) 12:13:01.79
とりあえずはFPGA並べて試作だな
522デフォルトの名無しさん:2012/02/13(月) 13:50:26.65
前の会社の時はFPGAで処理させて、
ってことをたくらんでたけど結局やらなかったなぁ…。
ハードの知識ないし、詳しい人たちはひたすら忙しかったし…。
523デフォルトの名無しさん:2012/02/13(月) 17:23:47.52
その手の謎の挙動はメモリ関係だな。
524デフォルトの名無しさん:2012/02/13(月) 17:24:06.03
うわ誤爆
525デフォルトの名無しさん:2012/02/13(月) 22:52:46.37
>>515
Macで使えない=他の大抵のOSで使えない
だから、やっぱ採用しにくいわな。
526デフォルトの名無しさん:2012/02/13(月) 22:58:06.27
DirectComputeがそれに当てはまるわけだが。
しかし、OSの採用比率で言うと、圧倒的な割合なわけだ。

それを採用しにくいとかマカーのステマだろうな。
527デフォルトの名無しさん:2012/02/13(月) 23:01:54.67
最近はスマホの影響でOpenGLとかもそれなりに流行ってるし、
Windowsだけやるのはお気楽だけど、あちこちでコードを使いまわす事考えたら、
ちょっと考えちゃう。
528デフォルトの名無しさん:2012/02/16(木) 00:59:58.59
OpenCLが一番汎用性高そうだね
OpenCVはCUDAぽいけど
529508:2012/02/16(木) 01:15:21.62
OpenCLがマルチコアCPUでも動くなら普及するんだがな
530デフォルトの名無しさん:2012/02/16(木) 05:32:17.83
OpenMPとCUDAの複合
531デフォルトの名無しさん:2012/02/16(木) 07:46:03.36
OpenCLはCUDAほどパフォーマンスが出ないから
せっかくそこまでやるならCUDAってことになるのでは
532デフォルトの名無しさん:2012/02/17(金) 16:40:08.99
>>529
OpnCLはマルチコアCPUでも動く。しかもIntelでもAMDでもおk
533デフォルトの名無しさん:2012/02/28(火) 17:39:06.95
>>392
dag_vector: ランダムアクセス可能な圧縮配列
tp://research.preferred.jp/2011/06/dag_vector/

こんなのあるのね
534デフォルトの名無しさん:2012/03/03(土) 23:32:10.37
DTAMの論文読んだけど、なんだかよくわからん。
読んだ人いますか?

KinectFusionは分かった気にはなった。
535デフォルトの名無しさん:2012/03/04(日) 00:48:25.40
>>534
読んだには読んだけど、解説出来るかは箇所による
536デフォルトの名無しさん:2012/03/04(日) 01:49:08.58
ああいうのは論文通りに安定して動かないことがほとんどだから微妙だね
PTAMもすげー不安定だったし
画像処理について勉強中のものです。
質問があるのですが、
Harris-affine領域を抽出するのに
R=detM-k(traceM)^2=λ_1λ_2-k(λ_1+λ_2)^2
を求めてRの値が大きければコーナーと判定するのはいいのですが、そのあとの
求められた点に対して、周囲の画素の輝度勾配を計算し、注目画素を中心とす
る楕円領域を求める。
この箇所がよくわかりません。
具体的にどのようにして楕円領域を求めるのでしょうか?
538508:2012/04/01(日) 09:48:18.11
Harris-affineって初めて聞いたし画像処理も素人だが
英語のwiki見て適当に答えるなら
楕円領域ってのは繰り返しパターン検出法だろ
ある点に注目した時の周囲の特徴点で算出された計算値が
隣接する点を中心にした場合と同じである場合は同じパターンの繰り返しということになって
その中間地点が境界領域ということになる
それをXYの両方向で特定すると楕円形になる
>>538
ぜんぜん違う

>>537
とりあえず藤吉先生のSIFT解説文献読め
>>539
アフィン変換不変の詳しい解説はないだろ
>>539
藤吉先生の"一般物体認識のための局所特徴量(SIFTとHOG)"というのを読んでみましたが、
Harris-affine領域の記述はなかったのですが・・・
主曲率のところで固有値が出てくる似たような式がでてきましたが、
楕円領域の求め方はわからなかったです。
固有値の根の逆比が楕円領域の2軸でしょ
そもそもハリスとかDoGの特徴点検出がどうやってるかわかってんの?
ハリスは
(Ix)^2 IxIy
[ ] Ix,Iyはx,y方向の1階微分
IyIx (Iy)^2
それぞれをガウス平滑化したものをMとすると
R=detM-k(traceM)^2=λ_1λ_2-k(λ_1+λ_2)^2
で求める

DoGは
異なるσ(kσ,k^2σ,...)の平滑化画像の差分をとった元をDoG画像とし、
DoG画像3枚1組で注目点のまわり26近傍をみて極値であれば特徴点候補とする(ダウンサンプリングし繰り返すのは省略)

こんな感じだと思うのですが、DOGは実装したことがあるのですが、
ハリスはしたことがないので固有値がどのような値をとるのかがよくわかりません。

固有値の根のといのはルートのことでしょうか?
たとえば固有値がλ1、λ2(λ1>λ2)とすると
長軸が1/√λ2、短軸が1/√λ1
となるということでしょうか?
また楕円の傾きはどのように求めるのでしょうか?
固有値に対応する固有ベクトルが軸の方向
固有値と楕円の関係は主軸変換とかでググれば分かると思う

ところで横からだけど
これって勾配を計算する範囲がアフィン変換に不変ではないと思うけど
楕円領域のほうが大きいから問題になりにくいということ?
楕円領域を実際にアフィン変換して円に正規化するんだよ
そんで勾配と特徴量計算する
547543:2012/04/06(金) 22:57:17.57
ありがとうございました!
548508:2012/04/06(金) 23:30:15.39
一番正確な領域分割アルゴリズムって何?
>>546
楕円用の固有値と固有ベクトルを求めるための行列を計算する範囲のことだよ
楕円領域を計算する前だからその範囲はアフィン変換に強いわけではないでしょうと
そういうことか。確かにそれはかなり影響ある。
実際Harris-Affineの検出力は他と比べてかなり低いよ。
551デフォルトの名無しさん:2012/04/12(木) 21:25:52.13
画像関連、全くの初心者なのですが質問させてください。
たまにテレビで、背景(壁)が真っ赤や真っ青にしてある画像処理用のスタジオが写ってますが、
あれで映像の背景部分と人間部分をデジタル的に分けてるんでしょうか?
その様な技術を一般的になんていうんですが?

似たようなことをして物体の形状をカメラで調べられるのを作りたいと思ってます。
最終的には背景(壁)の適した表面処理等も調べてみたいです。

先輩方、よろしくお願いいたします。m(_ _)m
552デフォルトの名無しさん:2012/04/12(木) 21:58:40.27
クロマキー
553デフォルトの名無しさん:2012/04/12(木) 22:51:32.55
>>552
ありがとうございます。m(_ _)m
「クロマキー」というんですね。色々と調べてみます。
小学生の時に聞き覚えがあります。それはクロマティか。

背景にはクロマティ用の「布」を使うようですね。
私の場合、工場の生産ラインで長期間使いたいので、「布」は保守性に難かな。
クロマティ用の塗料が販売してるみたいなので問い合わせてみます。

あと被写体の色が様々で、青い背景だと、青い被写体を識別するのは難しいですよね。
背景に設置する板を、対象物に応じて取り換えるしかないのかな。
複数の異なる色のLEDで、対象物に応じて手動で発光する色を切り替えることも考えられますが、コストの面で難が出るだろうな。
何か良い方法思い浮かぶ方がいましたら、何でも書いてくれると嬉しいです。m(_ _)m
554デフォルトの名無しさん:2012/04/12(木) 23:17:06.65
背景だけを撮った映像(A)と人物+背景を撮った映像(B)を作り、
BからAを減算して人物や屋台だけを抽出して、別の背景と合成する
というのを高校の文化祭でやった

3階の教室から模擬店で賑わっている庭をビデオカメラで撮って、
人物と屋台を宇宙空間や水中の映像と合成した
映像Aは前日に同じ場所から同じ角度で撮っておいた静止画一枚だけ

所詮は高校生がやることなんでとても拙く、
壁や地面に落ちた影もいっしょに抽出されてしまってたし、
切り抜き自体も綺麗にはいかなかったが、それはそれで面白かった
555デフォルトの名無しさん:2012/04/12(木) 23:25:42.99
>>554
なるほど楽しそうですね。
クロマティを教えてもらった私ですが、その方法も考えてみます。
それでうまくいけば、背景に特別なものを用意する必要がないですね。
背景で、機械が動いていたり、人が横切ったり、人の影が変わったりと色々難が出そうですが、それも試してみます。
556デフォルトの名無しさん:2012/04/12(木) 23:52:00.48
LEDのパネルがクロマキーに優れてると思うよ。と書こうとしたら既に検討してたか。
光の屈折やレンズ内の反射で物体が小さく映ると思うから1画素程度膨張させるのいいね。
あと、エッジを見るようにすると色は気にしなくてもなんとかなる
557デフォルトの名無しさん:2012/04/13(金) 08:03:35.38
>>556
おはようございます。
ありがとうございます。LEDパネルを購入してみます。
実験レベルでは、安価な白色のLEDパネルに、フィルム?を貼ればいいでしょうか。
なるほど、強い光がしみだしてくるんですね。確認してみます。

>あと、エッジを見るようにすると色は気にしなくてもなんとかなる

これは、色判定と同時に、エッジ検出も同時うということでしょうか。
558デフォルトの名無しさん:2012/04/13(金) 15:50:50.49
HALCONのスレが無いので、本スレで質問致します。
sobel_amp(), edges_image()等で抽出したエッジから領域を
生成する方法で悩んでます。
sobel_amp(), edges_image()で得たエッジのみ白く
その他は真っ黒な画像をthreshold(),hysteresis_threshold()しても
エッジで囲まれた面を抽出できません。

大変、恐縮ですが何か、コツなどを教えて頂けないでしょうか。
宜しく御願い致します。
559デフォルトの名無しさん:2012/04/14(土) 19:42:10.43
>>558
サポートに聞けよw
560デフォルトの名無しさん:2012/04/14(土) 22:56:19.17
>>557
エッジというのは554の言ってることをやる手段のことね。

背景画像と今の画像を引き算して移動物体を見つける。この引き算の仕方にも流行りがあって最近はエッジ画像でやるのが流行りなんだよ。

背景画像を使う事が廃れてきてはいるけどね。
561デフォルトの名無しさん:2012/04/15(日) 18:15:56.51
面白いと思ってわざと間違えを引っ張ってるんだろうが
つまんねえからそのクロマティっての
死ね
562デフォルトの名無しさん:2012/04/15(日) 18:45:34.11
些末なところに突っ込むなよ
どうでも良いだろ
563デフォルトの名無しさん:2012/04/15(日) 22:10:37.36
×間違え
○間違い
564デフォルトの名無しさん:2012/04/17(火) 15:01:39.18
ハイ残念賞
国語の勉強からやり直しな
565デフォルトの名無しさん:2012/04/20(金) 01:02:14.89
>>560
その方法なら背景に特別な物を用意する必要がなくていいですね。
でも背景と被写体が同じ明るさ(カラーの場合色も)だと、誤検出(非検出)しそうですね。

現在、LEDパネルやカメラモジュール、アルミ板金治具とか色々調達して実験してるけど、
今のところ背景を「黒」にするのが有力です。
背景を「白」にすると、被写体での照明光反射と区別がつかない。LEDパネルでも。

背景を黒で撮影して、微分(エッジ検出)してから2値化するのがよさそう。
被写体に対して、横からライトで照らせば、黒い被写体やビニル袋のような透明な被写体の輪郭も検出できそう。
念のために2値化した後、孤立点消去や膨張/収縮処理もするつもり。(小容量のFPGAでもパイプライン処理できる)

背景を青にしても上手くいくけど、被写体の色依存性とか話しが複雑になりそうなんで、モノクロでいきます。

カメラはCMOSのグローバルシャッタ方式でいこうと思ってます。今は市販モジュール使ってます。
CMOSグローバルシャッタ方式って最強ですね。(smear,blooming,動体歪み出ないし低消費電力、周辺回路は超楽ちん)

「黒」の背景として、現在クロマティ用背景紙を購入して使ってますが、製品に紙を使うわけにはいかないんで、良さそうなものを今後探します。
低反射の黒色塗料とか、目の細かいスポンジ状のものがいいんですかね?

何か使えそうなノウハウをお持ちの方がいましたら教えてください。
工場の生産ラインで、色々な物体の輪郭を検出するものを作りたいのです。画像関連全くやったことありません。
よろしくお願いいたします。
566デフォルトの名無しさん:2012/04/20(金) 08:32:26.04
光完全吸収素材が理想でない?
まあ値段高いので、
工場ならrom用の静電マットの黒固スポンジがある。代用したら?
567デフォルトの名無しさん:2012/04/20(金) 10:06:35.33
>>565
先ずは「クロマティ」って書くのをやめようよ。
568デフォルトの名無しさん:2012/04/20(金) 10:10:11.51
野球の話だからいいんだよ
569デフォルトの名無しさん:2012/04/20(金) 11:22:54.19
570デフォルトの名無しさん:2012/04/20(金) 13:04:10.90
男塾
571デフォルトの名無しさん:2012/04/20(金) 13:12:41.15
クロマティつながりで「それはひょっとしてギャグで言っているのか?」のAA貼りたくなる
572デフォルトの名無しさん:2012/04/20(金) 22:20:20.09
565です。
「クロマティ」は私のギャグです。
一応「明るくて面白い人」と言われます。皆さん私についてきてくれると幸いです。

>>566
「光完全吸収素材」は、どの様な素材を言われているでしょうか?

本日、黒背景として「CRスポンジ」を調達しました。
光学的には非常に良好なのですが、ゴミの付着という問題がありそうです。
小さな白いゴミが付着してるとそれを誤検出してしまうのですが、
CRスポンジでは一度付着したゴミがふっと息を吹きかけた程度では取れません。
雑巾で拭いても取れません。
ゴミが付着したら雑巾で水拭きして取れるのが良いのですが、何か良い素材はないでしょうか?
そもそも、
「低反射」→「表面がざらざら」→「水拭きでゴミ取り不可」
なので、無理のある考えなのでしょうか。

画像処理での対策も検討しましたが、1画素の孤立点は消去できますが、
2画素以上に連なった孤立点を消すのはハードウェア規模と処理時間を考えて現実的ではなさそうです。

よろしくお願いします。
573デフォルトの名無しさん:2012/04/21(土) 01:49:44.46
>>553
昔の映画じゃ「ブルーバック合成」が多かったけど十五年ぐらい前からは「グリーンバック」
の方をよく見かけるねぇ。まあいずれにせよ

1.切り抜きのための色空間の選択
2.選択した色空間における被写体とクロマキー用の色の分離性

に応じてブルーバックが良かったりグリーンバックが良かったりするわけだ。
574デフォルトの名無しさん:2012/04/21(土) 07:54:08.00
つまんねえつってんだろ
死ねよ
575デフォルトの名無しさん:2012/04/21(土) 11:28:47.94
いるよなー、一発ギャグを百発繰り返すヤツ。
しかもそういうヤツのギャグに限って一発目から滑ってるっていう。


指向性の高い光源で影作って、それを読み取るってのはどうだろうな。
輪郭を検出というより、輪郭像を抽出って感じだが。

    スクリーン
    /  \
  対象物  カメラ
 /
光源

カメラと光源の位置から変換を求めれば、光源から見た像も復元出来るし、フィルターもかけやすそうだ。
対象物の色に関係なく穴があいてる物体の輪郭も検出できるし。
まぁ透明な物体は無理があるかもしれんが。
576デフォルトの名無しさん:2012/04/21(土) 11:59:47.64
ZCam を使えば良くないか
577デフォルトの名無しさん:2012/04/21(土) 12:09:54.06
なぜ自作にこだわっているのか分からんが

赤外線が反射したところを抜き取る。ラインの向こうに汗をかいたデブが
うろついていると困るけど
578デフォルトの名無しさん:2012/05/05(土) 23:33:07.60
長い行列に対してm-sequenceでディザリングをしたかったのですが
後で処理をするためにディザリングの配列は残しておかねばなりません

ここにSFMTで作った64bitのunsigned longの乱数があります
これを1bitずつ上位ビットor下位ビットから

array[0] = 1;
array[1] = 0;
   ・
   ・
   ・
というように64個の配列(intでもboolでも何でもOK)に入れたいんですが、どう書けばいいでしょうか

最終的に、ループで回して0と1の行列は長い(数千万の)配列にしたいので
速いコードだとありがたいです

よい実装方法をご存じの方、いらっしゃいますか?
579デフォルトの名無しさん:2012/05/06(日) 01:28:04.90
画像処理の質問ではないな。
unionって知ってる?
unsigned longをbit配列と同意義で読み替えてやればいい。組み込み系でよく使う手法だがや
580デフォルトの名無しさん:2012/05/06(日) 04:42:09.66
>>578
ビットフィールドでググれ
581デフォルトの名無しさん:2012/05/06(日) 04:44:12.99
ただ速くしたいなら素直にビット演算としてSIMDで書いたほうが速いだろ
582デフォルトの名無しさん:2012/05/07(月) 01:09:44.70
>>579
処理系依存だがや
583デフォルトの名無しさん:2012/05/07(月) 02:54:26.37
処理依存の回答を求めているからだろ。だからもっと依存の強いSIMDのようにハードリソースに合わせたソフトのつくりはアリだと思う

unsignd longは固定64bitと書いてあるように読みとれないか?処理系が変わると大元設計から変えるんだろうね。

えっと、、だがや
584デフォルトの名無しさん:2012/05/07(月) 06:20:19.75
inttypes.hも知らないのか
585デフォルトの名無しさん:2012/05/07(月) 21:45:17.69
stdint.h じゃなかった?
586デフォルトの名無しさん:2012/05/08(火) 13:25:40.34
>>585
仕様上はそうだけど
実装によってはinttypes.hしかないのと
inttypes.hはstdint.hの内容を含む(またincludeする)ので
移植性を考えるとinttypes.hだけを使うべきだって話がある
587デフォルトの名無しさん:2012/05/09(水) 03:09:21.72
組み込み系コンパイラにどこまで期待してるんだ。標準ANSIしかサポートしてないのがザラだぞ
ハード回りのプログラムしてないで移植製を語られてもねぇ
588デフォルトの名無しさん:2012/05/28(月) 12:01:40.56
jpg,png,gif画像の拡大・縮小をしたいのですが、
なんかヒントになるものないでしょうか?
調べてもそういうツールが出てくるばかりで、
プログラム的な解説がなくて困ってます。
何かいいページとか参考になるキーワードあれば教えて下さい。
589デフォルトの名無しさん:2012/05/28(月) 12:17:27.67
ツールにナントカ法で拡大などのオプションあんだろ?
それがまさにキーワードじゃねえか
590デフォルトの名無しさん:2012/05/28(月) 12:28:15.25
なるほど線形補間ですか。
言葉だけなら聞いたことあります。
キュービックってのもありますね。
早速調べてみます。
591デフォルトの名無しさん:2012/05/28(月) 12:56:08.47
『フルスクラッチによるグラフィックスプログラミング入門』
592デフォルトの名無しさん:2012/05/28(月) 14:18:07.36
nearest neighbor
593デフォルトの名無しさん:2012/05/28(月) 14:18:33.51
馬鹿には無理
594デフォルトの名無しさん:2012/05/28(月) 18:43:21.08
>>593
やってみなきゃ馬鹿かどうか分らん
595デフォルトの名無しさん:2012/05/28(月) 19:41:23.53
>>588
lanczos ってので検索してみたらどう?
596588:2012/05/28(月) 20:12:56.86
ありがとうございます。
バイナリプログラム自体が始めてなので、
かなり苦戦しそうですが頑張ってみます。
597デフォルトの名無しさん:2012/05/28(月) 22:20:13.24
画像の読み込みからやるつもりかよ
598デフォルトの名無しさん:2012/05/28(月) 23:19:32.19
YUV形式の画像データ(1次元のバイト配列)
の回転に挑戦してるんですが、
上下逆にするのは成功したものの、90度回転が出来ません。
1920x1080の画像で、横長のままです。
バイト配列の中のどれかに、改行コードみたいなものが含まれているんでしょうか?
599デフォルトの名無しさん:2012/05/28(月) 23:26:54.09
いいから寝ろよ
解決するぞ
600デフォルトの名無しさん:2012/05/28(月) 23:47:31.88
寝ようかなーと思ったら原因判明しました。どうもです
601デフォルトの名無しさん:2012/05/30(水) 21:03:42.37
>>583
容量の問題じゃなくて、Endianの問題だがや
ARMとかBigendianが使える環境だと、
x64系でテストしたコードを移植できんがや
おとなしくビットシフトと論理和論理積使っとくのが
一番移植性があるがや
602デフォルトの名無しさん:2012/06/04(月) 17:56:50.73
一般的でそれなりに安価にノートPCで高速に画像を取り込みたい場合、
GigE カメラが理想でしょうか?(カメラが高い、ってのは置いといて)
603602:2012/06/04(月) 18:21:43.74
もう一つ質問ですが、GigEカメラがなかなか普及しない理由って何かあるのでしょうか?
ググっても利点だらけで欠点らしい欠点が出てこない割に、普及してないのは単価が高いからでしょうか。
普通はWEBカメラ程度で十分で、高速なら据え置きPCにCoaXpressボードとか使えって話になるのかもですが。
604デフォルトの名無しさん:2012/06/04(月) 19:11:11.72
ここって超初心者的な質問でもよろしいのでしょうか?

605デフォルトの名無しさん:2012/06/04(月) 19:16:01.08
>>604
各処理言語別のスレやスレ立てるまでもない質問スレでは適当ではないと言う根拠があるならどうぞ。
606デフォルトの名無しさん:2012/06/04(月) 19:21:06.34
>>604
質問内容は初心者的でもいいが、質問文はちゃんと論理的に書いてくれよ

あと、質問する前に1日くらいは熟考しろよ
607デフォルトの名無しさん:2012/06/04(月) 23:20:22.70
602
やっぱ高いのが問題なんやない?
うちはステレオカメラ用途にシステム作ったで。高速な用途だけやなくて高度制御もできる
608デフォルトの名無しさん:2012/06/05(火) 09:17:30.97
>>607
やっぱり価格の問題くらいですか。
メモリや外部トリガはカメラ依存になりますが、
GigE自体はかなりこなれて来て使い易い割にあまり使われていないので不思議に思っていました。
(調べて出てきた性能の欠点は、パケットなので若干不安定なくらい)
ちょっと借りて使ってみます、ありがとうございました。
609名無し募集中。。。:2012/06/06(水) 00:16:32.09
PoEなGigEが出回れば本命になると思うよ
610デフォルトの名無しさん:2012/06/06(水) 10:11:29.79
>>609
電源供給もケーブル1本で出来れば、色々と便利ですね。
611デフォルトの名無しさん:2012/06/06(水) 10:42:03.59
出回っとるで。PoEつこうとった。
カメラは高いだけあって歪みの少ないええ〜レンズしとったわ。
612デフォルトの名無しさん:2012/06/06(水) 12:49:19.09
CMOS だと画素飛び保障範囲の差でピンキリって感じ
613デフォルトの名無しさん:2012/06/06(水) 13:38:26.41
メーカー<画素飛びしたところは中央値でも使ってて
614デフォルトの名無しさん:2012/06/08(金) 01:56:22.84
横浜の画像センシング行って来たけど、実用的なUSB3.0カメラがだいぶ出てきたな
まだ主流はGigEだけども
CoaXpressも出てきたけど、CameraLinkが強いのと、ニッチ過ぎて需要が少ないそうだ
615デフォルトの名無しさん:2012/06/08(金) 10:29:47.44
>>609
PoE対応のPCが普及しないと意味無くね?
特にノートPC
616デフォルトの名無しさん:2012/06/08(金) 15:19:47.56
PoE対応のハブ経由でごまかす
617デフォルトの名無しさん:2012/06/10(日) 21:00:54.83
>>596
特別な事情がないかぎりOpenCVとか使ったほうが捗るな。
618デフォルトの名無しさん:2012/06/23(土) 07:30:51.92
ベルファイアに当て逃げされました!
防犯カメラに写ってるけどナンバーが光で分かりません、どなたか画像解析出来ないでしょうか?
お願いします!
http://beebee2see.appspot.com/i/azuYk_LaBgw.jpg
http://beebee2see.appspot.com/i/azuY14HbBgw.jpg

619デフォルトの名無しさん:2012/06/23(土) 11:32:29.77
>>618
いくら出すの?
620デフォルトの名無しさん:2012/06/23(土) 11:51:30.08
59−63だな
621デフォルトの名無しさん:2012/06/23(土) 15:19:55.20
この画像の情報量だと(ヾノ・∀・`)ムリムリ
622デフォルトの名無しさん:2012/06/23(土) 16:34:44.44
クロエかマックに頼めよ
623デフォルトの名無しさん:2012/06/24(日) 00:58:33.52
>>618
inverse hyperbolic hierachical scale-invariant feature を使って解析した所、外交官ナンバーっぽい。
624デフォルトの名無しさん:2012/06/24(日) 02:20:07.99
>>623
信じる奴がいたらどうすんの? そんな手法ないよね?
625デフォルトの名無しさん:2012/06/24(日) 11:29:39.19
信じる奴がいてもどうもしないよw
626デフォルトの名無しさん:2012/06/24(日) 13:06:34.61
個人を特定出来る情報の書き込みは禁止な
627デフォルトの名無しさん:2012/06/24(日) 15:12:20.13
つうかあんなのからまじで解析できるの?
628デフォルトの名無しさん:2012/06/24(日) 15:37:02.04
時間と車種、内装などから車自体の特定はできる
ただ、この画像だけでは不確定なのでまわりの道や店などにあるカメラの画像を解析する
629デフォルトの名無しさん:2012/06/27(水) 01:41:37.51
>>621
映画で監視カメラに映った小さい画像を拡大すると鮮明になる機能あるじゃん!
あれを実装すれば問題無し
630デフォルトの名無しさん:2012/06/27(水) 04:00:39.81
そういうのは現実的には複数フレームからの解析で、
たった1枚の画像ではどうこねくり回そうが
元の画像にある情報量以上の情報は得られない。

できるのは、見難い画像を人間が見やすいように補正する程度。
631デフォルトの名無しさん:2012/06/27(水) 07:22:03.14
>>630
> 元の画像にある情報量以上の情報は得られない

確かにそうだが、元の画像が何を撮ったものか分ってるのなら、
不鮮明な画像でもパターンマッチである程度情報を絞り込める場合もあるよ。

たとえば車のナンバープレートが映ってるはずだと分ってるのなら、
一般的に使われているフォントは限られてくるし(地域差もあるが)、
プレートのサイズから文字のサイズは推測できる。

そうすると、マッチングテストすべきパターンの数も減らせる。
632デフォルトの名無しさん:2012/06/27(水) 07:28:36.90
人間の目でみてわからないものを画像処理でなんとかなるわけない
633デフォルトの名無しさん:2012/06/27(水) 07:52:16.89
>>632
冗談だろ?

たとえば人間が見て判別できないほどの低コントラストの画像も、
画像処理すれば何か分る場合がけっこうある。

これは画像だけでなく信号全般に言える。
634デフォルトの名無しさん:2012/06/27(水) 08:38:53.18
ノイズの情報量は無限大(キリっ)
635デフォルトの名無しさん:2012/06/27(水) 08:47:12.70
>>633
現場を生でみたときの事だね。
焦点を絞ってるからなんだろうけどダイナミックレンジ、低照度、解像度は比べ物にならん
636デフォルトの名無しさん:2012/06/27(水) 11:16:44.47
>>632
フーリエ変換した画像を見て、何が映っているのか解る人ですか?
637デフォルトの名無しさん:2012/06/27(水) 11:36:26.44
ナンバープレートを生成
写真の撮られた環境をシミュレーションして加工
元画像と比較
一番近いのが該当するナンバーだ!
638デフォルトの名無しさん:2012/06/27(水) 12:36:18.12
>>637
それナンバープレートに限らず、
犯人の服の陰の特徴とか皺の寄り方とか、いろいろ普通に使われてる。

「〜だ!」って言うほどのことでもない。
639デフォルトの名無しさん:2012/06/27(水) 13:24:57.42
レベル低いな
640デフォルトの名無しさん:2012/06/27(水) 15:41:52.79
>>629
確かにそうだな、あの監視カメラで撮影できなかったことが敗因だな
641デフォルトの名無しさん:2012/06/27(水) 15:51:00.08
629はカメラのことを言ってるわけじゃないが
642デフォルトの名無しさん:2012/06/27(水) 19:17:35.97
>>640はわかってて皮肉を言ってるんだろう
643デフォルトの名無しさん:2012/06/27(水) 21:57:59.36
>>630
干渉電波望遠鏡は見やすいようになっただけなのか?
あれは実は分解能が上がってないのか?
644デフォルトの名無しさん:2012/06/27(水) 21:59:23.34
いやいや、皮肉じゃなくて、冗談には冗談で返したというか(以下ry
645デフォルトの名無しさん:2012/06/27(水) 22:13:11.48
>>643
干渉電波望遠鏡は開口合成の一種であって、
一枚の画像をいじくりまわすんじゃなくて複数枚の画像から
合成して分解能を上げる仕組みでしょ。

パラボラ群を巨大なレンズ面のファセットの集まりだと思って計算する
と、個々のパラボラの数百〜数千倍の開口径を持つレンズだと思えるとかそんな。
646デフォルトの名無しさん:2012/06/28(木) 17:20:31.32
カラー画像を色周波数で分解して複数枚として同じことはできる?
647デフォルトの名無しさん:2012/06/28(木) 19:32:31.98
>一枚の画像をいじくりまわすんじゃなくて複数枚の画像から
>合成して分解能を上げる仕組みでしょ。

ってとこに注目すると、たぶん無理
648デフォルトの名無しさん:2012/06/28(木) 21:17:23.22
>>646
できない
649デフォルトの名無しさん:2012/06/30(土) 00:51:20.63
分解してる時点で情報量減ってるから
合成しても元の画像に戻るだけ
650あきら:2012/07/30(月) 13:42:20.71
気になっている事を質問させてもらいます。
・画角、光学中心の測定の仕方
・特徴点を用いた、光学中心から見た特徴点の方向・方向ベクトルの算出
・光学中心・特徴点に映っているものを結ぶ直線の算出方法とその演算
・ステレオ視環境を利用した3次元位置の測定
・ステレオ視環境の構築
・3次元位置推定のアルゴリズムとその算出
が今のところわからないです。
他にもあると思いますが、現在悩んでいる
のはこれぐらいです。
651デフォルトの名無しさん:2012/07/30(月) 13:50:46.74
>>650
その画像解析の前提となる波動光学は理解できているかい?
652あきら:2012/07/30(月) 14:26:00.12
一応できてると思います。
653デフォルトの名無しさん:2012/07/30(月) 16:19:46.70
できてるかできてないかって聞いてんだろ池沼
お前がどう思ってようが関係ない
できてるかできてないか事実だけを答えろ
654あきら:2012/07/30(月) 16:34:59.85
できないです。
655デフォルトの名無しさん:2012/07/30(月) 17:57:49.54
じゃあ初めにすべきことは決まったね
656デフォルトの名無しさん:2012/07/31(火) 01:12:50.48
>できてるかできてないか事実だけを答えろ

>できないです。

諦めろ。
657デフォルトの名無しさん:2012/07/31(火) 01:16:31.88
波動解析なんか関係ないから、騙されんなって
まず徐剛「写真から作る3次元CG」でも読め
658デフォルトの名無しさん:2012/07/31(火) 08:56:44.97
TsaiかZhangの論文読むのが早いんじゃ?
659デフォルトの名無しさん:2012/08/04(土) 22:31:54.11
画像サイズについてです。
部活で発行する本の表紙を書きました。A5サイズで、ということだったので、A4で描いてパソコンで取り込んで縮小しようと思ったのですが、
取り込んで、pictbearというソフトで「イメージのリサイズ」でサイズを半分の数字にしたのですが、
ためしに印刷してもA5の大きさになってくれません。それどころかすごく大きくて、一部だけしか印刷できませんでした。
A4の半分がA5と聞いたので半分に縮小すればいいんだと思ったんですけど、それじゃだめだったんでしょうか?
私のパソコンのなかの今のデータでは、A5サイズになってないってことですか?
どうやったらなりますか?
データ提出なので、データサイズをA5にしなくちゃいけないんです…
困ってるのでどうか、お願いします。助けてください。
660デフォルトの名無しさん:2012/08/04(土) 22:37:16.44
ここで訊いてもあなたには理解できない答えが返ってくるので、質問に適した板に行ってください
661デフォルトの名無しさん:2012/08/05(日) 14:21:25.61
>>659
>>660 が正論ですが、今パソコンに取り込まれているデータが A4 として
正しいとお思いなら、Windows をお使いならアクセサリーのペイントで
メニューの「変形(I)」→「サイズ変更/傾斜」で水平垂直を50%に指定して
「OK」し、(名前を変えて)保存されれば"A5"になるでしょう。
662デフォルトの名無しさん:2012/08/05(日) 15:55:55.66
A5の用紙が必要です。
663デフォルトの名無しさん:2012/08/05(日) 21:47:28.01
画像処理の専門家の私の意見は、

1 コンビニへダッシュする
2 服を脱ぎます
3 データをプリンターの設定をつかい、A5で印刷します。
4 スキャナーでA5サイズで読み取ります。

これでA5のデータができます。
コツとしては脱いだ服はシワのつかないように畳むことです。


つーかcutepdfとか入れて印刷とかすればいーんじゃね
664デフォルトの名無しさん:2012/08/06(月) 02:51:11.13
つーか、普通は担当者がよっぽど間抜けじゃなければ印刷する段階でなんとでもなるから変に加工せずにそのまま送れ。
665デフォルトの名無しさん:2012/08/06(月) 08:29:25.39
>>661
どうでもいいけど、A4を水平垂直を50%にしたら"A6"になるだろ・・・
666661:2012/08/06(月) 15:39:08.61
>>665
訂正感謝。書き込んですぐ気が付いたけど、1+1=3 って書いたような
ものだからマ分かるだろうと放置していた。
667デフォルトの名無しさん:2012/08/07(火) 08:25:15.48
>>659
スキャナで画像を取り込むとき、1インチあたり何ドットで取り込むか指定するDPIという単位の値を設定しているはず。
意識していないようなら、大抵200〜600DPIくらいが設定されていると思うけど要確認。
プリンタドライバで印刷サイズを用紙に合わせるといった指定をしていない(できない?)場合は、印刷する際にもDPIを意識する必要があり、
この値をスキャナで取り込んだ際の値と同じにしておかないと、そもそもA4で取り込んだ画像をA4で印刷できない。
PictBearはデフォルトで72DPIが設定されるようなので、スキャナで取り込む際のDPIが200DPI以上だった場合、リサイズで1/2したぐらいではきっとまだ大きいんだと思う。
なので、解決方法としては、この値を変更することで対応できるのではないかと思う。(DPIはイメージ->イメージ情報...で変更可能)
A4->A5へのサイズ変更は1辺あたり1/1.414なので、イメージのリサイズをするのではなく、
DPIをスキャナで取り込んだ際の値の1.414倍に設定することで期待するサイズで印刷できるんじゃないかな。
668デフォルトの名無しさん:2012/08/22(水) 19:47:06.86
1枚の写真から自動で3Dモデリングしてくれるのはどうすればいいの?
669デフォルトの名無しさん:2012/08/22(水) 20:42:52.77
>>668
それだけで10cmくらい厚さの本になるだろ。
670デフォルトの名無しさん:2012/08/22(水) 21:11:56.26
>>668
とりあえず「1枚の写真 3Dモデル」でググってみろ。

複数枚ではなく任意の1枚の写真からという事なら、
大きく分けて2つの技術の連結で成り立つ。
一つは写真から意味を読み取る技術、
もう一つは写真からジオメトリやトポロジを構築する技術。

前者は、写真には人の顔が写っているとか、建造物が写っているとか、
そういった何が写っているのかということを知り、
それらの境界(背景との境界や、目的のモノ同士の境界など)を知ること。

後者は、目的のモノの各点が30空間上のどこに位置し、
どの点同士が繋がっているのか、いくつかの点を繋いでできる面が
どこを向いているかなどを知ること。

予め何が写っているのか分かっている場合、
たとえば人の正面を向いた顔が中央に写っているとか、
比較的直線でできた建築物が写っているなどという前提に立てるなら、
上記の処理は(そうでない場合に比べて)大幅に難易度が下がる。
初めにググってみろと言ったリンクは、そういうものばかりだと思う。

求めているものは一応 image-based modeling と総称される技術のひとつだ。
こういうのは SIGGRAPH の論文を漁った方が正確な情報が早く手に入る。
最新の論文に一本目を通して、そこから参考文献を辿るといい。
671デフォルトの名無しさん:2012/08/22(水) 23:50:40.88
>>670
それ人工知能で実現できないの?
例えば遺伝的プログラミングとかファジーとかベイズとか使ってやったりとか
672デフォルトの名無しさん:2012/08/23(木) 00:03:28.82
建築物などの写真にたいして直線や円柱、並行・直角・鉛直の組み合わせのような
幾何学形状を仮定して一定範囲で復元ってのはあったはず
完全自動かどうかは忘れた

任意の対象に十分高精度にやれたらすごいね
673デフォルトの名無しさん:2012/08/23(木) 00:20:37.79
>>670
人工知能でやるにはどうすればいい?
674デフォルトの名無しさん:2012/08/23(木) 00:25:08.03
動画やステレオカメラならできるだろうけど
1枚写真からの復元は大昔にさんざん研究されたけど条件を揃えないとできないから
研究のための研究(役に立たない)と批判されたのではなかったか
675デフォルトの名無しさん:2012/08/23(木) 07:11:47.15
>>673

>>670 でも言ったはずだが、それにも関わらず、
なぜ先ず SIGGRAPH の論文に当たろうとしない?

読めないとか、調べ方を調べるのが面倒とか、
そういうくだらない理由ならもう付き合わん。
676デフォルトの名無しさん:2012/08/23(木) 07:30:45.53
>>675
探したけど見つからないんだよね
677デフォルトの名無しさん:2012/08/23(木) 09:30:31.02
>>676
お前の探し方が悪い
678デフォルトの名無しさん:2012/08/23(木) 10:01:46.70
2D→3Dはかなり無理があるのはいくらアホでもわかるだろ?
3Dにするには情報量が足りないから、
あらかじめモデリングを用意してそれに2Dのテクスチャを貼り付ける方法しかまず思い浮かばない。
679デフォルトの名無しさん:2012/08/23(木) 12:39:31.64
>>676
どこのページで、どういうキーワードで、探した?
680デフォルトの名無しさん:2012/08/23(木) 22:05:55.58
文献が見つからないっていう人は検索結果に出てきてるけどもそれが自分の求めている情報と分からないのが大半だよね
681デフォルトの名無しさん:2012/08/23(木) 22:22:27.93
>>679
「1枚の写真 3Dモデル」でググってみたけど見つからなかったんだよね
682デフォルトの名無しさん:2012/08/23(木) 22:56:33.28
いいからURL貼れよ
683デフォルトの名無しさん:2012/08/23(木) 23:46:54.61
>>681
だから、SIGGRAPH の論文を探せと何度も言ってるんだが

ACM DIGITAL LIBRARY(http://dl.acm.org/dl.cfm)で検索して、
それっぽいタイトルの論文をクリックしろ。
(SIGGRAPH 以外のカテゴリの論文もヒットするが、SIGGRAPH のサイトより検索しやすい)

abstract は無償で読めるから、気になる内容だったら、まずは同名タイトルでググれ。
個人やグループで無償で公開されている場合も多々ある。

無償では公開されてないけど気になるのなら、論文1本につき$15でダウンロードできる。
ダウンロードしないで数日読むだけでいいなら、もっと安くなる。
$42で SIGGRAPH のメンバーシップになれば、1年間はダウンロードし放題だ。

今回の件に関して本気で原理を調べたいのなら、日本語の情報なんてほとんどないのだから、
SIGGRAPH のメンバーシップになって気になる論文を片っ端から落とし、
参考文献(eeferences)を巡ることを強く勧める。
684デフォルトの名無しさん:2012/08/24(金) 00:44:58.72
>>681
日本語で(あるいは英語ですら)言ってるようなのの実用的で平易な解説なんてどこにもないと思うぞ
SIGGRAPH 押しされてるが、その分野だとCV系の論文も対象に入れといたほうがいい
685デフォルトの名無しさん:2012/08/24(金) 03:25:41.29
昔ちょっと話題になったやつ
http://make3d.cs.cornell.edu/
こういうデモがあると認知されやすいね
686デフォルトの名無しさん:2012/08/24(金) 09:43:24.79
>>684
CV系の論文って何?
687デフォルトの名無しさん:2012/08/24(金) 09:46:31.68
>>683
だから、SIGGRAPH の論文を検索しても出てこないんだって
688デフォルトの名無しさん:2012/08/24(金) 11:03:08.81
だいぶ昔のだがCMUの"Automatic Photo Pop-up"ってのがあったな
http://www.youtube.com/watch?v=PulpuyVx3lk

やっぱ今はビデオから3Dを作るのか主流だな。ローマのストリートビューから
1日でローマの3Dモデルを作るって論文があったな。題名忘れたけど。
689デフォルトの名無しさん:2012/08/24(金) 18:58:25.06
>>687

>>681 からは、そんなことは読み取れないんだが・・・

では、>>683 で紹介した ACM のライブラリページで、
"image-based modeling" と "photo-based modeling" の2つで検索してみろ。
これだけでもかなり大量の関連論文がヒットするぞ。
690デフォルトの名無しさん:2012/08/25(土) 06:40:16.51
画像をエッジ抽出後、抽出された物体の個数、面積を求めるコードを書こうとしています。
その際エッジで囲まれたピクセルを認識させたいのですが、何かいい方法はないでしょうか?

走査していって、エッジにぶつかったらON、次のエッジにぶつかったらOFF、ONとOFFの間をピクセルを囲まれているとする
今のところこんなのしか思いつかないのですが、これだとエッジの端だとワークしないためだめぽです。
なにかいいアルゴリズムはないでしょうか?
691デフォルトの名無しさん:2012/08/25(土) 06:50:14.83
>>690
追加ですが、二値画像のラベリングではなく、あくまでエッジで囲まれている領域の
ラベリングを行いという意味です。
最初にニ値化しないのは、扱いたい物体の色がけっこうばらついているためです。
詳しい方、ご教授いただけると幸いです。
692デフォルトの名無しさん:2012/08/25(土) 09:24:07.73
>>691
普通の閉領域を塗り潰す処理じゃないの
693デフォルトの名無しさん:2012/08/25(土) 12:30:22.85
>>690
エッジ部分の2値化しきい値を得て、エッジ以外のしきい値を補間すれば
高品質に2値化できるんじゃね。処理速度は知らんけど。
694デフォルトの名無しさん:2012/08/26(日) 08:01:23.17
映像からモーションを取り出すモーションキャプチャーのアルゴリズムってどうなっているの?
695デフォルトの名無しさん:2012/08/26(日) 08:23:43.57
そんなのアルゴリズムによるだろ(´・ω・`)
696デフォルトの名無しさん:2012/08/26(日) 12:20:46.93
>>694
カメラが特殊か認識しやすいカラーのシールを体中に張ってるだろ
697デフォルトの名無しさん:2012/08/26(日) 15:55:22.32
Kinect みたいなのか?
Kinect SDKのサンプル一通り見てみれば?
698デフォルトの名無しさん:2012/08/26(日) 18:32:43.17
モーションキャプチャーはハードウェアとセットの技術だから
アルゴリズムだけ問題にしても意味がない。
699デフォルトの名無しさん:2012/08/26(日) 20:44:24.92
スケルトンモデルが決まってんだから、遺伝アルゴリズムが楽だな。
700デフォルトの名無しさん:2012/08/27(月) 22:59:21.71
>>699
> スケルトンモデルが決まってんだから、遺伝アルゴリズムが楽だな。
具体的に教えてくれ
701デフォルトの名無しさん:2012/08/27(月) 23:02:14.54
>>698
> モーションキャプチャーはハードウェアとセットの技術だから
> アルゴリズムだけ問題にしても意味がない。
でも動画だけでモーションキャプチャーできるソフトあるよ?
あれどんなふうになっているのかな?
702デフォルトの名無しさん:2012/08/27(月) 23:04:53.01
どのソフト?
703デフォルトの名無しさん:2012/08/28(火) 07:22:39.78
>>702
俺は >>701 とは別人だが、例えばこんなのがある。
http://www.oasci.co.jp/soft/pvstudio/index.htm

原理的には、2台(以上)のカメラを使って物体の立体感を捕らえてトレース。

PVStudio Character の機能だけで良ければ 262,500 円、意外と安い。
704デフォルトの名無しさん:2012/08/29(水) 07:40:11.67
>>702
東大のベンチャー企業が開発したソフトのこと
705デフォルトの名無しさん:2012/08/29(水) 10:47:02.64
>>703
2台以上のカメラを使えばそりゃできるよ
カメラもフレームの同期がいるだろうし
そういうのは特殊なハードウェアと言っていいだろ
あと手など速い動きはカラーマーカーを使うと書いてあるぞ

706デフォルトの名無しさん:2012/08/29(水) 12:37:00.65
>>705
すいませんでした、>>703 は忘れてください。
707デフォルトの名無しさん:2012/08/29(水) 15:40:18.66
単純な話かもしれないけど。

白い画面に黒のペンで適当に落書きして、
そこから一カ所選んで陸続きのとこを塗りつぶすアルゴリズムってどんな方法があるかな?

考えた中だと、開始地点から横に真っ直ぐ塗りつぶして、
上下の次に塗りつぶせる範囲をスタックに入れて、
次はスタックを一つ選んで次に塗りつぶせる範囲を探しながらと…
そんな再起処理を思いついたんだけど、
これよりいいやり方があったら教えてほしい。
708デフォルトの名無しさん:2012/08/29(水) 16:03:31.09
福沢諭吉「脱亜論」 1885年3月16日 時事新報

日本の不幸は中国と朝鮮だ。
この二国の人々も日本人と同じく漢字文化圏に属し、同じ古典を共有しているが、
もともと人種的に異なるのか、教育に差があるのか、 日本との精神的隔たりはあまりにも大きい。
地球規模で情報が行き来する時代にあって、近代文明や国際法について知りながら、
過去に拘り続ける中国・朝鮮の精神は千年前と違わない。
国際的な紛争の場面でも「悪いのはお前の方だ」と開き直って恥じることもない。
もはや、この二国が国際的な常識を身につけることを期待してはならない。
「東アジア共同体」の一員として その繁栄に与ってくれるなどという幻想は捨てるべきである。
日本は、大陸や半島との関係を絶ち、 欧米と共に進まなければならない。
ただ隣国だからという理由だけで特別な感情を持って接してはならない。
この二国に対しても、国際的な常識に従い、国際法に則って接すればよい。
悪友の悪事を見逃す者は、共に悪名を逃れ得ない。
私は気持ちにおいては「東アジア」の悪友と絶交するものである。

         _,,,,,,__  __,,,__
        ィjj)))))))))!!!!!彡ヽ,
      /ミ/         ,}彡ヘ
      |ミ{ -‐ ‐ ‐ ‐-  {三=|
      El==; ゚ ''==. |ミミ,|
        `レfォ、,〉 :rfォ.、,  !iル┤
.        { `¨ i ・、¨ ´  `{ゞ'} 支那、朝鮮とは
.        | '`!!^'ヽ     .「´  付き合うなと忠告しておいたのに。。。
        ! ,-ニ'¬-、  ,!|,_   
.        \´?`  / ∧ヘ、
         __/〉`ー ' ´ /  〉 \
     _, ィ´「∧     /  /    」¬ー- 、_
  -‐ ´  / /  ヽ、/    /     iヾ      ヽ
709デフォルトの名無しさん:2012/08/29(水) 18:56:08.50
>>707
もしかして:「A*」
710デフォルトの名無しさん:2012/08/29(水) 19:04:10.89
>>707
「シードフィル」でググると人によっては幸せになれる
711デフォルトの名無しさん:2012/08/30(木) 08:24:13.74
>>710
ありがとう。
惜しいとこまでは考えてたけど、確かに再起はいらなかったなぁ
712デフォルトの名無しさん:2012/08/30(木) 10:06:34.37
ROM-BASICの時代はPAINT文がスタックを使った実装だったなぁ。
シード・フィルに変えたら数割早くなったって遊んでいたら、
依頼元にぱくられてROM-BASICの次のバージョンで採用されたのもいい思い出w
713デフォルトの名無しさん:2012/08/30(木) 13:55:31.01
全く関係無いけど「シードフィル」でググって一番上の記事の参考文献に泣いた
714デフォルトの名無しさん:2012/09/01(土) 17:29:45.21
画像処理をやることになったんでOctaveかScilabを使おうと思っていますが、
画像データを手軽に操作できるインタプリタで他にお勧めのものはありますか?
あと、画像処理に限った場合、OctaveとScilabでは使い勝手、ライブラリの充実度、
情報の豊富さなどの面でどっちが優れているでしょうか?
715デフォルトの名無しさん:2012/09/02(日) 07:22:04.30
fast marching は綺麗に丸く広がっていくのでコンピュータくさくない
(けど意外性は無い) 効率は FPU があれば
scan-line seed fill > fast marching > seed fill
716デフォルトの名無しさん:2012/09/03(月) 05:26:38.82
pythonからOpenCV使うのは?
717デフォルトの名無しさん:2012/09/04(火) 00:33:57.21
>>699
これ気になったがどうやればいいの?教えてくれ
718デフォルトの名無しさん:2012/09/04(火) 00:41:57.07
>>717
おめこして10ヶ月まつ
719デフォルトの名無しさん:2012/09/10(月) 20:51:21.07
画像処理の最適化アルゴリズムでAx=bを解くのに共役勾配方みたいな柔軟なものってなにがありますか?
720デフォルトの名無しさん:2012/09/11(火) 07:16:57.52
>>719
あなたの画像処理の最適化アルゴリズムでAx=bを解くのに
共役勾配法ではいけない理由は?

柔軟とは何?
何ができればその方法を柔軟と呼べる?
721デフォルトの名無しさん:2012/09/11(火) 08:56:12.84
>>720
周波数領域で一発で求める(l0smoothingのように)といった最適解を求める速度の問題です
柔軟とはパラメータ設定に容易に対応できるということです
jacobiなんかは設定にめんどくささがありますので
722デフォルトの名無しさん:2012/09/11(火) 12:55:07.89
>>721
小出しにしないで、何をやっていて、何が分からないかを、
できる限り正確に質問してほしいのだが。

できれば、これくらいは言わなくても察してくれるだろとは思わないで、
多少冗長でも丁寧に質問してくれないか。

隠れた意図を探りながらレスを考えるのはけっこうしんどい。
723デフォルトの名無しさん:2012/09/11(火) 14:48:56.80
そもそも画像処理関係なくね
線形方程式を解くだけだろ
行列の特徴によるとしか言えないのでは
724デフォルトの名無しさん:2012/09/11(火) 14:57:25.68
最適で柔軟な思考を持ったエスパー希望
725デフォルトの名無しさん:2012/09/13(木) 03:20:03.48
先日に不審死した大臣の司法解剖が行われないそうです
http://sankei.jp.msn.com/affairs/news/120910/crm12091021590020-n2.htm
法律によると医者でなくても「医学関係」の教授又は准教授なら解剖要請ができるそうです
http://hourei.hounavi.jp/hourei/S24/S24HO204.php
どなたか医者と共同研究したり共著論文のある教授又は准教授はおりましたら、大臣の死体の解剖要請を出していただけませんでしょうか

大臣の不審死にはおかしな点が沢山あり、このまま火葬されてしまうと全てがわからないままになってしまいます
726デフォルトの名無しさん:2012/09/13(木) 05:37:20.65
友愛
727デフォルトの名無しさん:2012/09/16(日) 01:21:02.56
画像フィルタの特性を評価する一般的な手法ってあるでしょうか?
今はサンプルの処理結果をフーリエ変換して見てますが、これだと
使う画像にも依存しますし、なにか体系的な手法はないかと思いまして。
728デフォルトの名無しさん:2012/09/16(日) 03:37:23.82
>>727
インパルス応答
729デフォルトの名無しさん:2012/09/16(日) 08:44:04.51
ありがとうございました。
ただ、インパルス応答というものを調べてみましたが、線形性が必要なようですね。
今回評価しようとしているのはエッジ保存フィルタのような非線形フィルタを含みますので。
といいますか、そのようなフィルタは解析的に特性を求めることができないのでどうしようかと
思っていたところでした。
しかし言われてみれば、そのような非線形フィルタの特性を表現できる一般的な入力という
ものもないだろうということに気づきました。こういう研究をやっている人は、どういう手法で
評価しているんでしょうか。
730デフォルトの名無しさん:2012/09/16(日) 12:55:54.50
>>729
そのフィルタはどのようなパラメータをつかってどのような結果がでてほしいのかがしりたい
とりあえずはエッジ保存型のLPFとしかわからないから既存のものとの比較だね
Bilateral,NLMean,L0とかかな
731727:2012/09/16(日) 13:53:39.55
例えばLPFで、カットオフ周波数以下はできるだけ保存しそれ以上は除去したいという
目標があったとき、評価したいフィルタをあるサンプル画像に適用して、その結果が
既存の他のフィルタと比較して良いか悪いかという評価はできます。
ただ、用いる画像を変えた場合にその傾向が変わりますので、なにか体系的な手法は
ないかと考えています。
最初は主にCZPを使っていたんですが、そこで良い成績を上げていたフィルタを別の
ある画像に適用したら非常に性能が悪化したということがありまして。
今は手当たり次第に画像を集めて試しているような状態です。
732デフォルトの名無しさん:2012/09/19(水) 10:17:28.68
>体系的な手法

何を期待してるのか
もっと具体的に書かないと
733デフォルトの名無しさん:2012/09/19(水) 13:25:17.24
似たようなことをしている論文を読めばどうやって評価したか書いてあるだろ
734デフォルトの名無しさん:2012/09/19(水) 16:42:44.20
結局サンプル画像の作り方(選び方)を知りたいだけなんだろうな
735デフォルトの名無しさん:2012/09/19(水) 21:07:08.32
>>734
ひらたく言えばそうですね。
要は、何か特性を向上させたフィルタを作成して評価する際、逆に劣化している
部分がないかを探るのに効率的な手法、あるいはサンプルの選び方はないかと
いうことです。
「一般的な手法などない」というのが答であればそれはそれでしかたありませんが。
書き忘れてましたが、対象としているのは写真画像の画像処理とその画質評価に
ついてでした。
736デフォルトの名無しさん:2012/09/19(水) 23:31:28.08
フィルタの特性は自分で知ってる訳だから
いくらでもいじわるなデータを作れば良いのでは?
737デフォルトの名無しさん:2012/09/20(木) 10:11:02.52
画像から体の身長を求めることはできないの?
738デフォルトの名無しさん:2012/09/20(木) 11:30:10.02
三角測量すれば逝けるお
739デフォルトの名無しさん:2012/09/20(木) 11:53:47.17
>735
顔認識フィルタに心霊写真を通すとどうなりますか?
740デフォルトの名無しさん:2012/09/20(木) 12:50:06.05
>>737
基準がなければ絶対に無理
741デフォルトの名無しさん:2012/09/20(木) 12:59:05.68
>>737
メジャー持って立ってる画像なら桶
742デフォルトの名無しさん:2012/09/20(木) 19:56:02.45
顔の比率から回帰学習すれば大体は予測できるのでは
きっちり測るのは無理だけど
743デフォルトの名無しさん:2012/09/20(木) 20:32:01.34
こういうのは測定ミスしそう
ttp://www.youtube.com/watch?v=-4dwTHnjgYQ
744デフォルトの名無しさん:2012/09/20(木) 20:53:16.49
そういうのは測定したいとは思わない
745デフォルトの名無しさん:2012/09/21(金) 14:18:45.64
身長が分からなくなる錯覚で「エイムズの部屋」とかあって
ttp://designwork-s.com/article/45112259.html

まあ、2次元から3次元を求めようとすると一意にきまらないこととも
関係するんだろうけど、端的には何らかの事前情報が欲しいってことかな。
746デフォルトの名無しさん:2012/09/21(金) 20:01:01.65
奥行きの情報を意図的に変えてるんだから
メジャー持ってきて並べて撮影するのが正解
747デフォルトの名無しさん:2012/09/21(金) 23:54:16.63
>>746
それならメジャーで図ればいいだろwwwwww
748デフォルトの名無しさん:2012/09/22(土) 00:02:07.07
>>747
どういう状態にある何をどのようにメジャーで測るのか、
もう少し具体的に説明してほしい
749デフォルトの名無しさん:2012/09/22(土) 03:47:53.50
http://www.onkyo-lab.com/mv.html
画像から、 顔の各部分の寸法と身長を算出しているのだが、どうやって算出しているんだろうか?
750デフォルトの名無しさん:2012/09/22(土) 12:15:07.37
人間がやってるんじゃね?
751デフォルトの名無しさん:2012/09/22(土) 21:52:59.21
>>750
どうやるの?
752デフォルトの名無しさん:2012/09/22(土) 22:19:53.97
>>751
定規で顔の各寸法を測って、頭蓋骨の形や大きさ、性別などを割り出して、
あとは科捜研が白骨バラバラ死体から身元確認するために使う技術なんかを使って身長を割り出すんだろ。
753デフォルトの名無しさん:2012/09/24(月) 00:12:23.37
>>752
どういうこと?
わかり易く教えてくれ
754デフォルトの名無しさん:2012/09/24(月) 07:07:07.08
>>753
どこまで分かって、何が分からないか、もっと明確に質問してくれ。
755デフォルトの名無しさん:2012/09/24(月) 23:14:12.34
>>754
全部がわからん
もっとわかり易く教えてくれ
756デフォルトの名無しさん:2012/09/24(月) 23:17:42.09
この白痴に物を教えるのは無理だよ。
757デフォルトの名無しさん:2012/09/24(月) 23:46:07.44
>>755
では順番に説明する。

「定規で顔の各寸法を測る」

この意味は分かるか?
どういう作業か想像できるか?
758デフォルトの名無しさん:2012/09/25(火) 04:58:42.33
>>749 の疑問は、人物画の縮尺をどう算出しているのかってことでは?
759デフォルトの名無しさん:2012/09/25(火) 08:10:11.50
なにか指標を使ってるんだろ。
760デフォルトの名無しさん:2012/09/25(火) 13:13:30.83
全てをキッチリ正確に計る必要なんて無いってか、できないしな
761デフォルトの名無しさん:2012/09/25(火) 13:34:36.41
そういえば、モザイクの除去てどうやるんだっけ?
762デフォルトの名無しさん:2012/09/25(火) 13:35:58.54
すいません失礼します
細線化について質問させてください
細線化をするとヒゲが発生する場合があり、多くの場合はこのヒゲを除去すると思いますが、ヒゲを残しておくと何か不都合な事がおこるのでしょうか?
別に不都合が起きないのであればヒゲは残したままでもいいと思うのですが・・・
763デフォルトの名無しさん:2012/09/25(火) 13:36:55.23
エスパー頼む
764デフォルトの名無しさん:2012/09/25(火) 16:16:25.78
たとえば認識が目的の場合、基準図形には普通ひげが無いので、
入力図形からもひげを除去したほうが比較しやすいでしょ

順序としては切片線形近似するなら近似してから短い線分を除去すればよい
765デフォルトの名無しさん:2012/09/25(火) 16:17:07.40
>>762
剃ったらいんじゃね?
766デフォルトの名無しさん:2012/09/25(火) 23:26:33.13
>>758
そういうことかな
>>760
じゃあ >>749はどうやって算出しているの?
767デフォルトの名無しさん:2012/09/25(火) 23:51:31.79
統計的な情報でも使うんだろう。
成人女性の頭の大きさにそう開きがあるわけではないし、差がある場合でも
各部の寸法が同じ比率で拡大するわけじゃないから、その寸法比である程度
推定できると聞いたことがある。
まぁ、モナリザが分布の中心から外れたパース無視の造りじゃなければだが。
768デフォルトの名無しさん:2012/09/26(水) 09:30:06.79
>>766
正確だとどこから読み取ったのですか〜?
誤差何mmなんですか〜?

骨相学という学問が昔あって
それ自体はオカルトだが人間の体の比率なんかはある程度測れるとか
769デフォルトの名無しさん:2012/09/26(水) 18:33:48.44
L0smoothingをL1ノルムにしたものの導出わかる方いらっしゃいますか?
770デフォルトの名無しさん:2012/09/26(水) 20:09:05.08
ちょうど1年前なのか
ちょっと論文読んでみるわ
771デフォルトの名無しさん:2012/09/26(水) 22:48:22.76
Windows7に付属の動画編集ソフトの超解像機能がとんでもなく高性能な件
超解像のソフトを3000円ぐらい出して買ったのに無料ソフトの方が上なんて
772デフォルトの名無しさん:2012/09/27(木) 09:25:20.92
>>767

>統計的な情報でも使うんだろう。
どのような情報を使うの?

>>768
http://www.onkyo-lab.com/mv.html

773デフォルトの名無しさん:2012/09/27(木) 10:17:05.37
>>766
>>772
便宜上細かい数値出してるだけで、何の意味も無いよ
自分の顔の寸法をメジャーとかでミクロン単位で測ってみ
で、次の日も測って同じ数字が出るとでも?
774デフォルトの名無しさん:2012/09/27(木) 10:40:23.14
質問です。
画像中から障害物の検出・除去を行う方法を探しています。
自分が調べた限り、エピポーラ平面画像を利用した手法が主流なようなのですが、
他にもそういった技術を知っている方がいましたら教えて頂けないでしょうか。
また、そういったことに詳しいサイトURLもありましたらお願いします。
よろしくお願いします。
775デフォルトの名無しさん:2012/09/27(木) 17:41:09.32
>>772
そのURLになにか意味があるように出されても
馬鹿かとしか言いようがない

776デフォルトの名無しさん:2012/09/27(木) 20:06:34.07
>>772
統計ってしってるかな?
ようは、実在する人を測定したデータをたくさんあつめたものだよ。
777デフォルトの名無しさん:2012/09/28(金) 01:12:27.04
もしかして
777
778デフォルトの名無しさん:2012/09/28(金) 03:43:47.42
OpenCVで超解像のプログラムみつけたけど
商用ソフトも同じアルゴリズムなんだろうか
779デフォルトの名無しさん:2012/09/28(金) 09:32:35.28
>>773
つまり正確でないこと?

>>776
じゃあどうやって測定したの?
780デフォルトの名無しさん:2012/09/28(金) 09:33:36.87
中学生がくるところじゃないよ。
781デフォルトの名無しさん:2012/09/28(金) 14:01:19.78
>>778
知るかよとしか言いようがない
782デフォルトの名無しさん:2012/09/28(金) 23:14:11.13
>>779
モノサシって見たことある?
棒や紐状の物にあらかじめ等間隔で目盛を刻んだものを使って、
その目盛を数えることで距離を測ることができる。
783デフォルトの名無しさん:2012/09/29(土) 00:10:41.47
>>779
>じゃあどうやって測定したの?
言葉足らずすぎwww
国語で主語、述語、動詞習ったかな?
784デフォルトの名無しさん:2012/09/29(土) 12:16:44.66
日本語には主語がない
785デフォルトの名無しさん:2012/09/29(土) 21:52:17.74
TV法ていろんなやり方あるけど導出をやってる論文で日本語のものありますか?
典型的なものから応用してるのまでどれでもいいです
786デフォルトの名無しさん:2012/09/30(日) 10:56:44.89
http://www.onkyo-lab.com/mv.html
じゃあこれ画像から、 顔の各部分の寸法と身長を算出しているのだが、どうやって算出したの?
787デフォルトの名無しさん:2012/09/30(日) 11:01:29.37
>>786
そんなの適当に決まってる。
もう少し言えば、数カ所は適当に決めて、あとはそこから比を定規で測るだけ。

そんなわけない、というのなら、違うという証拠を見せてみろ。
788デフォルトの名無しさん:2012/09/30(日) 19:55:49.02
>>786
もうわかったからさやすめよ
理論的なことわかんないんなら知恵袋いっとけ
789デフォルトの名無しさん:2012/10/01(月) 03:20:25.62
>>787
もう少し詳細に教えてくれ
790デフォルトの名無しさん:2012/10/01(月) 07:17:59.46
>>789
写真に定規当てて測るだけだ。

それだけだと、各寸法の比しか分からない。
なぜなら、実際の顔のサイズと絵や写真のそれは縮尺が違うからだ。
(100% 原寸大の絵や写真ならいいけど)

だからどこか、たとえば目尻と目尻の間のサイズの原寸を適当に決定する。
統計で割り出した人の平均値を使ってもいいし、
あり得そうなサイズの幅を決めて、その中でランダムに選んでもいい。
これが基準だ。

原寸サイズと、各パーツとの比を決定できれば、全パーツの原寸が割り出せるだろ。

数カ所は適当に決めてと言ったのは、一カ所ではなく数カ所の基準から
各パーツの原寸を割り出して平均値を計算した方が、
なんとなくより本物の寸法を割り出しやすいかなと、
なんの根拠もなく適当に言ってみただけだ。

これ以上は詳しく説明できん。
791デフォルトの名無しさん:2012/10/01(月) 13:08:18.67
>>790
定規を当ててどうやって比を算出するの?
792デフォルトの名無しさん:2012/10/01(月) 13:28:53.38
黒目の大きさを代表平均値(12mm?)としてそこからスケーリングしてるんでないの?
793デフォルトの名無しさん:2012/10/01(月) 19:02:09.40
>>791
人物画の上に定規を当てて、例えば目尻から目尻まで(A)を測る。
それが5メートルだったとしよう。

次に口元から口元まで(B)を測ったら2.6メートルだったとしよう。

すると、(A)の長さと(B)の長さの比は 5:2.6 だ。

つまり、その人物画のモデルの目尻から目尻までの長さを基準にすれば、
口元から口元までの長さはそのおよそ半分だなと推測する。

定規を当てて比を算出するというのはこういうことだ。

各パーツの比が分かれば、あとはどこか一つのパーツの実寸さえ分かれば、
全パーツの実寸が推測できる。

実際は >>792 のように、個人差があまり出ない
黒目の大きさなどを基準にするのだろう。
794デフォルトの名無しさん:2012/10/01(月) 19:05:45.81
>>793
個人差もそうだけど、年齢による差(成長過程での変化)も比較的小さい部位らしいよ <黒目部
795デフォルトの名無しさん:2012/10/01(月) 19:06:45.44
>>791
割り算って知ってるか?
796デフォルトの名無しさん:2012/10/01(月) 20:17:54.93
>>794
へぇ、でも小さいから誤差は大きそうだね
797デフォルトの名無しさん:2012/10/03(水) 22:51:38.59
どれを基準にしたらいいんだ?
798デフォルトの名無しさん:2012/10/04(木) 00:35:26.86
計れるもの全部計って
誤差の少なそうな部分からの比に変換したあと重回帰とかだろ
基準を複数選んでbaggingしてもいいし
799デフォルトの名無しさん:2012/10/10(水) 16:35:35.64
誰か画像処理の1次微分と2次微分の違いを馬鹿でもわかるように教えてください!根本的に何が違うかわけわかりません!
800デフォルトの名無しさん:2012/10/10(水) 16:38:22.15
>>800
画素の数値の変化量を表すのが1次微分
変化量の変化量を表すのが2次微分
変化量の変化量の変化量を表すのが3次微分
801デフォルトの名無しさん:2012/10/10(水) 17:21:32.33
THX! 微かに分かった。
802デフォルトの名無しさん:2012/10/10(水) 17:31:11.38
1回の引き算を一次微分
2回の引き算を二次微分
って言う世界もある
803デフォルトの名無しさん:2012/10/11(木) 00:22:54.12
変化の割合のことだけど、引き算で済ましてることがあるってことね。
804デフォルトの名無しさん:2012/10/11(木) 07:21:24.08
>>803
離散値に対する微分が差分(引き算)だ
805デフォルトの名無しさん:2012/10/11(木) 08:11:36.76
今どきは画像処理を学習・応用する人が微分、積分、離散数学
は無理解で済むようなライブラリでも供給されてるの ?
806デフォルトの名無しさん:2012/10/11(木) 09:19:06.12
離散値 An+2, An+1, An, An-1, ... があるとして
1次 (An+2 - An+1), (An+1 - An), (An - An-1)
2次 (An+2 - 2An+1 + An), (An+1 - 2An + An-1)
3次 (An+2 - 3An+1 + 3An - An-1)
807デフォルトの名無しさん:2012/10/11(木) 09:30:15.11
空間方向の離散値 隣のピクセルとの…
時間方向の離散値 1つ前の映像との…
808デフォルトの名無しさん:2012/10/11(木) 14:48:33.11
大学でいきなり「来週までに一次微分と二次微分の違いを調べて説明しろ」とか言われた、マジわけわかめ画像処理の事なんて一ミリもわからんがな!
809デフォルトの名無しさん:2012/10/11(木) 14:50:46.17
じゃあ辞めたら?
時間の無駄だよね
810デフォルトの名無しさん:2012/10/11(木) 15:51:49.21
画像処理以前に、二次微分の意味を解ってないような
811デフォルトの名無しさん:2012/10/11(木) 17:01:00.24
いまどき微分も知らずに入れる大学なんてどんなF欄よ
812デフォルトの名無しさん:2012/10/11(木) 17:53:20.51
全入時代の今だから入れるんだろ。理系でさえもな。
813デフォルトの名無しさん:2012/10/11(木) 18:00:23.32
○大工学部の学生さん
132.5kの抵抗って…高くつきますよ
814デフォルトの名無しさん:2012/10/11(木) 19:28:42.90
ハッハッハそのとおり!!私はF欄大学に通ってるぞ!!よくぞ見破ったな!!
815デフォルトの名無しさん:2012/10/20(土) 07:35:32.91
こういうのはどうやったらつくれますか?
http://www.youtube.com/watch?v=UzFkAVcDri8
816デフォルトの名無しさん:2012/10/20(土) 07:52:05.58
そういう質問の仕方をしている限り作れません。
あきらめましょう。
817デフォルトの名無しさん:2012/10/20(土) 08:20:20.22
了解
818デフォルトの名無しさん:2012/10/20(土) 14:20:39.11
あきらめました
819デフォルトの名無しさん:2012/10/20(土) 16:29:26.98
あきらめまーした♪
820デフォルトの名無しさん [sage] :2012/10/20(土) 22:26:07.85
Σ(゚Д゚)スゲェ!!ーこの板参考になる
激安PCソフト市場でググってみて
色んなソフトが激安いいよ
821デフォルトの名無しさん:2012/10/22(月) 13:50:17.72
>>815
1枚1枚ドット打ちでええやん
822デフォルトの名無しさん:2012/10/22(月) 19:56:01.91
1枚1枚って、お前バカか?

ドットの数え方は1粒1粒だろうが
823デフォルトの名無しさん:2012/10/22(月) 20:14:54.23
動画で一枚ならフレームってことだろ。
フレーム一枚々、ドット絵描きなさい。
無問題だな。

それはさておき、
お前バカ…こういうの止めないか
824デフォルトの名無しさん:2012/10/22(月) 20:26:02.53
議論に割り込んでスマンが、
>>815 のはサイズ的にドット絵を描くという範囲を超えてないか。

いや、どれくらいまでならドット絵と呼べるかという基準はもちろん無いが。
825デフォルトの名無しさん:2012/10/22(月) 20:39:11.05
>>824
NHK 等で行っている昔の映像の修復やカラー化などは
部分的ではあるがドットお絵描きをやってるよ。
NHK 以外でも数年の時間を費やして数十秒の動画を
修復、そのやり方はほとんどドットお絵描き。
826デフォルトの名無しさん:2012/10/22(月) 21:03:28.56
>>825
昔の映像の記録方式って当然デジタルじゃないよね

それをドットを打って修復するということは、
修復後の解像度は固定されるということ?

後の世にもっと解像度が高いテレビがでたら、
またその解像度に合わせてドットを打って修復した映像を公開するの?

今の技術ではそれしか方法がないのかも知れんが、
それにしても、すごい仕事だな
827デフォルトの名無しさん:2012/10/22(月) 21:19:31.99
実際にどのような形式、どの解像度でデジタル化しているかまでは
知らないけど、少なくとも MPEG-2 の解像度は 1920x1080i が
最高解像度ってことではないよ。

動画ではないが、美術品のデジタル画像化などでは、スキャナー
方式的な方法で、ちょっと普通ではありえないような画素数で
行っているみたい。色の扱いもスゴイ厳格に行っている。

828デフォルトの名無しさん:2012/10/22(月) 21:29:16.06
ラインカメラ(受光素子が1次元で一直線に配置)で
複数回スキャンするようなのか
829デフォルトの名無しさん:2012/10/22(月) 21:42:17.66
それぞれに、方式があるだろうと思う。
自分が関係したところでは、単素子スキャンでした。
そいつを、超巨大プロッタのような装置で移動させる。
画像が歪むのでレンズで画像を縮小はダメとか、いろいろある。
昔は高分解能で高速なA/DCが無かったので大変でした。
830デフォルトの名無しさん:2012/10/22(月) 22:21:52.68
ドット打ち法を >>815 に使うのは非常に「スジが悪い」と思うのだが
831デフォルトの名無しさん:2012/10/23(火) 10:44:10.06
>>830
否定だけする奴
832830:2012/10/23(火) 12:53:02.56
>>831
仕方ないだろ。
人間が1フレームずつ描いていく方法はスジが悪いと直感で感じるが、
しかしどういう方法でやるのが良いかは分からないんだから。

正確に言えば、いろいろ考えてはいるが、
実験して確かめる術が今はないし、このおもちゃを実際に見たこともないから、
この方法だとははっきり言えない。

始めにグリップ部を振り下ろす直前に、向き(回転角度)を確認してるから、
どこかにボタンがあって、押すとグリップ部から長い棒状の物が出るのではないか?

恐らくその棒がARマーカーとなってるのだと思うのだが、どうだろうか。
この方法なら、体の後ろに回ったときもちゃんと描画できるだろうし。
833デフォルトの名無しさん:2012/10/23(火) 13:05:17.30
>>832
現在は 1フレーム毎を容易に確認できる。
何かを想定したのなら、とりあえず 1フレーム毎見てみれば ?
わかるかどうかは知らんけど。

昔ね、揺れているカーテンに映る、波打つ画像のコマーシャルがあってだね
適当に画像をゆすって重ねれば、人間の目はごまかされるってオチだったよ。
834デフォルトの名無しさん:2012/10/23(火) 13:41:00.84
20秒程度の動画で奥行きが解り辛いビームサーベルなら、
下手に考えるよりドッターが直接描いたほうが早いな
835デフォルトの名無しさん:2012/10/23(火) 16:07:24.93
んで、最初のスターウォーズはどうやって描いたの?
836デフォルトの名無しさん:2012/10/23(火) 16:35:03.31
最初は、光る棒切れだか光反射する棒切れ振ってたんじゃなかったっけな
837デフォルトの名無しさん:2012/10/23(火) 17:11:10.22
ただの棒を振り回して後でフィルムを塗ったんだろ
838デフォルトの名無しさん:2012/10/23(火) 17:15:55.51
スイッチ入れてビヨーンって伸びるとこは?
839デフォルトの名無しさん:2012/10/23(火) 17:32:03.47
>>837
フィルムに塗ると暗い側に行くのだが
840デフォルトの名無しさん:2012/10/23(火) 18:13:41.78
ロトスコープだね。
トレースして描いて合成して……ってところかな。
841デフォルトの名無しさん:2012/10/23(火) 19:04:56.97
>>834
画像処理でやらなきゃ、このスレとしては面白くないだろ
842デフォルトの名無しさん:2012/10/23(火) 20:59:35.20
>>825
楽しそうな仕事だな
843デフォルトの名無しさん:2012/10/23(火) 23:41:48.33
画像処理に固執すると問題を解決したいだけの人には馬鹿と思われるだろ
家族アルバムの分類を機械学習でやろうとしているようなもの
適切に使え
844デフォルトの名無しさん:2012/10/23(火) 23:58:16.48
現実問題を考えるなら、最も楽な手っ取り早い方法を選べばいいと思う。
その結果として、画像処理を全く使わず簡単に解決してしまう場合もあるだろう。

ただ、このスレにお題として出されたものを画像処理を使わず解くというのは、
なんか逃げてるというか、面白くないというか・・・

どのような画像処理で解くかを皆であーだこーだ議論する方が楽しくないか?
845デフォルトの名無しさん:2012/10/24(水) 01:40:34.27
誰も解く気がないならそれでいいけど
困っている人の質問から始めると迷惑だろ…
846デフォルトの名無しさん:2012/10/24(水) 07:01:05.96
>>815 が困っているようには見えん

すぐ諦めてるし
847デフォルトの名無しさん:2012/10/24(水) 10:56:16.70
ARマーカの棒が出てるようには見えないけど
出てるんだろうね
http://sixwish.jp/AR/Marker/section01/
http://miku.sega.jp/f/ar/dl/
http://www.konami.jp/products/touch_loveplus_ir/ir.html
だけどそれ自体は画像処理と関係ないね
848デフォルトの名無しさん:2012/10/24(水) 11:39:25.75
現実的な回答を出した後で好きに議論すればよい
849デフォルトの名無しさん:2012/10/24(水) 11:44:24.02
グリップをトラッキングしていれば
グリップの白と黒の境界線からライトセーバーを出す方向は分かりそうだけど
これだけのためにそういった処理を書くとは思えないのでフォトショだろ
850デフォルトの名無しさん:2012/10/24(水) 11:46:15.88
昔見た記憶がある
走ってきた釈の乳がこぼれる動画
あれは、サイズとフレーム・レートを調整し
ドットお絵かきだった。
851デフォルトの名無しさん:2012/10/24(水) 12:36:05.26
>>847
ARマーカーを識別するのは画像処理だろ
852デフォルトの名無しさん:2012/10/24(水) 12:36:39.30
>>849
新三部作辺りだとアルミの棒だったと思う。でないと鍔迫り合いができない。

で、ARライトセイバーを作るんだったら棒の先端に赤外線LEDでもつけておけば医院で内科医?w
853デフォルトの名無しさん:2012/10/26(金) 21:21:19.98
LSMakerというライトセイバー専用のツールがあるらしい。
剣術師範の稽古をライトセイバー化したやつは面白かった。
ttp://www.youtube.com/watch?v=_s2NFNwNtEk
854デフォルトの名無しさん:2012/10/26(金) 23:02:40.40
それがあるのは知っててみんなスルーしてると思ってたの
855デフォルトの名無しさん:2012/10/26(金) 23:11:25.87
いや、俺は知らなかった
856デフォルトの名無しさん:2012/10/27(土) 15:52:37.20
>>853
面白いね
真剣なのに思わず笑ってしまって周りから白い目で見られた
857デフォルトの名無しさん:2012/10/29(月) 16:50:04.40
麻生太郎 : 未曾有 = みぞうゆう
石原伸晃 : 生保 = ナマポ

前者は昔からのいわゆる、漫画ばかり見てると漢字読めない馬鹿になるよっ、の具現者
後者は知識もとを2CHとする、単なる馬鹿、民主が WikiPe で非難されたろ (学習能力の無い奴だ > 死ゲール)
858デフォルトの名無しさん:2012/11/01(木) 19:59:50.18
大学でhogをopencvを使わずにc++でプログラムしなきゃいけないだが
全然分からん
aviの動画を読み込み1フレームずつ処理するんだが…はぁ
助けてくれ……
なんでプログラムが点で駄目な俺にこんな課題振るんだよ…
859デフォルトの名無しさん:2012/11/01(木) 20:49:08.89
>>858
プラット・フォームに縛りはあるのかね ?
860デフォルトの名無しさん:2012/11/01(木) 20:58:23.34
とりあえずVisualstdio2010で作ってみてるんだが
そもそもプラットフォームってなんぞやレベルの俺に振るから
どうしよううもない
861デフォルトの名無しさん:2012/11/01(木) 21:20:03.13
>>860
HOGって何じゃらほい? って思わず調べてしまった。
最近は大学で、こうゆうのが流行してるのか・・・

分からないことが多い場合、例えば
(1)VisualStudio10の使い方と、C++プログラムの基本を覚える
(2)opencv等の既存のライブラリを使用し、静止画のHOG特徴を求めてみる
(3)自作のライブラリに置き換える。
(4)AVIを操作するライブラリ(vfw等)を使って、動画から1コマずつ取り出し (3)のプログラムに渡す

みたいな漢字で、段階的にやるといいと思うよ。
一気に片付けようとすると、途中で挫折するかもしれないから。
862デフォルトの名無しさん:2012/11/01(木) 21:29:34.09
>>861
お答え頂きありがとうございます
とりあえず
http://opluse.shop-pro.jp/?pid=21043524
のサイトのhogのサンプルプログラム見ながら
考えたりしてみてます
輝度値を取り出したり水平方向のデータ数とか
ちょこちょこopencvのライブラリを使ってるので
ここを変えて行きながらやってみます
ハードル高過ぎで泣きそうです…
頑張ります
863デフォルトの名無しさん:2012/11/01(木) 21:37:28.58
ライブラリというより画像の構造体でしたかね?
なんにせよこれらを使わず輝度値など取り出したりしないといけなさそうです
864デフォルトの名無しさん:2012/11/01(木) 22:29:41.81
参考に出来る話となるかわからんが…

まずは AVI ファイルがどのような仕組みである事と
Windows で AVI ファイルを扱う仕組みを理解することが
先になると思う。

AVI ファイルは一種のコンテナなので、AVI ファイルと
言っただけでは、なかの画像形式まで限定される話では
ない。

まずは AVI ファイルからフレーム単位の画像を読み、
プログラム中の配列等に格納する段階で挫折しそうな
予感がするのだが…
865デフォルトの名無しさん:2012/11/02(金) 07:50:00.87
>>864
ありがとうございます
頑張ってみます
866デフォルトの名無しさん:2012/11/02(金) 09:33:54.36
動画の読み込みなんて既存のライブラリを使えばいいだろ馬鹿かとキレたほうがいいと思うけど
発言を見るとプログラミングが苦手なようなのでそのための課題なのかな
プログラミングが苦手なのに機械学習や画像処理の高度なプログラミングが必要なコンピュータビジョンを選んだのが悪いのでは
苦手を克服したいならC++を10年間勉強するなど苦行を積むしかない
867デフォルトの名無しさん:2012/11/02(金) 10:16:24.44
処理する部分が必要なだけならAviSynthとかAviUtlのプラグインとして組んだほうが楽
868デフォルトの名無しさん:2012/11/02(金) 12:31:09.46
「3日で作る高速特定物体認識システム」
のSIFTをホゲに変えてみりゃいいんじゃね
869デフォルトの名無しさん:2012/11/02(金) 12:53:00.60
>>866
> 動画の読み込みなんて既存のライブラリを使えばいいだろ
その既存のライブラリとやらを教えてあげなよ。

一から知識仕入れての場合、連続再生であれば、
数日程度で C++ から AVI ファイルの再生を行うプログラムを
作れると思うが、AVI ファイルから任意のフレームの
画像データを読む部分が簡単に達成できるとは思えんよ。

昔、盛んに API プログラミングしていた頃なら資料や
サンプルを容易に入手できたが、今では資料を探すだけでも
難儀だと思う。
870デフォルトの名無しさん:2012/11/02(金) 13:05:48.40
動画の読込が課題なのか特徴量の抽出が課題なのかよくわからんなw
今時AVIファイルから自力で静止画の抽出とか無駄すぐるw
871デフォルトの名無しさん:2012/11/02(金) 14:51:27.68
AviSynthでいいじゃんね。
872デフォルトの名無しさん:2012/11/02(金) 15:25:21.85
本人がOpenCVを使わずに言っているのが
そういったライブラリを使わずにフルスクラッチしろという意味なのか
HoGを理解するためにOpenCVの実装を使わずにという意味なのか
後者なら動画の読み込みや画像の操作はOpenCVでよくね
873デフォルトの名無しさん:2012/11/02(金) 15:28:42.04
>>872
> 輝度値を取り出したり水平方向のデータ数とかちょこちょこopencvのライブラリを使ってるので
> ここを変えて行きながらやってみます
すごく前者な気配
874デフォルトの名無しさん:2012/11/02(金) 15:51:14.89
まあ無理・無知

次のかたどうぞ
875デフォルトの名無しさん:2012/11/02(金) 16:41:22.40
>>862
その本だとP.31か
EHOGなら簡単に出来そうだし、頑張れ
876デフォルトの名無しさん:2012/11/02(金) 18:39:32.36
VLC は学生が作ったとかではなかっただろうか
あれは、結構な部分が自力だったような気がする
がんばってくれ
877デフォルトの名無しさん:2012/11/09(金) 09:29:55.07
画像の面積を抽出したいのですが、ラベリング等で良いアルゴリズムは無いでしょうか?

http://imagingsolution.net/imaging/labelling/
を、試してみたのですが、円弧があると左上に沿って白い線が出てしまい上手くいかなかったので・・・。
どこかミスっているだけかもしれませんが、他にも良いアルゴリズムがありましたら教えて頂けないでしょうか。
よろしくお願いします。
878デフォルトの名無しさん:2012/11/09(金) 10:08:41.48
>>877
悪気は無いが、お前の文章はわけがわからん。
その文章を他人が見て、お前のやってることを
正確に知ることができると思っているのか ?
879デフォルトの名無しさん:2012/11/09(金) 10:14:37.90
>>878
十分わかりやすいと思います
アスペは黙ってましょう
880デフォルトの名無しさん:2012/11/09(金) 10:31:08.54
>>877
自分の書いたコードのバグは疑わないのね。
881デフォルトの名無しさん:2012/11/09(金) 10:32:53.01
ミスっているだけ
882デフォルトの名無しさん:2012/11/09(金) 11:26:00.89
自分のバグと思われます、すいません。
>>877のリンク先のアルゴリズムですが、ルックアップテーブルの書き換えでラスタスキャンする時、
4画素の内、複数の画素にテーブル番号を割り振ることってあるのでしょうか?
883デフォルトの名無しさん:2012/11/09(金) 11:29:14.92
>>877
自分の書いたプログラムで入力画像に対してどんな結果が出力されたのか見せないと、
何も言えない。
884デフォルトの名無しさん:2012/11/09(金) 11:59:17.34
>4画素の内、複数の画素にテーブル番号を割り振ることってあるのでしょうか?

書かれても居ない仕様を勝手に実装しようとする癖は良くない
885デフォルトの名無しさん:2012/11/09(金) 12:33:36.46
ただ一例で癖だと判断する癖は良くない
886デフォルトの名無しさん:2012/11/09(金) 12:58:41.12
ラスタスキャン中のルックアップテーブルの書き換えって
>参照した画素のラベル番号が複数存在した場合、最小の番号を割り振ります。
>このとき、用いなかったラベル番号(下図の例では3)のルックアップテーブルの番号を最小の番号に書き換えます。
これの話か?

ABCD□: 各画素のラベル値、 LUT: ルックアップテーブル

BCD
A□

□=(0 を除く A〜Dの最小値)
LUT[A] = LUT[B] = LUT[C] = LUT[D] = □

この処理を
 元画像の白が現れる毎に行う
 元画像の白の探索は左から右へ、右端に到着したらひとつ下の左端へ

画像の最後まで走査し終わったらルックアップテーブルの整理(ラベル値の修正)
887デフォルトの名無しさん:2012/11/09(金) 17:03:28.89
>>886
エスパー翻訳ありがとうございます。

BCDE
A□△

で、まず□を参照した時に「ABCD□」のテーブルを割り振りますよね。
その次に△を割り振る時、「□CDE」を見るので「□CD」は重複になるので参照する意味があるのかな・・・?って思ったのですが
よく考えたら△がより低い値でしたら、全て書き換えになりますね。
すいませんでした。
888デフォルトの名無しさん:2012/11/09(金) 17:30:01.45
>>887
その例の場合(=□に続き△で隣接が確定してる)、多少の省略が効くかもだけど
まずは、提示されているアルゴリズムをその通り実装し確認てから、小細工しなさいな
889デフォルトの名無しさん:2012/11/09(金) 19:59:51.49
>>888
すいません、アルゴリズム通りに書いたつもりが上手く動かなくてテンパってました。
890デフォルトの名無しさん:2012/11/24(土) 21:36:18.88
2次元ボロノイ図生成のためのFortuneのアルゴリズムって3次元に拡張可能?
パッと考えると拡張可能そうだけど、その手の記事を全く見かけないのだが・・・
891デフォルトの名無しさん:2012/12/12(水) 16:28:41.20
latent svmを用いて、対象検出(人)を行いたいと思ってます。
そこでlatent svmを使って学習を行えるプログラムを探しているのですが、なかなか見つけることができません。
何か良い方法を知っていたら教えてください。

環境
windows2007
visual studio 2005
visual studio 2010 express
892デフォルトの名無しさん:2012/12/12(水) 18:31:40.64
自分で作ればいいと思うの
なんのための開発環境だよ

偉い人には分からない飾りか?
893デフォルトの名無しさん:2012/12/12(水) 19:02:50.87
馬鹿には無理
894デフォルトの名無しさん:2012/12/12(水) 19:21:50.40
>>891
ググったらソースもあるようだし、openCVにもあるようだが…
それに、なんかやりたいならWindowsじゃなくてもできるようにしといたほうがいいよ
895デフォルトの名無しさん:2012/12/12(水) 20:55:31.86
微分ヒステリシスでこんなことできるのかなぁ?
http://mitani-visual.jp/lucis01.html

体験版使ってみたけどすごいねこれ。
どうやったら実現できるんだろう。
なんとなくCany法に似てるけどあれは細線化したエッジだし。
とにかくすごいね。
896デフォルトの名無しさん:2012/12/13(木) 03:11:39.48
ヒステリシスって書いてあるじゃん
897デフォルトの名無しさん:2012/12/13(木) 12:53:12.36
>>896
ばか
898デフォルトの名無しさん:2012/12/13(木) 15:51:54.02
微分ヒステリシスであることが分かっているのだから論文漁れよ
という意味なのでは?
899デフォルトの名無しさん:2012/12/13(木) 15:53:29.88
微分ヒステリシスを応用した結果であって
微分ヒステリシスが本質ではないという事だろ?
こんな頭悪いのはうちの学生にもそういないな。
900デフォルトの名無しさん:2012/12/13(木) 20:35:28.63
ヒステリーになるなよw
901デフォルトの名無しさん:2012/12/13(木) 20:48:33.99
つまり、
日本語が不自由な民族ということですね。
わかります。
902デフォルトの名無しさん:2012/12/13(木) 20:49:20.31
間違った解釈でわかっても将来恥をかくだけ。
903デフォルトの名無しさん:2012/12/13(木) 20:54:12.36
このスレで難しい事を言ってはダメ。
DICOMも知らない人たちだから。
904デフォルトの名無しさん:2012/12/13(木) 21:06:01.93
ヒステリー死す
905デフォルトの名無しさん:2012/12/13(木) 21:28:23.62
>>904
パチパチ!
906デフォルトの名無しさん:2012/12/14(金) 00:43:51.28
>>895は本質じゃないことを応用したって宣伝してるんかいな
へんなの
907デフォルトの名無しさん:2012/12/14(金) 09:01:34.75
ヒステリーは二度死ぬ
908デフォルトの名無しさん:2012/12/14(金) 09:03:22.80
>>907
二つの異なる閾値がうまく表現されているね。山田くーん!座布団二枚!
909デフォルトの名無しさん:2012/12/14(金) 13:19:34.97
>>906
くやしかったら同じようなアルゴリズムを提示時てみろ。
あっちはMITで開発されたそうだがお前はどこの大学?
京大?九州大学?
910デフォルトの名無しさん:2012/12/14(金) 16:06:34.17
馬鹿には無理
911デフォルトの名無しさん:2012/12/14(金) 19:36:40.34
俺の勘違いかも知れんが、>>909 は虎の威を借りかけているように見える
912デフォルトの名無しさん:2012/12/14(金) 20:39:15.69
その認識は間違ってない。
913デフォルトの名無しさん:2012/12/14(金) 21:55:35.65
MITを前に負けを認めてくやしくないのか?
俺はくやしいのう くやしいのう だが。
914デフォルトの名無しさん:2012/12/14(金) 22:10:51.28
最終的にはMITライセンスで作ったプログラムをみせろとか言ってきそうだなw
915デフォルトの名無しさん:2012/12/14(金) 23:07:32.70
ほんとダメ人間の巣窟だな
916デフォルトの名無しさん:2012/12/14(金) 23:33:16.11
画像処理と言っても頭のいい人が作ったアルゴリズムを
訳も分からず利用して、さも自分が作ったかのようにふるまう
似非技術者集団ですから。
917デフォルトの名無しさん:2012/12/14(金) 23:42:47.64
ねえ、どんな気持ち?
        ∩___∩                     ∩___∩
    ♪   | ノ ⌒  ⌒ヽハッ    __ _,, -ー ,,    ハッ   / ⌒  ⌒ 丶|
        /  (●)  (●)  ハッ   (/   "つ`..,:  ハッ (●)  (●) 丶     自演がばれるって
       |     ( _●_) ミ    :/       :::::i:.   ミ (_●_ )    |        どんな気持ち?
 ___ 彡     |∪| ミ    :i        ─::!,,    ミ、 |∪|    、彡____
 ヽ___       ヽノ、`\     ヽ.....:::::::::  ::::ij(_::●   / ヽノ     ___/
       /       /ヽ <   r "     .r ミノ~.    〉 /\    丶
      /      /    ̄   :|::|    ::::| :::i ゚。     ̄♪   \    丶
     /     /    ♪    :|::|    ::::| :::|:            \   丶
     (_ ⌒丶...        :` |    ::::| :::|_:           /⌒_)
      | /ヽ }.          :.,'    ::(  :::}            } ヘ /
        し  )).         ::i      `.-‐"             J´((
          ソ  トントン                             ソ  トントン
                     >>913
918デフォルトの名無しさん:2012/12/15(土) 01:39:12.93
ミーハーだな
919デフォルトの名無しさん:2012/12/15(土) 04:52:06.02
くやしいのう くやしいのう
920908:2012/12/15(土) 08:58:43.93
わーい
921デフォルトの名無しさん:2012/12/15(土) 09:45:04.88
素直に負けを認めないところは明治大学だな?
922デフォルトの名無しさん:2013/01/20(日) 17:18:16.71
超解像度のアルゴリズムって
もう出尽くしてるのでしょうか?
現状あるアルゴリズムで一番動画が奇麗にみえるのって
どれになりますか?
特に人間の顔とかを奇麗に見せたいです
923デフォルトの名無しさん:2013/01/21(月) 04:17:59.66
>>922
んなことはない
動画は、vRevealって製品があるくらいじゃね
924デフォルトの名無しさん:2013/01/21(月) 08:25:28.72
face hallucinationを動画に応用するとか
925デフォルトの名無しさん:2013/01/21(月) 10:19:45.73
今の市販テレビの超解像の処理速度って、専用チップ使ってるとは言え
はえーなーって思うのは俺だけ?
926デフォルトの名無しさん:2013/01/21(月) 11:06:36.53
終わった番組だけどHEY^3がブロックノイズでまくり。
元ソースのせいなのかテレビのせいなのか。
927デフォルトの名無しさん:2013/02/10(日) 01:08:45.27
nintendo 3DSのステレオカメラって
パソコンから使うことってできないのでしょうか
928デフォルトの名無しさん:2013/02/10(日) 09:04:23.15
>>927
3DS1をカメラデバイスとしてパソコンから直接制御することは、
正規の方法ではまだ不可能(非正規の方法は知らん)。

ステレオカメラデバイスを「制御」したいのなら、
安いWebカメラを2台横に繋げて固定するのが手っ取り早い。

1台で済ませたいのなら、こういうのもある。
http://www.picmo.co.jp/product/index.html
929デフォルトの名無しさん:2013/02/28(木) 13:50:01.15
民生品のカメラってSDK公開されてないのがほとんどだよねぇ・・・
PC用のアプリついてるのに制御方法教えてくれないのは、何かあるんだろうか?
930デフォルトの名無しさん:2013/02/28(木) 14:48:39.12
トラブルの元を公開する必要が無いからですよ
わざわざ金と時間を浪費してサポートしなけりゃならない理由なんて一つもありません
931デフォルトの名無しさん:2013/02/28(木) 15:04:39.18
まー面倒なだけか
単価安いしそれを売りにしてもたかが知れてるし本気でやる奴は産業用を買うし
932デフォルトの名無しさん:2013/03/03(日) 11:47:26.28
ユーロファイターもスホーイも所詮は相打ちの戦闘機
確実に相手を殺し自分は生き残る最強無敵の戦闘機
それはF-35ライトニングII !

その恐るべき能力の数々!

DASシステム機能解説 ノースロップ・グラマン公式ビデオ(日本語版)
http://www.youtube.com/watch?v=BMqVkeyGnD8

AESA(エーイーサ) レーダー解説ノースロップグラマン公式ビデオ(日本語版)
http://www.youtube.com/watch?v=_sKEOtvAukE

2012 F-35 Highlights
http://www.youtube.com/watch?v=WPx1A5Rsg10
933デフォルトの名無しさん:2013/03/05(火) 16:42:44.07
FFTW3を使ってFFT->乗算→IFFTでガウス関数で畳み込みフィルターをかけようとしているんだけど
元画像->FFT->IFFTだと元画像に戻るのに
元画像->FFT->フィルタのFFTと掛け算->IFFTだと
第一象限と第三象限、第二象限と第四象限が入れ替わってしまうのはなぜですか?
http://up3.viploader.net/photo/src/vlphoto023603.png
934デフォルトの名無しさん:2013/03/05(火) 16:48:53.74
掛け算に問題があるんじゃね?(小並感)
935933:2013/03/05(火) 20:26:16.73
フィルタ画像は元画像と同じサイズの画像の"中心"にガウス関数を置いていたのですが
左上に置くようにしたらできました
なぜ中心に置くと入れ替わってこれだといいのか分からないですが
936デフォルトの名無しさん:2013/03/05(火) 23:21:12.55
周波数空間像は正負に振れるから原点を中心にするけど、
画像をFFTしたときは原点が左上のままなんじゃね。
937デフォルトの名無しさん:2013/03/06(水) 09:57:21.40
見た目は良くても中心におかないと正しくフィルタされないんじゃね?
938デフォルトの名無しさん:2013/03/07(木) 15:15:12.83
>>936-937
http://navi.cs.kumamoto-u.ac.jp/~koutaki/pukiwiki/index.php?FFT%A4%F2%BB%C8%A4%C3%A4%BF%CA%FD%CB%A1
とやっていることは同じで、この例だとテンプレート(フィルタ)を左上に置いていたから
これでいいのかと思ったのですが
FFTW3の2DFFT出力のフォーマットを理解していないのでよく分からないという感じです
939デフォルトの名無しさん:2013/03/24(日) 22:45:00.43
>>933に答えられるひといませんか・・・
940デフォルトの名無しさん:2013/03/24(日) 22:48:45.19
画像サイズの中心にガウシアンの中心を置いたら、原点からして半分ずれたガウシアンて事になるだろ
941デフォルトの名無しさん:2013/03/25(月) 00:40:47.59
単純にフィルターの位相がずれているだけだと思うよ。位相がずれないフィルター設計は難しいからね。
ifftでも位相を直していたと思う。ifft のかやりにfftで戻してみれば?
942デフォルトの名無しさん:2013/03/25(月) 04:49:57.77
ありがとうございます。
無事解決しました。
943デフォルトの名無しさん:2013/03/25(月) 07:55:51.28
結局fftwのf像はどこが原点だったんだろう……
944デフォルトの名無しさん:2013/03/26(火) 22:48:29.58
神話少女の水面が歪んで見えない部分を見えるように修正できる人いませんか
945デフォルトの名無しさん:2013/03/26(火) 23:16:35.54
>>944
そっと目を閉じて心を静めればロックが解除されるはず
946デフォルトの名無しさん:2013/03/27(水) 11:48:13.28
水面も波長なので、逆変換かければ見えるようになるはず
947デフォルトの名無しさん:2013/03/27(水) 18:07:42.41
そういえばモザイク復元機が良く売れたらしいな
948デフォルトの名無しさん:2013/03/27(水) 20:57:43.74
2次元画像の余分な指定色部分を除去した矩形領域を知る為の技術は何というのでしょうか?

例えば@の画像をAのようにしたい時、つまり余分な白い部分を除去したい時や、
映画の上下の黒帯を除去したい時に使用出来る技術です
@http://uproda.2ch-library.com/650090JYL/lib650090.jpg
Ahttp://uproda.2ch-library.com/650091q34/lib650091.jpg
949デフォルトの名無しさん:2013/03/27(水) 21:11:51.72
トリミングじゃだめなん?
950デフォルトの名無しさん:2013/03/27(水) 21:14:59.86
技術というよりはトリミングって作業よくやらないか

背景色が1色なら簡単でその背景色でないピクセルを含む矩形の集合の差集合(ゲームとかのマスク画像) -> 非矩形

画像をいくつかの矩形の和集合とみなし(究極的にはピクセル)、その矩形に背景色(または指定色)が含まれている(いない)ならば、矩形集合に追加していく
上記の操作を矩形集合に対して矩形の大きさを小さく(大きく)して再帰的に行う
その集合の端の値(最小値と最大値)が求める矩形となる -> 矩形
951デフォルトの名無しさん:2013/03/27(水) 21:20:19.78
画像のライブラリとかはCropのが多いね
Trimは文字列の空白を除外とかには使われてる
自動切抜きのアルゴリズムに名前が有るかは知らない
952デフォルトの名無しさん:2013/03/27(水) 21:32:35.40
一瞬くろまきーって答えそうになった。
カットしたい色が決まっているなら透過しちゃうからないんだよね。なまえ。
953デフォルトの名無しさん:2013/03/27(水) 21:33:57.05
そういえばImageMagick付属のconvertにもcropってあったな
ただ、cropは画像の特定の領域を取り出す感じで、trimは要らない部分(帯状のベタ部分)を取り除く感じ
954デフォルトの名無しさん:2013/03/27(水) 22:22:18.48
>>944
http://www.murase.nuie.nagoya-u.ac.jp/~murase/pdf/695-pdf.pdf

これのプログラムってどこかにないの?
955948:2013/03/28(木) 11:54:54.53
>>949-953
余分な領域の判別技術に特定の名前は無いようですね

自作プログラムにこの技術を用いた機能を盛り込もうと思い、
解析ライブラリなど無いか調べようと思ったのですが、
どう調べれば良いのか分からず質問させて頂きました

ただ、cropと言う単語で下記ページを知ることが出来ました
コチラを参考にコードを書いてみようと思います
ありがとうございます!
http://stackoverflow.com/questions/7083853/simple-algorithm-to-crop-empty-borders-from-an-image-by-code
956デフォルトの名無しさん:2013/03/28(木) 16:45:55.27
GraphicDesigner系はトリミングって言ってる気がする
957デフォルトの名無しさん:2013/03/29(金) 19:35:52.65
画像処理はかじったこともないけど質問があるので教えてください

bmpの画像の拡張子をjpgにしても普通に再生できちゃうんだけど
どうしてなの?
画質の劣化は目で確認できないどあるのでしょうか・・・?
958デフォルトの名無しさん:2013/03/29(金) 19:46:07.05
>>957
拡張子を無視してファイルのヘッダの情報を見てるとか
その再生ソフト次第だろな
959デフォルトの名無しさん:2013/03/29(金) 22:44:22.95
拡張子なんてただの飾りです。偉い人にはそれがわからないのです。
ファイルには大抵マジックってのがあってな云々
960デフォルトの名無しさん:2013/03/29(金) 23:55:17.44
>>957
釣られたクマー
再生ソフトがどちらも対応してるからだよ。
961デフォルトの名無しさん:2013/03/30(土) 10:50:14.12
実はOSがMacでした
962デフォルトの名無しさん:2013/03/30(土) 11:07:26.53
今はどうかしらんが、IEなんかも拡張子見てないし
963デフォルトの名無しさん:2013/03/30(土) 11:45:33.42
>>957
・画像表示ソフトによっては拡張子をあてにせずにファイル内のヘッダを見て判別する
・エクスプローラで名前を変えたくらいでファイルの中身は変わらない
964デフォルトの名無しさん:2013/03/30(土) 18:49:39.40
画像処理とはちょっと離れちゃうかもですけど教えてください。

2次元に得られた強度なんかのデータから2次元画像を生成する
(マッピング?)場合、例えばデータが[0,1]区間の実数だったら
例えば0を青、0.33が黄色、0.66が赤、1が白とかの色に変換したり
したいのですが、定石とかありますでしょうか?

ググリたいのですが、キーワードとか教えていただけないでしょうか。

よろしくお願いします。
965デフォルトの名無しさん:2013/03/30(土) 19:14:40.60
>>964
定石なんかない。

例えばそれが温度だったら、0を青、0.66が赤とかでいいだろうけど、
強度が低いほど危険な状態を表しているのなら、0の方を赤にすべきだろう。

そういう事を考えずに、適当に色分けしたいだけなら、「色相環」でいいんじゃね。
966 ◆QZaw55cn4c :2013/03/30(土) 20:25:14.39
>>965の方針でいけば、HSV色相間を通じてRGBに変換するのがお手軽じゃないかな?
967デフォルトの名無しさん:2013/03/30(土) 21:13:27.62
ここにもQZが現れたか
みんな逃げろー
968964:2013/03/31(日) 10:08:20.67
ありがとう。
色相環ですね。
勉強になります。

最初と最後を黒と白にしたい場合とかは、場合分けで対処、例えば
I<0.1      -> f(I) =黒から青
0.1<= I < 0.9 -> f(I) = 色相を動かす
I < 0.9     -> f(I) = 赤から白
とかするのでしょうか ?

厚かましくさらに質問なのですが
色相を動かすとき、青から緑をすっとばして黄色に持って行きたいのですが
連続的に自然な感じで変化させるよい手法はありませんでしょうか ?
969デフォルトの名無しさん:2013/03/31(日) 10:35:31.58
>>968
> 最初と最後を黒と白にしたい場合とかは、
> ・・・
> 青から緑をすっとばして黄色に持って行きたいのですが

スプラインなんかで補間すればいいんじゃね。
もしある決まった値で決まった色を必ず使いたい(その間は滑らかに補間)のなら、
カットマルロム補間とかベジェ補間を使えばいいだろうし。
970デフォルトの名無しさん:2013/03/31(日) 10:40:22.97
好きな色合いでやりたいならテーブル引きで十分じゃね?
テクスチャとして外部で作成しておけばいいし
971デフォルトの名無しさん:2013/03/31(日) 11:20:55.51
緑を経由しないんだったら色相環を青→紫→赤→黄色の方向にたどればいいんじゃないかな。
途中、彩度を変えてもいいんならある程度自由な経路を選べるけど。
972デフォルトの名無しさん:2013/03/31(日) 20:28:56.25
>>954
児ポルノの単純所持が規制されそうだし
早めにだれかやってくれないものかのう
973デフォルトの名無しさん:2013/03/31(日) 22:37:06.80
>>969
黒→青→黄色→赤→白なら、
0, 0, 0,
0, 0, 1,
1, 1, 0,
1, 0, 0,
1, 1, 1,
の間を補間するだけでもそれなりになるよ。
974デフォルトの名無しさん:2013/03/31(日) 22:43:05.02
>>973
いや、だから「自然な感じで変化させる」のが望みなら
補間法にBスプラインとかカットマルロムを使えば、という話だ。
>>969 は B が抜けてたな)

自然な感じでなくても良いなら、線形補間で十分だと思うよ。
975デフォルトの名無しさん:2013/03/31(日) 22:45:47.38
>>973
それ、青と黄色の間で灰色になるよ。
976デフォルトの名無しさん:2013/03/31(日) 22:48:08.81
補間方法が何であれリニアRGB空間で処理しないと自然な感じにはならなくない?
977デフォルトの名無しさん:2013/03/31(日) 22:52:55.74
>>968
>青から緑をすっとばして黄色に持って行きたい
中間ではどんな色を想定しているのでしょうか?私は緑以外を想像できない‥‥
978デフォルトの名無しさん:2013/03/31(日) 23:28:17.21
マジェンダでいいんじゃね?
979デフォルトの名無しさん:2013/04/02(火) 06:20:23.02
青から緑を経由しないで黄色なら、彩度を維持するとマジェンタしかないね。
彩度を無視していいなら>973の要領でグレイを経由するとか。
980デフォルトの名無しさん:2013/04/02(火) 10:26:10.96
馬鹿ばっか
981964
みんなありがとう!!

みんなが教えてくれた知識をもとに
(自分にとって)もっとも自然な経路を模索してみるよ。

サンキューな!!