連番のH画像を一気にダウンロードする

このエントリーをはてなブックマークに追加
806名無しさん@お腹いっぱい。
保守
807名無しさん@お腹いっぱい。:04/08/22 21:52
wget使ってdlするスクリプトを書いてるんだけど、どうもcookieの処理が上手く出来
ないんだけど、だれか解決方法知らない?

index取得時にUIDとSIDをsetされるので、imageをgetする際にその両方を送れば
いいだけなんだけど、なぜかwgetだとUIDしか送ってくれない。
http://office-lady.net/office/cute/album1.html
ここの画像ってどうすればgetできますか?
wgetプロの方、おながいします。
wget で適当な --referer を指定して、zsh で
http://office-lady.net/office/cute/images/img0{01..18}.jpg
あとは自分でいろいろ調べてみてください。
>>807
指定するときにセミコロンでパラメータをセパレートするんじゃないの?
ひょっとしたらwgetの場合cookieなんかだと、複数のパラメータセットが
あった場合、全部追加されるのかもしれないけど。
#まあキャプチャすれば直ぐ判ることだが。
811名無しさん@お腹いっぱい。:04/09/09 01:30
保守
>>812
--header=REFERER:と等価な--refererが最近のヤツだと使えるようになってる。
{}の展開、以前上手く動かなくて使ってないのだが、俺の勘違いだったのかな。
今度試してみよう。
>>813
cshが勝手にはぎ取っているという落ちでないの?
echo {01..18}
の結果は?
>>814
ああ、やっぱりシェルの展開機能なのね。
普通にsh(bash)でした。
このスレのあちこちで、しつこく zsh って書いてあるのに…
curlにはそういうiriaライクな構文があるよね。
>>816
いや、zshに展開機能があるのは知ってるんだけど
wget自身にパラメータの展開機能が盛り込まれたのかと思ったんだよ。
シェルにあるような機能を取り込む必要もないのかもしれんが、
ある意味zshって特殊(スタンダードではない)だから。
まあログインシェルぐらい時々で変えれば、つう考えもあるな。
>818
展開は shell が面倒見てその結果をアプリケーションに渡すのが Unix 的思想。
>>819
んじゃ、もう一方のUnix的な思想で
展開機能のないシェルで展開させるために使うフィルタで
お勧めなのは何かある?今はawkでやってるんだけど。
(zshのスクリプトでというのは取りあえず無しで)
>>820
おまえ アホ だろ.
822820:04/09/11 03:06:57
>>821
多分指摘のとおりアホなんだと思うけど、
アホ故に、どの辺りをもってしてアホなのかが判らん。
ズバっと明確に切ってくれ。
zshのスクリプトでいいじゃん。
車輪の再発明はイラネ
url を切り出すスクリプトと
wget を 50 個くらい平行して走らせるスクリプトだけで
オナニーするには困ってない.
>>820
まったくスレ読まないで書くから外してるかもしれないけど。
curlは自前で展開してくれる。そっち使えば?
えっと、aria は4系でも動かないの?
もう疲れました。自分なりにwgetのオプションを色々と試してみたんですが。
ttp://bbs.coolnavi.com/16627/10674p8.の中の画像をwgetで落とすことが
できません。

どうか、先生方のお知恵をお貸しください。お願いします。
被写体が♂だったらやったんだけどな・・・
工エエェェ(´д`)ェェエエ工
苺きんたまの画像をゲットした時は

#!/bin/sh
cat input |grep "http://v.isp.2ch.net/up/" >output
sed 's/http/ttp/' output > tmp
sed 's/ttp/http/' tmp > tmp2
sed 's/JPG/jpg/' tmp2 > tmp3
awk '
{print "wget " $1}' tmp3 >temp
chmod 700 temp
./temp
mv *.jpg images

こんな感じ。お好みでwhileして?p=1・・・p25までゲットとか。
無限roopで問題なかった。1つのcgi落とすのに10分以上かかったから。
sedが冗長な感じだが足りない頭じゃこんなものしか書けなかった。
誰かもっと簡潔な「よい見本」きぼんぬ。
あーごめん。これじゃなかった。

#!/bin/csh
@ i = 1
while ($i <= 2)
date >>history
wget "http://up.isp.2ch.net/upload/c=03okari/index.cgi?"
cat "index.cgi" |grep jpg >list
awk -F\" '{print "wget -U hiroyuki http://v.isp.2ch.net" $2}' list >test
cat test |grep jpg >test2
chmod 770 test2
./test2
awk '{print $4}' test2 >>listtmp
sort -i listtmp |uniq >getlist
mv *.jpg jpg3
rm "index.cgi"
@ i = 1
end

こんなん。これも良い見本きぼんぬ。
832名無しさん@お腹いっぱい。:04/10/22 13:36:38
age
833名無しさん@お腹いっぱい。:04/11/05 19:21:13
保守!
なんて息の長い祖レッドなんだ。
835833:04/11/05 19:45:55
見つけてしまいました、こんなスレ。今からzsh入れます!
すげー。ありがとみなさん!ノシ
このスレ21世紀の始まりから生きてるのか
838名無しさん@お腹いっぱい。:04/11/11 21:10:37
エロは性器を超える
839名無しさん@お腹いっぱい。:04/11/11 21:37:36
http://page11.auctions.yahoo.co.jp/jp/auction/n9933154
このダウンロードソフトって使った人います??
wgetに画像だけ-ncの動作をするオプションを追加して使ってる。
時間の入った連番画像が主の時には、-N使うよりは動作は速いし鯖負荷も多少は減るんじゃ無いかな。
wget --no-clobber-imageで。

begin-base64 644 -
H4sIAN3lpUEAA7VXaW/bRhD9LP2KqYDakiXRJHXLMGoHkQsjTh04aYECAViK
XInbkLsEd+kDaf57Zw8dtCTXCVDBMMXZ92aPeTM7iuliAd2iBMc5fVgS2fWc
ieOdiiI6TaTMnQj2Wuvdbvcgpea7bq/ruV1vAO542vOn3sBxVx9ouxPXrbfb
7f2uFbvf9byuPwDfnw5GU7fvjPqD0WCLfXEBXW/Y9zpDaOunN4GLizqYT0Fk
WTC4m326u313Zqzf6lBvA9AFNHkuHcajlM/npKBZuCRwdARJKAL9EohysaCP
QQ7Nk0TIUDopj8I0WNCUtBRSfQnIIxVS7Ae11EwAX80D4PQErhdQmRaoALVI
EgNnELJYe4UwLUgYP4Hx3oGYA+Oy3q6pPRWU3BOQCTHYk9OV/5Qv84IyiXu7
uf01+GN29+b246wDQbPxud6+1jv862dxvHaPPgrSgQeapsr/2rnzmTVaHdjd
0Vl1K+s1qF1YXwREmedcoFEei7XLGG7fObC12JNYwj/nNjhX6Hg1cHU3mwXv
L/98M4NmXGbZ02bWZwFtm4C2VWRLQQIp4BxcHehVfCXNCG4iyylbtowCvtbj
w2KnjMpdsRvrAbGbwY3YPStXz3uN2DdsI3YPvOHUH0y9oTMcDP0dsY98rXV8
jKzSv0Ijo0XBi0anVvvt95sbfNSiLA5ETqLADMG3joUyjEekkEdah+qtY+Bz
zlMSsi3oSqQIP6qodpfRrjJ0Au3QtLVzaLI8LAiTm6XxwFgOLy8v+ONThaAM
Fn9PIlnZeJkpJYoNXhYrLI7h8gLKFohHacckL0gUShKjXl9QSxZStqsWYz2g
FjP4o2rZsLfVMpz2Rs544hq5bKnFH0+UWtRjtK6LeBZ0yXhBuilhS5k0Opj7
QVgsy0ydNmgJgdcb27OrKGwf9Dg73oYy3l3rZq/nvmcV8wzetarZSxp7z+aI
aaEjrEO6f57RM0rChXwNb7yPl3L+pcwPUAauoqgjH/aG6siHvVHHXEW1KMRa
6I3dKX4HEESi+O7DFJqNiDOGa1E1ipeofHU1oGusdwo5xxr9BYvcyoE3VfW/
4uB5vkGDY+E+0zhLt/MfXx7vzh9GEckPzfuC7BFOORNO8lye64ED4l+P/6j+
Kw62u4Ph1HWd/mS3OxgMVDjw/9gmAN6PEMZxoIKKWjir1TDh33J1caEZlJmF
GYGVTp5+UZeWJa4P3NKoCOcpEbAKA1sCX5hbG7/jceIHqXEoQ8fefRU3Om6v
89W2vjTFsWuKkrDAm5QWWPoINivG1Se8ljHKir7eBciCkAorVTe32qoh3fAl
rCwVHGV5KYMq+FrZKvAX5FJKmordMmnNB6RiR9dC8Xvge1NV7V4llC16VSa9
seP6owpdyWTi9ZVO1MNfKcV2G6qh0F0jRq7e3tceYh4LaU9roQ4EGz/d9BkT
Am17o7qSJr5im2LY0DT4Fpyf61piW8bN1Jb1k8CLGhM5ynA+5GKq/50vG60q
3nsZT/5nQs6+D7+ki+/Cz7N8P37ruHQ7iAq9wwYXQkgpwxa14BlcfdDttYWq
zjXnGFFswSVHBBFJ+oSNsWp28d7X5V9g4uhk0xll30DkYaQ7Xj6XeB1jZyuT
gpfLBDJNb7b0RCLhZWr8zNUSCAIfqEz0V8Q8JIRhi6wcMY6tO1viUhiiSOz8
dzbtlF5rfjGbfrjsbtG3+g78c7FLNT1qJZvGOpnwv0mlui56KnMSmaWbxPlw
eXf5/iOmxHYCtdQ1pJNt30+xgxSMunlRv2yChwSbxUAHf824ur6ZWfcorTIy
9SvISKbKo+HpHzOHl3XPqVKQBQYqkhv0PqeK9S+tiE0GWw8AAA==
====
hoshu
ちょっと保守しますよ。
ほっしゅっしゅ
845名無しさん@お腹いっぱい。:04/12/26 03:27:28
初心者です。
ttp://aurelie.no-ip.info/~mangahentaipro/Hentai/Box/images/001.jpg
を196まで一括で落としたいんですが。
なるべくわかりやすい方法を教えて下さい。
すみません。
847名無しさん@お腹いっぱい。:04/12/26 03:49:49
zsh、wgetはどこでインストールできますか?
あの・・・zsh、wgetって何ですか?
ほんとにすみません。




http://www.zsh.org
http://www.gnu.org/software/wget/wget.html

あとは自分で調べてください。
850名無しさん@お腹いっぱい。:04/12/26 04:30:24
>>848
ありがとうございます。

>>849
ありがとうございます。地道にやってみます。
ちなみに同時押しって何ですか?
>851
それだとシェルが展開しようとして変なことが起きるから、適当にクォートすべきだな。
おまいら御用達のwgetの
http://www.st.ryukoku.ac.jp/~kjm/security/memo/2004/12.html#20041220_wget
って、まだ直ってないんでしょうか。
854名無しさん@お腹いっぱい。:05/01/05 01:31:19
>>853
はい。
4周年記念日
でもsage

>>380
ttp://search.mse.co.jp/cgi-bin/ip_dom-2/ipsearch.cgi
エロサイトじゃないけど、何なのかもよく分からん。
856名無しさん@お腹いっぱい。:05/01/29 14:47:08
857名無しさん@お腹いっぱい。:05/01/29 16:18:15
>>856
デムパ キタ━━━━━━(゚∀゚)━━━━━━ !!!!!
phpとか使われるとわけわからん。落とせん
perlスクリプト使え
860名無しさん@お腹いっぱい。:05/02/02 16:27:08
( ゚д゚)ポカーン
ttp://www.melon-peach.com/

ここの画像、どうにかしてぶっこ抜けませんか?
862名無しさん@お腹いっぱい。:05/02/03 16:27:47
ネトラン厨(・∀・)カエレ!!
863861:05/02/06 13:01:24
ネトラン厨じゃないのに・・・
(つД`)・゚・
>>863
>>41,578 とか参考にならない?
>>861
重杉
wgetかcurlで
http://nylon.hostfuck.com/index01.html
の画像を落とすスクリプトを書いてください
>866
ちょっとは自分で勉強することも覚えてはいかがですか。
>>866
#!/bin/sh
wget -r -l1 "http://nylon.hostfuck.com/index01.html"
mkdir gazou
mv *.jpg *.bmp *.tif* *.x*m *.gif *.rgb *.psd *.eps *.wmf gazou
rm ./

無保証。

403喰らう悪寒。-Uでしっかりと騙るのがベターかも。。。
二次元には興味なし。でも
2次元か
while(<>){
 m/num=([0-9]+)&type=([a-zA-Z]+)[^0-9]*([0-9]+)/ and system "wget".
  " --output-document='$3.$1.$2'".
  " --header='Cookie:num=$1;type=$2'".
  " http://nylon.hostfuck.com/nylon.php".
 "\n";
}
×&
○&amp;
Perl?
漏れはこんなスクリプトでやってみた
for n in {28672..32767}; do
[ -f $n.jpg ] && continue
wget --header="Cookie: num=$n; type=jpg" --output-document=$n.jpg \
http://nylon.hostfuck.com/nylon.php
done

ほんとは連番じゃないので
ちゃんとやりたかったら番号はこんなかんじで抜き出せばいいかも
w3m -dump_source \
http://nylon.hostfuck.com/{,index0{1..7}.html} |\
ruby -e 'while gets; $_.sub(/image.php\?num=(\d+)/) do puts $1; end end' |\
sort | uniq
無駄が多いな、このサイト。
                 l           l
                 J           l
                           J

さわったら負けかなと思ってる。
成功した?
セルフプレジャー保守
879名無しさん@お腹いっぱい。:2005/04/04(月) 23:44:21
初心者スレから誘導されてきました。
連番のzipファイルを一気に解凍する方法はありますか?
001.zip 002.zip 003.zip
今はひとつひとつunzipしてます。既出だったらすみません。
教えてくれたら、こころを入れ替えてスクリプト勉強します。
880名無しさん@お腹いっぱい。:2005/04/04(月) 23:45:58
unzip {001..100}.zip
881名無しさん@お腹いっぱい。:2005/04/04(月) 23:53:44
for i in *.zip; do unzip $i; done
でもいいんでないかい?
882名無しさん@お腹いっぱい。:2005/04/05(火) 00:14:01
echo *.zip | xargs -n1 unzip
883名無しさん@お腹いっぱい。:2005/04/05(火) 00:42:16
unzip は自前でワイルドカードを処理するのでほかに zip ファイルがなければ

unzip \*.zip

でどうでしょう。
884名無しさん@お腹いっぱい。:2005/05/30(月) 16:25:28
うほ
885名無しさん@お腹いっぱい。:2005/06/14(火) 20:55:22
altemisweb.jpから落とせる方法をご存知の方、いますか?
そもそも普通にw3mとかでも開けないのですが。

たとえばttp://s1.artemisweb.jp/kto11/main.html
からいけるページなど。
886名無しさん@お腹いっぱい。:2005/06/14(火) 21:12:18
wget -m --cookies=on --user-agent="Mozilla/4.0 (compatible; MSIE 6.0; Windows 98)"

とかじゃだめなの?


887名無しさん@お腹いっぱい。:2005/06/14(火) 21:15:53
>>886
UAとrefererは指定してもだめです
cookieはためしてないけど、w3mでさえページを開けないってことはcookieじゃなくて
JavaScriptが効いてないとだめなのかもしれない希ガス
888名無しさん@お腹いっぱい。:2005/06/14(火) 21:45:27
>>887
リファラ送ったら普通に落ちてきたぞ?
wget --referer="http://s1.artemisweb.jp/" \
http://s1.artemisweb.jp/kto11/room-01/main.html
889名無しさん@お腹いっぱい。:2005/06/14(火) 21:52:29
>>888
そうすか?
私のところでは、w3mでもwgetでも、特定のバイト数を読み込んだところで
ブロック状態になります。で、しょうがないからctrl-Cで終了させると、
IEで取得可能な全てのファイルは落とせていない。

そっからもぐってたどれる画像に関してはまったく無理です。
890名無しさん@お腹いっぱい。:2005/06/14(火) 21:53:16
> IEで取得可能な全てのファイルは落とせていない。
わかりにくい言い方でした。
当然ですが割り込みで入力を停止させてるので、partialなファイルに
なっちゃってるってことです。
891名無しさん@お腹いっぱい。:2005/06/14(火) 21:54:53
Referer以外チェックしてないみたいだけど

% wget --referer=http://s1.artemisweb.jp/ \
http://s1.artemisweb.jp/kto11/room-01/267_track_04/267_shizuku_tsukino_2_084.jpg

HTTP による接続要求を送信しました、応答を待っています... 200 OK

% wget http://s1.artemisweb.jp/kto11/room-01/267_track_04/267_shizuku_tsukino_2_084.jpg

HTTP による接続要求を送信しました、応答を待っています... 403 Forbidden

Refererを送るにはm(r?)オプションをつければいいので
これで全部ダウンロードできると思う

wget -m -np -L http://s1.artemisweb.jp/kto11/main.html
892名無しさん@お腹いっぱい。:2005/06/14(火) 22:01:51
>>891
え??
それで、ちゃんと最後までおちますか?
私のところではブロックしてしまうのですが。

何が悪いんだろう。
893853:2005/06/15(水) 01:38:59
894名無しさん@お腹いっぱい。:2005/06/15(水) 09:16:17
wgetばーじょんうpあげ
895名無しさん@お腹いっぱい。:2005/06/15(水) 22:25:56
>>885
uname -v および wget --version を晒してみ
896名無しさん@お腹いっぱい。:2005/06/16(木) 01:47:37
>>895
FreeBSD 4.7-RELEASE
GNU Wget 1.8.2
897895:2005/06/16(木) 22:21:11
>>896
すまぬ,予想外れた.
Darwin Kernel Version 7.9.0 だと OS X 添付のwget (version失念) で --referer
オプションが働かなかった.
>>891 末尾の方法では html は落ちたが jpeg は 403.
出来心で GNU Wget 1.10 のソース落としてインスコしたところ
wget --referer=http://s1.artemisweb.jp -m -np -L http://s1.artemisweb.jp/o11/main.html
で落とせた.たぶん参考にならないが一事例としてカキコ.
898名無しさん@お腹いっぱい。:2005/06/16(木) 22:27:31
thx. とりあえずニューwgetで試してみることにしますわ。
899名無しさん@お腹いっぱい。:2005/06/22(水) 10:07:33
% ls .thumbnails/normal | wc
3643 3643 134791
% du .thumbnails/normal
84000 .thumbnails/normal

('A`)
900900:2005/06/26(日) 09:34:26
900
901名無しさん@お腹いっぱい。:2005/06/29(水) 02:00:46
すみませんこのサイトの画像取れません…ttp://loface.com/pic_sum.php?p=kakyu2
(サムネイルを拡大にするには、topページでクッキーを取得する。→http://loface.com/?e=35)

自分は色々やりました。例えば
wget -r -A .jpg -nd ttp://loface.com/pic_sum.php?p=kakyu2
こんな感じでやってみましたが、どうもダメ…
どうかご教授下さい。
902名無しさん@お腹いっぱい。:2005/06/29(水) 02:21:00
お前は基本がわかってないから無理
903名無しさん@お腹いっぱい。:2005/06/29(水) 02:59:38
>>901
ヒント: wget --header="Cookie: kokoni hairu mojiretu wo nanntoka shutoku shiro"
904名無しさん@お腹いっぱい。:2005/06/29(水) 21:09:33
>>901
日本語も学びなおしたほうがよかろ
学問でも技芸でもなく、単なる方法を知りたいのなら
×教授ください
○教示ください
>>903
それはヒントどころか答えでは・・・w
905名無しさん@お腹いっぱい。:2005/06/29(水) 23:51:29
空気を読んだ方がよかろ
単なる抜く画像を知りたいなら
×助教授ください
○女教授ください
906名無しさん@お腹いっぱい。:2005/06/30(木) 07:07:50
10秒に1アクセスの制限もあるな。
907名無しさん@お腹いっぱい。:2005/06/30(木) 09:58:10
>>901
初心者だけど過去ログを見ながら挑戦してみますた

curl -H "ここにくっきー文字列" -o kakyusei#1.jpg "http://loface.com/pic.php?img=kakyusei[001-879].jpg&pic=kakyu2"

又は…

for num in `seq -f %03g 1 879`; do
wget --header="ここにくっきー文字列" --output-document=kakyusei${num}.jpg \
"http://loface.com/pic.php?img=kakyusei${num}.jpg&pic=kakyu2"
done

これで全部ぶっこぬけると思うヽ(´ー`)ノ
908名無しさん@お腹いっぱい。:2005/07/02(土) 19:04:53
なんか最近は DCGA ってのばっかりでスルーばっかりだよ。
909901:2005/07/03(日) 00:05:10
>>902
そんなorz

>>903
クッキー文字列のことですか?

>>904
っう…スミマセン

>>905
○女生徒ください

>>906
それどういう意味ですか?

>>907
うーん上手くいきません?何ででしょう
910名無しさん@お腹いっぱい。:2005/07/03(日) 02:49:12
>>909
つ Firefox + Live HTTP headers
911906:2005/07/03(日) 09:29:12
>>909
そのままの意味。連続アクセスするとjpegの代わりに「10秒まてこの早漏」と返してくる。
hint: wget --load-cookies=foo --save-cookies=foo --keep-session-cookies
912901:2005/07/03(日) 15:47:34
お騒がせしてすみません、解決できました。

wget -r --header="cookie: Cookie: PHP_DAYCOUNT2=<省略>; lf=<省略>" http://loface.com/pic_sum.php?p=kakyu2

で出来ました。今まで出来なかったのは『PHP_DAYCOUNT2』が抜けてただけみたいですorz
>>910さんが指摘した『Live HTTP headers』で気がつきました。

どうも有難うございました。

>>911
レスしてくれて有難うございます。
913名無しさん@お腹いっぱい。:2005/07/17(日) 01:12:56
age
914名無しさん@お腹いっぱい。:2005/07/17(日) 01:21:26
まだあったのな、このスレ。
915名無しさん@お腹いっぱい。:2005/07/17(日) 01:39:56
UNIX板での良スレ
916名無しさん@お腹いっぱい。:2005/07/31(日) 12:29:53
エロいおまいら 画像ビューワ のお勧め教えれ。

xv? gimageview? gqview? 他?

ディレクトリ一覧の時に、そのディレクトリの中の画像が
アイコン一覧みたいに見えるやつキボンヌ。
917名無しさん@お腹いっぱい。:2005/07/31(日) 13:32:21
またこいつか。
918名無しさん@お腹いっぱい。:2005/07/31(日) 14:37:59
>>916
explorer
919名無しさん@お腹いっぱい。:2005/07/31(日) 15:06:24
>918
ports には見当たらないね。
ぐぐってもどれがどれやらワカラン。

>917
?
920名無しさん@お腹いっぱい。:2005/08/01(月) 02:33:50
ネタにマジレスか
こりゃヒドイ
921名無しさん@お腹いっぱい。:2005/08/04(木) 06:20:35
kuickshow つかってまつ
922名無しさん@お腹いっぱい。:2005/08/04(木) 14:52:57
paint
923名無しさん@お腹いっぱい。:2005/08/13(土) 11:44:34
>>919
C:\Windows\system32\explorer.exe
924名無しさん@お腹いっぱい。:2005/08/25(木) 21:53:35
gthumbかな?
925名無しさん@お腹いっぱい。:2005/08/26(金) 09:57:59
926名無しさん@お腹いっぱい。:2005/09/02(金) 22:15:47
例えば、リストの内容が
http://www.unko.jp/~chinko/[000-026].jpg
http://www.manco.jp/anal/gay[00-26].jpg
みたいなファイルがあったとしてこれを展開してwgetなりに渡すにはどんなスクリプト書きます?

自分が深く考えないで書いてみたのは
cat < list | sed 's/\(.*[^0-9]\)\[\([0-9].*\)-\([0-9].*\)\].*\.\([^.]*\)$/\1 \2 \3 \4/g' | awk '{printf("echo %s\{%s..%s\}.%s\n", $1, $2, $3, $4)}' | zsh -s | tr ' ' '\n'
で、最初のsedでアドレス、開始の番号、終わりの番号、拡張子を分けて、awkでzshのスクリプト書いて最期にtrで改行入れてるんだけど、どうかな?
添削よろしくです。
927名無しさん@お腹いっぱい。:2005/09/02(金) 22:23:05
やりたいことがよくわからんが、
スカトロでホモって事はわかった。
928名無しさん@お腹いっぱい。:2005/09/02(金) 22:40:51
>添削

読めない
929名無しさん@お腹いっぱい。:2005/09/03(土) 00:47:22
zsh知らんけど、添削するなら
sed 's/¥[¥([0-9]*¥)-¥([0-9]*¥)¥]/{¥1..¥2}/g; s/^/echo /'
とか?

ただ自分なら、zsh使うくらいなら perlとかで、置き換えながらぐるぐる再帰使って回すかなぁ。
930名無しさん@お腹いっぱい。:2005/09/03(土) 01:19:04
>>928
「てんさく」って読むんだYO!
931名無しさん@お腹いっぱい。:2005/09/03(土) 01:24:12
>>929
アーナルほどsedで開始と終わりの番号を別のフィールドにわけないでzshの{..}の形にすればいいのか。。。

坂本文のたのしいUNIXで勉強したてなんでsedとawkくらいしか知らないのでできればperlで
書いていただけませんか?
932名無しさん@お腹いっぱい。:2005/09/03(土) 02:07:02
933名無しさん@お腹いっぱい。:2005/09/03(土) 04:01:09
wgetなりってことなので curl 使ってもいいんですよね
934名無しさん@お腹いっぱい。:2005/09/06(火) 18:40:22
>931
雑だけど。
#!/usr/bin/perl -n
sub ren {
 $_ = shift;
 if (/¥[(¥d+)-(¥d+)¥]/) {
  my ($a,$b,$fst) = ($`,$',$1);
  foreach $i ($fst..$2) {
   ren($a . sprintf("%0*d",length($fst),$i) . $b);
  }
 } else {
  print;
 }
}
ren($_);
935名無しさん@お腹いっぱい。:2005/09/06(火) 19:31:13
Perlの場合、マジックインクリメントに頼れば

#!/usr/bin/perl -n

if (/^(.*)\[(\d+)-(\d+)\](.*)$/) {
for ($2..$3) { print "$1$_$4\n"; }
} else {
print;
}

でいい気がするけど
936934:2005/09/06(火) 19:48:05
ついでにbash

shopt -s extglob

function ren {
case $1 in
*¥[+([0-9])-+([0-9])¥]*)
set -- $( echo "$1" | sed 's/¥[¥([0-9]*¥)-¥([0-9]*¥)¥]/ ¥1 ¥2 /' )
for i in $( jot -w"%0$(echo -n $2|wc -c|tr -d ' ')d" - $2 $3 1 )
do
ren $1$i$4
done
;;
*)
echo $1
;;
esac
}

while read s
do
ren $s
done

>935
Perlまかせにすると、[00-10]とかができなかった。
937名無しさん@お腹いっぱい。:2005/09/06(火) 19:58:54
>>936
ちょっと試した感じだと、00みたいに偽値と判断されるやつがダメみたいね。
01-10とかだとオッケーなんだけど。
938名無しさん@お腹いっぱい。:2005/09/14(水) 19:01:44
連番のH画像を諦める勇気ってのも僕には必要なんだ。

エロ画像
 いくら取っても
     無くならず
  取るだけ取って
    それでおしまい

お世話になりました。
939名無しさん@お腹いっぱい。:2005/09/14(水) 20:28:42
今度は、ため込んだ画像を削除する勇気だな。
940名無しさん@お腹いっぱい。:2005/09/14(水) 22:08:56
画像から動画へステップアップする勇気も必要だ。
941名無しさん@お腹いっぱい。:2005/09/15(木) 09:12:22
取り敢えず200MくらいのHDDを6個くらい買ってくる勇気
942名無しさん@お腹いっぱい。:2005/09/15(木) 16:43:35
200Gの間違いじゃないのか
943名無しさん@お腹いっぱい。:2005/09/15(木) 19:47:59
200Gを6個買うのよりも200Mを6個買う方が勇気いると思う。
944名無しさん@お腹いっぱい。:2005/09/19(月) 17:01:24
ワロタ
945名無しさん@お腹いっぱい。:2005/09/22(木) 10:04:37
動画話に進出したついでに。

小さいスクリーンショットを一枚にまとめるのに
良いツールって何かありませんか?

散々既出の連番ゲットしたあとにちまちま
convert +append
convert -append
ってやってまつ。

こういうのってどうやってるんだろ:
ttp://www.aventertainments.com/jp/Product_lists.aspx?product_id=9200
946名無しさん@お腹いっぱい。:2005/09/22(木) 19:15:37
使ったこと無いけど、montageはどうかな?ImageMagic系。
http://www.cit.gu.edu.au/~anthony/graphics/imagick6/montage/
947名無しさん@お腹いっぱい。:2005/10/15(土) 14:53:52
アルテミスでGNU使ったら、串刺してたのに生IPごと弾かれたorz
948名無しさん@お腹いっぱい。:2005/10/15(土) 15:10:03
↑今年最初に見た馬鹿
949名無しさん@お腹いっぱい。:2005/10/15(土) 16:36:25
950名無しさん@お腹いっぱい。:2005/11/04(金) 18:45:08
このスレのまとめサイト作っていいですか?
951名無しさん@お腹いっぱい。:2005/11/04(金) 19:25:36
よろしく
952950:2005/11/05(土) 18:30:02
>>950
テキトーにつくってみました。
http://seizen.dyndns.org:8080/matome/

ちなみにおいらはperl+sh派です。
953名無しさん@お腹いっぱい。:2005/11/06(日) 00:52:21
だよもん..
954名無しさん@お腹いっぱい。:2005/11/06(日) 02:08:37
このスレで
tp://www.464.jp
の連番ダウンロードできた人いる?
955名無しさん@お腹いっぱい。:2005/11/06(日) 08:03:56
>954
さっき試してみたけどできたよ
しかしこれ画質悪いな
956名無しさん@お腹いっぱい。:2005/11/13(日) 15:05:31
今このスレのノウハウを生かしてVOAのスクリプトとmp3をダウンロード中…。
957名無しさん@お腹いっぱい。:2005/11/14(月) 19:37:17
voaって何かね
958名無しさん@お腹いっぱい。:2005/11/14(月) 21:21:25
Vagina or Anus
959名無しさん@お腹いっぱい。:2005/11/16(水) 22:48:44
>>957
Voice of America です。英語のニュース・サイトの過去ログがターゲットです。
mp3とスクリプトが揃っているので、これをローカル教材として加工しようと思いました。
で、一応落とせたんですが……
http://www.voanews.com/specialenglish/2005-11-15-voa3.cfm

こんな吐き気がするHTMLをどう加工しろと……orz
960名無しさん@お腹いっぱい。:2005/11/18(金) 19:49:09
edなり perlなりで、ばっと<span class="articleheadline"〜</P></span>あたり抜き出して、html2txtみたいな処理かけて、余計なの削るとか。
そういうことではない?
961名無しさん@お腹いっぱい。:2005/11/18(金) 22:10:42
>>960
perl で $html =~ s!!!sig; を何度も繰り返すスクリプト書いて、なんとか読めるHTMLに加工しました。
今は mp3 を wget してます。
このサイト、mp3 は mp3 で命名規則皆無という腐りっぷりです。うへぇ。

ところで質問です。
ちょっと確認してみたところ GNU Wget 1.10.1 のデフォルトのリクエストは

GET /index.htm HTTP/1.0
User-Agent: Wget/1.10.1
Accept: */*
Host: localhost
Connection: Keep-Alive

という内容でした。で、プロトコルを HTTP/1.1 に切り替えるか、
または強制的に HTTP/1.1 と申請してリクエストすることはできますか?
962名無しさん@お腹いっぱい。:2005/11/18(金) 23:45:53
curl使ってみるとか
963名無しさん@お腹いっぱい。:2005/11/19(土) 05:30:52
>>961
どーせPerl使うんならHTML::TokeParserとかその辺のライブラリ使えばいいのに。
高速ではないけどそれなりに便利だよ。
964名無しさん@お腹いっぱい。:2005/11/28(月) 22:50:25
次スレどうしますか?
965名無しさん@お腹いっぱい。:2005/11/29(火) 09:40:42

 ス
  レ
   頼
    ま
     な
      い
966名無しさん@お腹いっぱい。:2005/11/29(火) 16:31:03
頼みcom
967名無しさん@お腹いっぱい。:2005/11/29(火) 18:27:16
>>977までは粘れると思われ。
968名無しさん@お腹いっぱい。:2005/11/29(火) 22:52:17
>>980が立ててくれるってさ
969名無しさん@お腹いっぱい。:2005/11/30(水) 15:53:56
>>980
今度のスレタイは↓こうしてくれ
「連番のH画像/動画を一気にダウンロードする」
970名無しさん@お腹いっぱい。:2005/11/30(水) 17:39:06
これは言わない約束なのかもしれんが
「H」は外さないうわなにするやめろqあwせdrftgyふじこlp:[
971名無しさん@お腹いっぱい。:2005/11/30(水) 18:26:42
じゃあ
連番のURIから一気にダウンロードする /2
でよろしかったでしょうか?
972名無しさん@お腹いっぱい。:2005/12/01(木) 21:44:37
てか連番ている?
973名無しさん@お腹いっぱい。:2005/12/01(木) 21:50:49
ネタ出つくしたみたいだし、
次スレなしでもいいかと。
974名無しさん@お腹いっぱい。:2005/12/03(土) 16:03:25
最近動画落とすのにパスワードが必要だったりするので
自動化は無理そうだと思ったり思わなかったり
975名無しさん@お腹いっぱい。:2005/12/07(水) 08:43:36

>>955詳 し く
976名無しさん@お腹いっぱい。:2005/12/13(火) 14:55:32
977FM:2005/12/18(日) 21:28:53
>>975
opera使えば右クリックが効くからURLがわかりますよ。
それで、
464.jpってttp://comic110.464.jp/data/...
以降がwgetですんなりDLできないのですがなんでかわかりますか?
ttp://comic104....などは普通にできるけど、ドラゴンボールが取れない。
operaで直接url書けばみれるのですが,なんででしょうか?

あれ、この板ってもう別にうつってる?
978名無しさん@お腹いっぱい。:2005/12/19(月) 01:02:57
>>952
ここまでスレが進んでるのにまとめにcurlが載ってないのは信じられない
979名無しさん@お腹いっぱい。:2005/12/21(水) 03:21:09
>>977
レスありがとうございます
私はlunascapeというタブブラウザを使っていてそれで画像のurlを抜き取り
連続ダウンローダで連番のを落としてみたのですが見てみると画像情報がなくすべて見れないファイルでしたorz
jpegファイルなのに見れないんですよね。。
ちなみに私が試したのはドラ●もんでttp://comic104でしたができませんでした。。

噂によるとダウンロードできないようにしてるサーバーとかあるようです.....(´・ω・`)
980名無しさん@お腹いっぱい。:2005/12/21(水) 09:33:01
どざ氏ね
981名無しさん@お腹いっぱい。:2005/12/21(水) 15:31:35
>>979
やってみたけど、問題なくダインロード&表示できるよ。
>>979のスキルの問題
982名無しさん@お腹いっぱい。:2005/12/21(水) 15:52:11
ダインロードってなんかかっこええな
983名無しさん@お腹いっぱい。:2005/12/22(木) 01:54:40
スキルでなく、クンフーの問題
984名無しさん@お腹いっぱい。:2005/12/22(木) 03:59:39
>>981
ホントですか・・・(゚Д゚)一体何が原因なんでしょうか・・・・
私もダウンロード自体はできてるのですがフォルダにダウンロードされた
画像ファイルを見てみると表示されませんorz ソフトやURLなどいろいろ確認しましたが。。orz
 今は結局freemacroでダウソしてるんですが時間かかりまくりんぐ・・・orz
985名無しさん@お腹いっぱい。:2005/12/24(土) 10:06:45
>>984
ヒント:連番ダウンローダはrefereを使ってくれない。
986nyanko:2005/12/24(土) 12:10:46
>>985
wget でも普通に指定できるYO!
987名無しさん@お腹いっぱい。:2005/12/24(土) 15:55:24
>>986
TU○ にもしかしている方?

>>984
なんか、ほんとにクンフーたりないねきみ。。。
988名無しさん@お腹いっぱい。:2005/12/24(土) 16:45:08
ここがunix板だと気づいていないんじゃないのか。
989名無しさん@お腹いっぱい。:2005/12/24(土) 17:20:08
来年の1月10日で5周年だな
990名無しさん@お腹いっぱい。:2005/12/24(土) 19:12:34
今まで誰も出していないが,emacs 上でウェブブラウザ(w3m とか)を走らせて,
画像をダウソロードする手順をキーボードマクロで登録しておけば,
特に何も考えなくてもほとんどのサイトでダウソロードできます.
991名無しさん@お腹いっぱい。:2005/12/25(日) 03:14:29
>>990
具体的に書かないのは宗教上の問題かなんか?
992名無しさん@お腹いっぱい。:2005/12/25(日) 07:30:18
キーボードマクロの手順を具体的に書くの?w
993名無しさん@お腹いっぱい。:2005/12/25(日) 13:32:48
インタラクティブってアホじゃありません?
994名無しさん@お腹いっぱい。:2005/12/26(月) 03:13:07
おい、次スレが立ってるぞ
http://pc8.2ch.net/test/read.cgi/unix/1135533382/
995名無しさん@お腹いっぱい。:2005/12/26(月) 10:26:56
(゚д゚)ウメー
996名無しさん@お腹いっぱい。:2005/12/26(月) 10:28:39
(゚д゚)ウメー
997名無しさん@お腹いっぱい。:2005/12/26(月) 10:30:27
(゚д゚)ウメー
998名無しさん@お腹いっぱい。:2005/12/26(月) 11:00:26
まんこ
999名無しさん@お腹いっぱい。:2005/12/26(月) 11:01:29
(゚д゚)ウメー
1000名無しさん@お腹いっぱい。:2005/12/26(月) 11:02:34
(゚д゚)ウメー
10011001
このスレッドは1000を超えました。
もう書けないので、新しいスレッドを立ててくださいです。。。