1 :
名無しさん@お腹いっぱい。 :
04/05/30 20:07 ID:9ifcxvQ8 ┏━━━━━━━━━━━━━━━━━┓ ┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │○│●│ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │●│○│ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃└─┴─┴─┴─┴─┴─┴─┴─┘┃ ┗━━━━━━━━━━━━━━━━━┛ ↓
┏━━━━━━━━━━━━━━━━━┓ ┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │○│●│ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │●│●│●│ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃└─┴─┴─┴─┴─┴─┴─┴─┘┃ ┗━━━━━━━━━━━━━━━━━┛
2
4 :
名無しさん@お腹いっぱい。 :04/05/30 20:12 ID:9ifcxvQ8
┏━━━━━━━━━━━━━━━━━┓ ┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │○│●│ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │●│○│●│ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │○│ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃└─┴─┴─┴─┴─┴─┴─┴─┘┃ ┗━━━━━━━━━━━━━━━━━┛
┏━━━━━━━━━━━━━━━━━┓ ┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │○│●│ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │●│○│●│ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │●│ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │●│ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃└─┴─┴─┴─┴─┴─┴─┴─┘┃ ┗━━━━━━━━━━━━━━━━━┛
もう飽きてんだよ、ボケ
┏━━━━━━━━━━━━━━━━━┓ ┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │○│ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │○│○│ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │●│○│●│ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │●│ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │●│ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃└─┴─┴─┴─┴─┴─┴─┴─┘┃ ┗━━━━━━━━━━━━━━━━━┛ 次●
┏━━━━━━━━━━━━━━━━━┓ ┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │★│ │○│ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │●│○│ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │●│●│●│ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │●│ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │●│ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃└─┴─┴─┴─┴─┴─┴─┴─┘┃ ┗━━━━━━━━━━━━━━━━━┛
┏━━━━━━━━━━━━━━━━━┓ ┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │●│ │○│ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │●│○│ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │●│○│●│ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │☆│●│ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │●│ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃└─┴─┴─┴─┴─┴─┴─┴─┘┃ ┗━━━━━━━━━━━━━━━━━┛
( ゚Å゚)ホゥ
12 :
ひみつの検疫さん :2024/11/27(水) 12:49:14 ID:MarkedRes
汚染を除去しました。
13 :
名無しさん@そうだ選挙に行こう :04/07/11 16:02 ID:a1BnCrrA
なんだこのスレは。 それはそうと巡集使ってる人、使用感教えて。 いまいち使い切れてない感じなので。
もうあきらめれ
15 :
名無しさん@そうだ選挙に行こう :04/07/11 18:39 ID:l6mUwexC
┏━━━━━━━━━━━━━━━━━┓ ┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │●│ │○│ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │●│○│ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │●│○│●│ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │▲│☆│●│ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │●│ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃└─┴─┴─┴─┴─┴─┴─┴─┘┃ ┗━━━━━━━━━━━━━━━━━┛
16 :
名無しさん@お腹いっぱい。 :04/08/10 14:44 ID:ZhCUd5wH
┏━━━━━━━━━━━━━━━━━┓ ┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │●│ ◆│○│ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │●│○│ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │●│○│●│ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │▲│☆│●│ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │●│ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃└─┴─┴─┴─┴─┴─┴─┴─┘┃ ┗━━━━━━━━━━━━━━━━━┛
17 :
名無しさん@お腹いっぱい。 :04/08/10 14:59 ID:ZhCUd5wH
救済age
まずズレてるの直せ
test
20 :
名無しさん@お腹いっぱい。 :04/08/24 13:29 ID:WZ1QaJOn
age
21 :
名無しさん@お腹いっぱい。 :04/08/24 17:52 ID:7j83Wzjw
Offline Explorer
24 :
名無しさん@お腹いっぱい。 :04/09/20 15:25:41 ID:Ac86HaXj
OE試したけど、これだめだね。 一回目だけは取り込み成功したけど、二回目からは失敗の連続。 URL変えても、接続数変えても、速度変えても、全く駄目。 DL開始後数秒で、下のHTTP0〜10が表示されてるウィンドウに Download Abort と、エラーが出て全停止する。 他のツール使った方がよさそうだ。
どこをダウンロードしようとしている? 今までそんな事象起きたことないけど…
26 :
名無しさん@お腹いっぱい。 :04/10/31 16:56:40 ID:M+SlpTKZ
「ダウンロード SPIDER」ってどうですか? これと「Download & Search Bee」とどっちにするか迷ってまつ。
国土地理院の25000分の1地図を一括保存できる、WEB収集ブラウザというソフトを インストールしてみたけど、起動させると「空きのドキュメント作成に失敗しました」って 出て起動しません・・・ OSはwin2000だけど、なんなんでしょう? これが使えると、結構便利なんだけど。
まずは日本語を整理しろ
ebot
ebot Chaos Edge
>>27 カシミールで、キャッシュ無制限にしておいて、
必要な地図だけを落としておくとかじゃだめなのか?
32 :
名無しさん@お腹いっぱい。 :04/11/10 08:31:29 ID:+XjeQ7N0
>>31 起動不可については結局分からないんで、カシミールでやってます。
MicrosoftのDownloadCenterを定期的にまるごと保存できるソフトって無いですかね?
37 :
名無しさん@お腹いっぱい。 :04/11/16 10:55:32 ID:HDk6mFf5
38 :
名無しさん@お腹いっぱい。 :04/11/16 12:04:04 ID:Bk1eGl9N
┏━━━━━━━━━━━━━━━━━┓ ┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │●│ │○│ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │●│○│ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │●│○│●│ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │▲│☆│●│ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │●│ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃└─┴─┴─┴─┴─┴─┴─┴─┘┃ ┗━━━━━━━━━━━━━━━━━┛
39 :
名無しさん@お腹いっぱい。 :04/12/02 04:53:31 ID:kJUb0HQH
>>37 だいぶ前に使ったことあるけど、エライ使いにくかったけどなぁ。 今は良くなった
んかな。 漏れ的には、Download & Search Bee ってのが気になる。
40 :
名無しさん@お腹いっぱい。 :04/12/09 03:20:57 ID:borUJQwE
結局お勧めソフトは何?
41 :
名無しさん@お腹いっぱい。 :04/12/11 01:00:28 ID:6kzvnPib
WinHTTrack
42 :
名無しさん@お腹いっぱい。 :04/12/11 14:19:28 ID:J4p5+yU7
43 :
名無しさん@お腹いっぱい。 :04/12/12 12:38:29 ID:AZWyBKT9
>>42 まじっすか。 前にこのスレじゃないかもしれないけど、「何でも落とせて大きな
欠陥が無い」みたいなのを読んだ記憶があって、気になってたんだけど。
44 :
名無しさん@お腹いっぱい。 :04/12/12 19:47:11 ID:eXBgzW41
そんなソフトは存在しないという結論が出てこのスレ終了
>>41 わっ、これヨさげだな。 教えてくれてありがとう。
雨の掲示板書きこめないんだけど 「404」「403」だったらリトライしない設計にすれば 良いだけではないかと
MzGetってのもあった
でもftpは未対応って
51 :
名無しさん@お腹いっぱい。 :05/01/15 16:16:21 ID:DRY36nY8
52 :
名無しさん@お腹いっぱい。 :05/01/15 22:24:34 ID:l3KUgv0z
そういう使い方するソフトじゃないしwwwwww
何たらかんたら
54 :
名無しさん@お腹いっぱい。 :05/01/31 18:40:53 ID:D/q5gSBc
今見ているページとそこから自分がクリックした先のページだけを 取り込んでいくのに適したソフトってどれでしょうか? 巡集などではいかなくてもいいところまでどんどんリンクをたどって 逝ってしまい困ってます。
>>54 GetHTMLWならProxyMode2にするとそういった使い方ができる。
56 :
54 :05/02/01 14:17:11 ID:FiclSGsh
57 :
名無しさん@お腹いっぱい。 :05/02/01 14:21:29 ID:Ew92hAY7
┏━━━━━━━━━━━━━━━━━┓ ┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │○│●│ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │●│○│ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃└─┴─┴─┴─┴─┴─┴─┴─┘┃ ┗━━━━━━━━━━━━━━━━━┛ ↓
┏━━━━━━━━━━━━━━━━━┓ ┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │○│●│ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │●│●│●│ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃└─┴─┴─┴─┴─┴─┴─┴─┘┃ ┗━━━━━━━━━━━━━━━━━┛
59 :
名無しさん@お腹いっぱい。 :05/02/12 10:30:39 ID:X7Jv8nxL
>>59 最後にVerUpしてから閉鎖するところに
作者の律儀さを感じますね
シャープな作風だっただけに惜しいなあ。 巡週は大分完成されたソフトだったけど。
掲示板が閉鎖したときからなんかそんな雰囲気が漂ってたね。 惜しいなぁ。
63 :
名無しさん@お腹いっぱい。 :05/02/12 15:28:47 ID:ZBGfgpq8
前にもかいたがWeBoX は使いやすい 普通ではDLできないサイトとかもなぜかできたんで とてもよかった
巡集の配布サイトにあったオンラインヘルプの ドキュメント、どなたか持ってる方いますか? 最近使い始めたばかりなのでイマイチ使いこなせてないので・・・
>>66 >ファイルをアップロードできませんでした
>アップロードファイル(63KB)は 最小容量設定(512KB)未満です
小さすぎてあぷできないって_| ̄|○
他のとこ教えてくれる?
>>69 ダウンロード致しました。
本当にありがとうございました!
残念遅すぎました・・・ 私にも巡集のオンラインヘルプのドキュメントお願いできないでしょうか? 閉鎖するの気付くの遅すぎました(> <)
72 :
名無しさん@お腹いっぱい。 :05/02/16 00:29:22 ID:2nrd2uRl
私も巡集のオンラインヘルプのドキュメント お願いできあにでしょうか・・・ いいソフトだったのに残念です
勘で使えるだろ
75 :
72 :05/02/16 11:03:27 ID:2nrd2uRl
>>74 1.55.5a用でもいいのでお願いできないでしょうか?
すみません
今あなたにあげたとしても、また同じように取り逃がした人がくることでしょう。 それではキリがありません。 どうしてもヘルプが必要ならば、作者さんにメールを出して見てはいかが? Readmeにアドレスが書いてあるはずです。
漏れも巡集のオンラインヘルプのドキュメント欲しかった_| ̄|○
79 :
名無しさん@お腹いっぱい。 :05/02/17 00:34:19 ID:m/49K3Sr
開発終了したのは分かるがなんで配布終了したんだか
>>81 ダウンロード条件は拡張子で設定したいなあ。
>58 ┏━━━━━━━━━━━━━━━━━┓ ┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │○│○│○│ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │●│●│●│ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃└─┴─┴─┴─┴─┴─┴─┴─┘┃ ┗━━━━━━━━━━━━━━━━━┛
>>83 ┏━━━━━━━━━━━━━━━━━┓
┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃
┃│ │ │ │ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │○│○│○│ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │△│●│●│ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │桂│ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │ │┃
┃└─┴─┴─┴─┴─┴─┴─┴─┘┃
┗━━━━━━━━━━━━━━━━━┛
Leechgetいれたらレジストリいじりまくられた。 復元ポイント設定してから入れた方がいいよ。
86 :
名無しさん@お腹いっぱい。 :05/02/20 04:08:52 ID:wMoUq2lN
GetHTMLWの作者も逃亡?
87 :
名無しさん@お腹いっぱい。 :05/02/21 10:27:57 ID:nlyLRwni
逃亡って表現はないだろう
88 :
名無しさん@お腹いっぱい。 :05/02/21 10:28:38 ID:nlyLRwni
>>72 ┏━━━━━━━━━━━━━━━━━┓
┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃
┃│ │ │ │ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │○│○│○│ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │●│●│ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │△│ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │桂│ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │ │┃
┃└─┴─┴─┴─┴─┴─┴─┴─┘┃
┗━━━━━━━━━━━━━━━━━┛
>>88 ┏━━━━━━━━━━━━━━━━━┓
┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃
┃│ │ │ │ │ │?│魔│○│┃
┃├─┼─┼─┼─┼─┼─┼─┤┼│┃
┃│ │ │ │ │ │ │ │∧│┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │魔│┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │○│○│○│ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │●│●│ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │△│ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │桂│ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │ │┃
┃└─┴─┴─┴─┴─┴─┴─┴─┘┃
┗━━━━━━━━━━━━━━━━━┛
詰みました。 終了。
91 :
名無しさん@お腹いっぱい。 :05/03/05 17:07:51 ID:gVVMQuPO
巡集見つけましたけど結構使い勝手いいですね。
Download Ninja3を使っているんですけど、全部保存できないときが・・・ FLASHで作られたサイトなど保存できるソフトはないですか? FLASH自体は保存できるんですけど押してもなんの反応がなかったりで(´・ω・`)
FLASHから別のFLASHをロードする場合なんかは全部保存するのは不可能。 これができるソフトは俺は知らないが、ある?
>>93 やっぱり無理ですか(´・ω・`)
FLASH単体ならできるんですけどね。
あとGETHTMLWも使ってるんですけど、
保存できない事がおおいのでもっと強力なのはないですかね?
95 :
名無しさん@お腹いっぱい。 :05/03/06 21:18:14 ID:xbEUBIQs
素人の発想だが、FLASH作成ソフトとかでもダメなのかな?
96 :
名無しさん@お腹いっぱい。 :05/03/07 04:02:11 ID:ZhhSuZhh
97 :
名無しさん@お腹いっぱい。 :05/03/07 09:09:51 ID:hofk2nfc
>>95 見れるけど保存はできないかな?たぶんですけど
>>96 試しに使ってみます
99 :
名無しさん@お腹いっぱい。 :05/03/12 16:43:37 ID:34xgBqc7
どなたが教えてください。 あるメーカーのサイトから商品の写真を一括ダウンロードしたいんですけど、 右クリックしていちいち「ファイルに保存」では時間と手間がかかってしまいます。 Irvineで試して見ましたがだめでした。 HTMLもぜんぜん詳しくないのですが、そのサイトの拡張子が「php」になっています。 ですので、サーバー内で写真がしまってあるフォルダ名さえわかりません。 Irvineでは不可能なんでしょうか?何かよいツールがあれば教えてください。
「URLも晒さないで誰が分かるんだ、ボケ!」 って答えが来る確立…80%
いくらさくらで、やってもサムネイルしか落ちてこない。 どうやって20枚一度に落とした?
>>103 抽出・条件の絞込み程度の極めて基本的な操作で一気に落とせるが。
102さん、どうもありがとう。 やっと出来るようになった。
106 :
名無しさん@お腹いっぱい。 :05/03/17 09:41:28 ID:uEFSo55R
80%の予報。見事に外しましたね
巡集はあれ復活とみていいのか?
URLも晒さないで誰が分かるんだ、ボケ!
元の場所にあるじゃんw
robots.txtでダウンが中止するのを防ぐ方法ってありますか? もしくは中断しないソフトはありませんか?教えてください
巡集
>>112 見たものしか取れないけどローカルキャッシュ保存ツールを使うとかは?
Merlvageとかいろいろ
114 :
名無しさん@お腹いっぱい。 :2005/03/26(土) 23:57:02 ID:PzAs/s+w
ソースを見て「\x」を「%」に変換して URLdecoderにかけたらURL出てきた。 Proxomitronでどうにかできるかも出来ないかも。
116 :
110 :2005/03/27(日) 15:31:24 ID:F0X3koFa
すいません、具体的にどうすれば落ちるのを回避できますか?
>116 5W1Hを考慮してもうちっと詳しく現状を説明せんと。
118 :
110 :2005/03/27(日) 16:26:11 ID:F0X3koFa
あ、すいません。何のことだかわかりませんよね PageDownでとあるサイトの画像やら動画やらをダウンロードしようとしていたのですが 「〜に/robots.txtが見つかりました。」と表示されて、PageDownがいつもそこで落ちてしまうんです。 どうにか回避する方法はないでしょうか?
ブログ保存したいんですけどいいソフトないですか? GETHTMLWや巡集でも保存できないんです
巡集はブログ対応のはずだけど。 どこのブログ?
エキサイトだったかな?結構前なので覚えてません^^;
122 :
名無しさん@お腹いっぱい。 :2005/03/28(月) 16:50:03 ID:212Af/RO
123 :
122 :2005/03/28(月) 16:53:01 ID:212Af/RO
こんなのもあるんですね^^ 色々試して見ます
127 :
125 :2005/03/29(火) 18:04:59 ID:Aj8rHrML
ページのリンク先を抽出してそれを巡集にぶち込めば?
(´-`)。o ○ (つーか、javascript&フレームでリンクしてる「virus.exe」って 何だ?ソース見ただけだから関係ねーけど… ジョーク系?)
130 :
125 :2005/03/31(木) 18:25:21 ID:Tl+32A4Z
WebAutoでなら問題なくダウンロード出来ました。 さすが有料ソフト 皆様ありがとうございました。
offline explorerって、いつの間にかmozilla系やoperaに対応してるのね。 ただ、24に書いてあるように、昔の奴よりもエラーが出ることが多くなった。
OEの狐対応拡張、使うとbloglines notiferが使えない。 weboxのやつはツールバーの表示がおかしくなるし。
というか、weboxはjsアクションでurlを引き渡せばいいのか。
ダメでつ。 ハイ、次は? さァー ↓ どうぞ。
robots.txtでダウソが阻害されるのは仕様。っていうか、GetHTML(W)をはじめとした丸ごとダウソする ソフトってサイト管理者からすると帯域や転送量無駄食いしてくれるから嫌われ者なんだよね。 だから仕方なく対応した、といえなくもない。 (同時DL数を1サイト1本のみにしたのもそうだし。) どうしても避けたかったらソフト本体をバイナリエディタで開いて、"robots.txt"とか"Disarrow"とか書いて あるところを適当な文字列で潰せばどうにかなる。 ついでにProxomitron通すなどしてUser-Agentまで変えてあげるとソフト作者に迷惑をかけない・・・かもしれない。
他のソフトはしらねーけど 巡集のUser-Agentは簡単に変えられる
くまかわ堂がどーした?杏厨のことか?
杏厨は設定が面倒だった。
今まで使わせてもらった中ではHTTrackが一番使いやすく確実だった。 けど、どーしてもいらない部分を落としてきたり、必要なところが落ちて なかったりと、今一感が… どっかに自分が必要なページだけ(たとえばクリックしたところだけとか) DL前に明示的に表示し動作してくれるソフトはないものだろうか。。 (GetHTMLWはおとしたファイルの保存がしにくかったし)
あのー。すいません。単純に1つのサイトの画像を集めて回るのでいいソフトありませんか。 込み入ったソフト使ってばかりで単純なのを忘れてしまいました・・
あー。もういいです。ごめんなさい
145 :
141 :2005/05/19(木) 08:40:07 ID:JcfcvoNs
>>144 う〜ん、ヘルプみてもよくわからんです。 Download web site(s) + questions やっても
通常ダウソとかわらず終了するし。 外部リンクの階層等は指定できるけど、自分が必
要なところ(クリックして見たところ等)だけを簡単に落とす方法がよくわからないです。
スンマソン、ちょろっと教えてください、おながいします。
それはキャッシュからコピーするソフトを使えば?
147 :
141 :2005/05/19(木) 23:50:37 ID:JcfcvoNs
GetHTMLWとかって事ですかね。
必要なページ(部分的)ということなら、 スクラップソフト使った方が効率よいと思うよ クリックするということは必要なページには訪れているということだし。 (紙2001 or Webブラウザ) + (EcoBox2 or ババロア) がイイ
149 :
141 :2005/05/20(金) 02:11:18 ID:Uec5VcSq
確かに。 一応 紙copi レジストして、ページ別に取り込んで少し編集して相互に リンクさせたりする時もあるんですけど、ちょと面倒で。。 GetHTMLWとかをちゃんと使いこなせればいいのかも知れませんが、保存がう まくいかない時があって… きっと私がヘタレなだけなんですけど。 SwiftProxyとか試してみようかな。 でも紙ってほんと便利ですよねぇ。
152 :
名無しさん@お腹いっぱい。 :2005/05/24(火) 23:45:39 ID:dFs7M/Wr
そんなもん用意してどうすんだ。バカか?
>>141 HTTrackで猛烈なアクセスが あるようなので HTTrack でのアクセスを拒否
するようにしてみた。 SetEnvIfNoCase user-agent "HTTrack " bad_bot. して
おいて <Directory /archive/> ... Order allow,deny Allow from all Deny from
env=bad_bot . ...
m9(^Д^)プギャー
おまいのサイトなんか落としてねーよ
うむ、いい感じだ。
162 :
名無しさん@お腹いっぱい。 :2005/05/26(木) 23:01:28 ID:Roy5x3On
これだけ執拗な奴が一体何のサイトをDLしてるのか。。。なんかキモい
意外と多いな>GetHTMLW
>>155 UserAgent m9(^Д^)プギャー エロサイト野郎
市販ソフトならDownload Ninjaかなぁ。
高いけどね。
>>92 がFlashからFlashを呼び出すようなサイトの
保存が出来ないと書いてるけど実は出来るよ。
自動ダウンロード機能を使うとブラウザが表示してるページを
逐一ローカルプロクシを通しながらダウンロード。
Flashも問題なく落ちてくるよ。
同じ要領でストリーミングファイルもある程度ダウソ出来る。
結構おすすめなんだけど使ってる人少ないみたいだね。
フリーソフトで再現できないかなぁ?
>>167 忍者スレでのあまりに酷い評価をみたら誰も買わないと桃割れ
巡集が開発停止しないでストリーミングに対応してくれてればなー JavaScriptもFLASHもいけるし、ブログやArchiveのダウソもできるし 最強じゃないか
170 :
名無しさん@お腹いっぱい。 :2005/06/03(金) 08:50:30 ID:O4ZzD46V
じゃあ引き継いでくれ
本人から依頼があれば引き継いでもいいよw
172 :
名無しさん@お腹いっぱい。 :2005/06/03(金) 09:17:48 ID:O4ZzD46V
以来なんてあるわけねーだろ。終了したんだから。
ダウンロードしたソースを元のURLのまま閲覧出来るのは GetHTML/GetHTMLWだけか?
>>174 リンクを書き換えないという意味?
それなら巡集とか_guでもできた気がする
「Webブラウザ上でローカルファイルを指定しないで閲覧できる」 という意味ならGetHTMLしか知らない。
>>175 ,
>>176 ども。まぎらわしい書き方でスマソ。
>>176 の方でした。
やっぱりそうなのか・・・。
流れから見てすぐにレス貰えるとは思ってなかった。
お二人さんありがとう!
このスレに住んでた「ソフト名を教えてはいけない!」みたいな事言うキモいリーダーがいなくなったおかげで円滑に流れるようになったな
パスワードを自動的に入力して、その先も落としてくれるってことでしょう? パスワード知らないサイトを落としてくれるわけ無いし
>>179 Last updated: 07/17/98 !
JAの話は例え話一つとっても胸焼けがする
↑ おまえはあほか
ああ。誤爆だ。 それにしてもキミほど真っ当に絡んでくる奴は初めてみたよ
>>186 国際版って書いてあるから設定で言語を
日本語にする必要あるんじゃないの?
188 :
名無しさん@お腹いっぱい。 :2005/06/24(金) 15:08:25 ID:RN4yxm5V0
保守
う〜ん う〜む Internet Archive 上に残ってるサイトを丸ごと取り込みたいのですが、 どうしてもうまくいきません。 GetHTMLW、Iria/Irvine(ツール-リンクのインポート)、HTTrack、proxomitron、 はてはDownload & Search Bee をレジストしてJREを時間かけてインストして… (重いしわかりにくいし使い辛いよ… Bee… orz) どうも、User-Agentで引っかかってるのではなく、下の階層を取得できないみたいなんですわ。 default.aspx にずらーっとりんくがあって、/list.aspx?name=xxx とか /viewer.aspx?=name=xxx&no=x ってなってて、ブラウザ上ではその先が見れるんですが、 ツールではダメなんですよね。
>>190 vectorに残ってるのでやってみました。
エラーおよび除外リンクがリアルタイムで表示されるため、
落としたいURLが除外されていることに気づきました。
除外設定のところで、aspxを含むURLを許可し、
再びやってみると、
こんどはそのURLが no response で落とせないことがわかりました。
んーリクエストの行動パターンからロボットを検出するロジックでもあるのかな?
>>192 ロボットはリクエストでロボットと名乗らなければならないから。
シェアので良ければ解除できるし、途中にフィルタかけて認識させる方法もある。
>>193 user-agent以外にもロボットを名乗る場面がある?
シェアはBeeレジストして後悔しているのですが、
何が良いでしょうね?(・ω・`)
Interneつ Archiぶって、kami copぃでも画像が取得できない。 しかたないからキャプチャしてる。。
仕方ないので
>>189 のxxxを総当りでURL生成してirvineでダウンロードすることにしました…orz
ちなみにリンクのインポートから複数のURLを取り込みするとだめで、 メインメニューのファイル-インポート-URLリストであっさり数万行入ります。 土日はまってしまいました
InternetArchiveで画像取得できない原因の大半はHTMLの所為。 たぶんURLが絶対パスで書いてない?
>>198 気づいたんですが、
例えば20040606のファイルを読みに行ったとき、20050301とかの新しいほうに飛ばされることがある。
この辺が取り込み出来ない原因の一つかも。
200 :
名無しさん@お腹いっぱい。 :2005/06/28(火) 23:58:01 ID:pk11Lcaq0
教えてください。 ホームページをダウンロードして、 あとからそのファイルやフォルダが文字化けする ことがあるのですがどうしてなのでしょうか? 文字化けしない方法はあるのでしょうか。 宜しくお願いします。
エスパーを召還中です。
エスパーじゃないけど原因は大体想像できる。 タグで文字コードが指定されておらず、リプライで文字コードが指定されている場合で、 自動認識だとIEが発狂するページ。 ダウンロードした後に強制的にShiftJISに変換しとけ。
>>202 こたえてくださってありがとうございます。
> ダウンロードした後に強制的にShiftJISに変換しとけ。
強制的にShiftJISに変換するにはどうしたらよいのでしょうか?
204 :
エスパー :2005/06/29(水) 23:20:18 ID:P43Z0nO70
サイコキネシス。
>>203 その機能がある丸ごと取り込みソフトがある。
もしくは文字コード変換できるソフトで手動で。
後は質問せずに自分でやりな。
巡集はそういう掲示板を落とすのには向いてない。
209 :
名無しさん@お腹いっぱい。 :2005/07/08(金) 20:03:00 ID:l4iHX0pL0
どんなソフトが向いてる?
ない。
そう言わずに。波乗りは取りすぎるんだよな
212 :
名無しさん@お腹いっぱい。 :2005/07/08(金) 23:10:40 ID:9dMB1enX0
HTMLに埋め込まれた画像をダウンできるダウンローダーありませんか? フりーソフトで
HTMLに画像は埋め込みませんので、ありません。
>>212 リンク先に画像があるんじゃなくて<img src="ahoka.jpg">
という風にページ内に表示される画像の事?
ダウンローダー全般なら対応してると思うけど。iriaやirvineでいけるでしょ
215 :
名無しさん@お腹いっぱい。 :2005/07/09(土) 22:54:34 ID:LQt2SPRt0
216 :
エスパー :2005/07/09(土) 23:37:22 ID:1GSgIon10
なんだと!
217 :
名無しさん@お腹いっぱい。 :2005/07/11(月) 02:17:13 ID:7xgf3ypY0
218 :
エスパー :2005/07/11(月) 02:26:20 ID:K7a3lF9J0
java言うな。
219 :
名無しさん@お腹いっぱい。 :2005/07/11(月) 07:29:28 ID:7xgf3ypY0
nintendogs(NDS)の柴犬にシンジという名前をつけて 可愛がってる俺は駄目人間ですか。 本当は本物のシンジを育てたい。
誤爆orz すいません。
223 :
名無しさん@お腹いっぱい。 :2005/07/11(月) 08:29:48 ID:9XZClP8m0
ふぅ
224 :
名無しさん@お腹いっぱい。 :2005/07/12(火) 10:57:03 ID:0jLkhU1Y0
javaスクリプト使ってるページをうまく取り込めるソフトある?
226 :
名無しさん@お腹いっぱい。 :2005/07/12(火) 18:06:26 ID:0jLkhU1Y0
サンクス
巡集どう設定したら
>>219 のサイトの画像落とせるかな
大きい画像が落ちてこない
228 :
名無しさん@お腹いっぱい。 :2005/07/12(火) 21:37:55 ID:0jLkhU1Y0
THX でもなんか大きい画像はやっぱりまだ落ちてきてないような。 もうちょっと見てみるかな
>>228 試してみたけど、1時間でやっと28枚落ちてきたよw<大きい画像
この手のサイトは、丸ごと取り込むよりも手作業で落とすほうが
効率がいいんじゃない?
230 :
228 :2005/07/13(水) 06:53:28 ID:8SPTHUJm0
231 :
名無しさん@お腹いっぱい。 :2005/07/13(水) 15:52:12 ID:K7d/GL2B0
Freshdownload
webを特定のキーワードを元に自動巡回して 画像を取り込むツールってないでしょうか? むかしのInternet Ninjaみたいなのでフリーソフト
ありますね
うん。あるある。
ハイ!ハイ!ハイハイハイ!あ
237 :
名無しさん@お腹いっぱい。 :2005/07/28(木) 00:54:25 ID:6i+E0Irc0
Invireって落とせなかったファイルの自動再施行機能ってついてないんですか?
238 :
名無しさん@お腹いっぱい。 :2005/07/28(木) 00:55:46 ID:bogznmT80
>>237 フォルダー設定の「ダウンロード」メニューをいじれば出来るが。
あまりにも初歩的すぎるぞ。すぐ分かることだぞ。
独自形式でいいから1サイト(1ページ)をまるごと1ファイルに固めてくれるソフトって無いの? 管理自体はエクスプローラでやりたいんだよね。 何でかって言うと、情報ごとにまとめるというやり方だから。 例・マイヤヒーフォルダにはswfファイルやテキストや画像、動画ファイルなどマイヤヒーに関連したファイルが投げ込んである。そこにマイヤヒ関連のサイト情報を保存したい。
gethtml.hifが18MBとかなって(何年も使ってます)、 ・メインウィンドウでツリーが描画されない ・巡回中にいきなり落ちる ・終了させるとメモリがwrittenとかのエラー で、使い物にならなくなっちゃいました。 大量に集めても大丈夫なソフトってありませんか?
243 :
名無しさん@お腹いっぱい。 :2005/08/03(水) 19:58:36 ID:pLXYEJls0
これだけネットが普及した世の中で、サイトをまんま残したいなんて 基本的な欲求は、絶対的に需要があると思うんだけど。 こんなベーシックな要求にすらキチンと答えるソフトがないのはな ぜなのか? 有料でいいから完全に記録できるモノを誰か(ry
>>243 あんたが作ってみれば、答えはすぐ分かるよ。
フォルダにまとめとけはいいんじゃね
ダウンロードNinja使ってるけど、javaは駄目フラッシュは駄目 糞ソフトだよ。・゚・(ノД`)・゚・。 いいかげんパッチでも出して対応しろと・・・
>>242 昔 32MBのhifファイルを使っていたが特に問題はなかったから、
242のhifファイルが壊れている可能性が高い。
エディタで開いて、バイナリがまじっていないかどうか確認してみ。
それに、そこまで大きくなったらHIF管理はlwebsrv.exeでやったほうがいい。
>>246 1度プログラミングを勉強してみると良いよ。
自分がいかにトンチンカンなこと書いてるか、よく分かるから。
>>247 バイナリは LM: の次の行頭が思い切り 0x00 なんですけど、
これは makehif で再構築しても同じだから正常なんでしょうか?
ってか、makehif すると Terminated って出るんですけど、異常終了ですよね?
Make header information file (for gethtml) ver.2.2.1 by Yutaka Endo
now reading gethtml.hif ... done.
now picking up all entries ... 171749 entries were found.
now restructuring header information ... done.
now writing gethtml.hif ... done.
terminated.
古いのを別に保管して作り直そうかな…
>>249 レコードセパレータが0x00なので、正常。それ以外にデータが化けている個所があるのではないかと思う。
少し面倒だが、hifファイルを二等分してどちらで異常が発生するかをつきとめる作業を
繰り返すのが確実。
それでも原因が不明ならば、最終β版の7.14.1TR5を使ってみるといい。URLのファイル名に関する
修正がされている。
makehifは使ったことがないのでわからない。(というかURLの情報が失われるので使うべきじゃない。)
巡集でダウン失敗したファイルは再試行できないのですか?
>>246 この方法は試したか?
>>167 ブラウザでDLしたいページを全て表示という手間はかかるが
FLASHもjavaも落とせる。
落としたページを閲覧する時はクイックサーバー機能を使えば
FLASHからFLASHを呼び出すものも正常に再現できる。
っていうかヘルプを読めばしっかり書いてある機能なのに
糞ソフト認定とは....
>>251 「1ページだけダウンロード」で落とせ。
>>253 了解!、それでいいのかーありがとー。
255 :
名無しさん@お腹いっぱい。 :2005/08/16(火) 11:49:41 ID:TCkVl1OP0
ちいさwwwwwwwwwwwwwww まーゆれがね 長いんだよ
やば、誤爆^^
257 :
名無しさん@お腹いっぱい。 :2005/08/30(火) 10:15:26 ID:xzgQaXxK0
巡集で取り込んだサイトのリンクをクリックしてもエラーで全く表示されないのは何故? ちゃんとフォルダにページは保存されているみたいなんだけど。 アドレスが正しくないみたいなんだよね。何か設定があるの?
258 :
名無しさん@お腹いっぱい。 :2005/08/30(火) 10:50:30 ID:xzgQaXxK0
普通のサイトだとリンククリックしたら表示された。 ブログだとだめだったんだけど、サイトによってもいろいろあるのかね?
おい、掲示板ソフトで、文字と画像を混同して扱える奴あるか? 画像は8文字x8行スペースで表示だ。 一行72文字で改行。
スレタイ嫁
けんもほろろでワラタ。 もっともだw
262 :
名無しさん@お腹いっぱい。 :2005/09/04(日) 01:22:42 ID:BRnlYPZc0
「ネットエスケープ」っていうダウンロードソフト使ってるんですが、 重たいファイルを落としてる時、必ず99%で止まってしまうんです。 ずーっとそのままで動かず、タイムアウトした事も何度もあります。 いったん接続解除して、繋ぎ直すと残り1%が落ちて来たりしますが・・・。 何かいい方法ありますか?
「インターネットエクスプローラー」を使う
wget -r -k
266 :
名無しさん@お腹いっぱい。 :2005/09/10(土) 16:45:41 ID:vV1VoNVF0
267 :
名無しさん@そうだ選挙に行こう :2005/09/10(土) 17:09:26 ID:tVtRYVG70
うんこ食いてえええええええええええええええええええええ
WeboxかGetHTMLWでよくね?
>>266 i-bbsはリファラー厳密だったり、いろいろめんどいから
丸ごと系ソフトには不向きかも
エッチな恋人が見つかる!アダルト出会い掲示板
avi.banは何使ったら良いですかね?
Proxomitronかまして画像URLをアンカーに置換して リンク抽出からダウンローダーに送ってるよ
GetHTMLWを使ってる人にちょっと質問。 時々、gzipエンコードされたページの表示が変になる事は無いですか? どうも、hifファイル内の"CE:gzip"が全て削除されてしまう事が原因の様なんですが。 ちょくちょくこういう事が起こって困ってます。
ttp://u.skr.jp/1024/files/0854.lzh.shtml GetHtmlのブックマークが階層化出来ないので、もう収拾不能になってしまったが故、
ページ構造まるごとMozilla/FirefoxのBMに変換するperlスクリプト。ActivePerlが必要。
使い方はメモ帳とかでconv.plを開けば書いてありまする。
現時点では低機能&エラーチェック無しだが、需要有るならVC++で作り直すかもしれん。どんなもんかね。
つーかGetHtmlユーザーのみんなは、どうやってブックマークを管理してるの?(´・ω・`)
277 :
名無しさん@お腹いっぱい。 :2005/09/29(木) 01:24:59 ID:HKFtSwc50
HPの階層までさかのぼってダウンロードするソフトウェア の体験版をみつけて創価学会の歌を本部HPダウンロード しようとして失敗したんだ。 ダウンロードが終わってから、ふとみると認証画面(名前と パスワード)を要求する画面がでてきた。こわいので右上の ×をクリックして終了・・・これって犯罪に問われるの? ガクブルです。
>>277 そっ、そこら辺は創価板で聞いた方がいいんじゃないか(((;゚Д゚))))ガクガクブルブル
熱心な信者(創価に限らず)にとってみれば、信仰>>>>>法律なのは当然、
NTTだのプロバイダだの警察だのにも多数信者が紛れ込んでいる恐れが有るし!?
>>277 多分IEコンポを利用してダウンするソフトだったので
認証の必要なページでそのダイアログが出たんだと思う
特に設定してなければその先に君はアクセスしていない
280 :
名無しさん@お腹いっぱい。 :2005/09/29(木) 22:39:34 ID:ILy0l7Lk0
>>278-279 ありがとうです。えっとダウンロード・スパイダーっていうソフトです。
使いやすかったのですが・・・・すぐに削除しますた。
>>280 いや、創価HPなんぞをDLしようとしなければ別に大丈夫じゃないかと・・・・
282 :
名無しさん@お腹いっぱい。 :2005/09/30(金) 21:02:20 ID:PWDsV9HZ0
巡集はver 1.59から『javascript内のURL先は
http:// のみ変換するように修正』とするように
なってしまったけど、これはこれでローカルに保存したさいにリンク先が見れなくなってしまう事が出てくるよね。
オプションで選択式にしておけば、問題なかったのに。
>>275 ブックマークは普通に使う。
ファイルがでかくなるのを防ぐために大まかな分類で別フォルダにしておく。
あとは別のブックマーク(更新チェッカやブラウザの)に任す。
ブックマークをツリーにしてもろくな事は無い。
>>285 GetHTMLWをlocalmodeにすれば見れる
>>283 そぉ?
好きだけどなツリー。
余裕でン100だからなぁうち。でないともう無理ぽよ・・・・
>>287 ツリーで分類する根拠が必要だし、殆どみないツリーとかないか?
フラットなリストから条件検索する方がいい。
検索条件をツリーにするのはかまわんが。
>>285 GETHTMLWをプロクシサーバにしてからブラウザで見てください。
>>288 レゲー攻略HP保存バカだしねぇ。
Game->RPG->スーパーモンキー とか掘ってるしなー。
人それぞれなんだろうが、やっぱわしゃツリーじゃのぅ〜
ごめん。意味判らない。
んーまあ無理にご理解頂ければならない程の重大事項でもないし、 次行きましょ次(´・ω・`)(w
phpbbのフォーラムとかって落とせる?
無理
>>293 THX
1ページずつシコシコ保存しますわ
俺27歳、無職!
iriaとか使えばいいじゃん
299 :
297 :2005/10/07(金) 17:06:39 ID:i46zmlCr0
JAVA スクリプト使っているから、iriaでは対応できん。巡集でもむりぽ
301 :
297 :2005/10/14(金) 13:13:46 ID:D75mx0BG0
>>300 ありがとうありがとう巣に帰ってこれから使ってみます。
特許公報PDFダウソは、2100円かぁ
うおおおおお! 巡集がバージョンアップしてルーうれしいよー
マジで巡集1.6来てた 以下、同梱のwhatsnew.txtより 以前 ver 1.59.2 を最終バージョンと書きましたが、やっぱり撤回します。 不愉快な思いをされた方、本当に申し訳ありませんでした。 これからまたちょこちょこ更新しますのでよろしくお願いします。 ver 1.6 (2005/10/08) * 一部のリンクの取得に失敗するバグを修正。 * 環境設定にcookieの設定を追加。 * URLの許可/除外の設定を文字列完全一致型に変更。 - URLが完全に同じ文字列でないと許可/除外が実行されません。 その代わりワイルドカード(*や?)が使えます。 過去のバージョンのiniファイルを使われる場合はご注意下さい。 * タブの設定を環境設定のダイアログの中に統合。 * iniファイル読み込み時にメモリリークが起こる場合があるバグを修正。 * ダウンロードを途中で停止した場合のURLリストの保存ファイルの仕様変更。 - 過去のバージョンの生成する*.urlファイルは読み込めなくなりました。 * 拡張子での許可/除外の機能を削除。
タイ━━━━||Φ|(|゚|∀|゚|)|Φ||━━━━ホ!!!!
AAを間違えたキタ━━━━━━(゚∀゚)━━━━━━ !!
>* 拡張子での許可/除外の機能を削除。 どうして外したんだろ? 重宝してたんだけど.....
>>308 ?
「URLフィルタ」で設定できるよ。
巡集は1.56が最強だと思う。
1.56以降は巡回禁止(robots.txtとかMETAタグで弾いてる)のサイトをDLするのがメンドくなってる。
二次創作系サイトなんかだと検索に引っかからないように弾いてるとこが多いから
そういう仕様は使いづらい。
あと
>javascript内のURL先は
http:// のみ変換するように修正
も使えねー
311 :
名無しさん@お腹いっぱい。 :2005/10/17(月) 13:04:58 ID:nZX61Cbj0
おまいらはどこのサイトを落としているのか教えてちょうだいな。
wikiを綺麗に取り込めてオフの状態できちんと リンクされてるようなソフトがあれば知りたいです
波乗野郎? 巡集使ってたけど、詳細設定をどういじったらいいかわかりかねる俺としては波乗野郎を使っている。 設定ファイルごとにhtmlみたいのを書き出してくれるのが使いやすい。 どう使いやすいかというと、 1つのオフラインページをお気に入りに入れといてそこから各オフラインページを見れるように できるから、お気に入りの数を少なくできるし便利。
1つのオフラインページ=設定ファイルごとのhtml わかりやすくいうと取り込んだサイトのリンク集みたいなもん。
>>309 >・巡回が禁止されているサイトは辿れない仕様に変更。
情報ありがと ↑これやね
1.56を使ってみる
前のバージョンって、どこかにありますか。
くまかわ堂
>>319 ありがとうございます。
いろいろすいませんでした。
巡集の巡回制限回避について情報を見つけたんで貼っとく。
最新バージョンで使えるかどうかわかんないけど。
606 :名無しさん@お腹いっぱい。 :05/02/25 17:11:33 ID:bGYEGCtk
>>181 Ctrlキーを押しながらダウンロードを開始することで回避することも可能ですが、
〜
これ回避できなくなっていませんか?
612 :名無しさん@お腹いっぱい。 :sage :05/02/26 16:06:17 ID:kfZ3ja4M
>>606 Ctrlキー押しながらで回避できるのはrobots.txtによる巡回拒否
METAタグによる巡回拒否は設定の「METAタグを読まない」で回避
613 :名無しさん@お腹いっぱい。 :05/02/26 16:37:38 ID:4hlizvq6
>>612 ありが屯
>METAタグによる巡回拒否は設定の「METAタグを読まない」で回避
これでMeta読み込まないことによる副作用みたいなのはないですよね?
614 :名無しさん@お腹いっぱい。 :sage :05/02/27 00:47:19 ID:G9lGsa9x
当然ある。どこまで影響するかはMETAタグの内容次第。
それどこのスレ? 巡集最新版、原則許可・例外禁止的に出来なくなったから設定直すのめんどいわ。 取り逃しが無いか分からないんで除外リンクも出力してくれると助かるんだけどな。
バイナリ書き換えりゃいいじゃん ヒント:00040C40付近
Angelfire - Error 404
328 :
名無しさん@お腹いっぱい。 :2005/10/22(土) 09:11:51 ID:lw2XzrI40
巡集1.56また揚げてくれないかな
>>330 サイトダウンローダーというとこにあるのはどっちもだめだったよ
>>331 ダウンロードできることを確認した上で書き込んだんだけど、どうやらオミトロンのおかげだったみたい。
オミトロンなくてもIrvineで落とせたよ。
あ、ほんとだ落とせた。d
れf
最近artemis系が落しにくいな 以前はGetHTMLWで楽だったけど、蹴られたりするし
巡集の新しい公式サイトできたね 過去のバージョンも置いてある。 ところで1.6のダウンロード中の待ち時間の"HTML"の部分が有効にならないけど 他の人はどうでしょう?
はい
通報すのしう
宣伝乙
シェアかあ
344 :
338 :2005/11/07(月) 09:49:52 ID:wXcxBK220
>>344 Proxomitron噛ませば出来るよ
使い方はTOKIX.NETとかで読んで
GETHTML使ってるんですが、作者のうたい文句の「オフラインでも快適に閲覧できます」
ってのがまったく不明なのですが。
そもそも、保存されたindex.htmlを起動し表示されているリンクのURLが、オフラインのアドレスになってません。
http://www.geocities.jp/****と 、オンライン時とまったく同じなんですが^^:::
設定はなにもいじっておりません。
それとも、なにかいじらなければいけないのですが?「オフラインでも閲覧可能にする」等といったそれらしき設定項目もないのですが。
ちなみに、そのリンク先のは別フォルダにちゃんと保存されているようです。
これじゃ一つ一つ手動でページ保存した時とまったくかわらない。。。
「オフラインでも快適に閲覧できます」 ウソつくんじゃねえよボケが。 こいつは他のソフトに乗り換えたほうが遥かに快適ということに気づいた。
たった一時間ですごいブチ切れっぷりだなw
まあ理屈が難しいから346みたいな おむつが少々弱いのには理解できなくてもしょうがないよ
毒盛少女のおかげでネットに初心者が流れ込んできてるのか?
毒盛少女vsめった刺し少年 少女=Alien 少年=Predator でOK?
>>347 利用方法を全く理解していないだけ。
付属のテキストぐらい読もうよ(;・∀・)
初心者は巡集から始めて機能に物足りなさを感じたら 他のソフトに切り替えるか併用すればいいと思う。
355 :
名無しさん@お腹いっぱい。 :2005/11/23(水) 19:52:33 ID:OMpz30QW0
356 :
名無しさん@お腹いっぱい。 :2005/11/23(水) 20:08:04 ID:+6ynzbS00
>>1 Operaでズレるんだが
Firefoxでスキマが開くし
ダウンロードNinjaでやればいいじゃない。
だよね
>>355 は、新しいソフトを作ろうとしているんじゃないかな。
市販のソフトではできることをフリーソフトで作ればみんな喜んでくれるからね。
マーケティングというやつだ。
360 :
355 :2005/11/23(水) 22:49:05 ID:OMpz30QW0
>>359 おぉーネ申!
なければつくってやるか!という意気込みはありますが
時間がないので現実的にはむりぽ。
でもダウンロードNinjaのこの機能はえらく便利なんだけど
なんでフリーソフトで実装してないんだろう。
難しい実装ではないだろうに。
こういうソフトってどれも帯びに短したすきに長し
だよね。
>難しい実装ではないだろうに。 根拠を詳しく。 つーか、あなたがフリーで作れ。
DS Downloaderのフィルタ設定じゃダメなのか?
DS Downloader、いまいち使いにくいというか分かりにくい
364 :
名無しさん@お腹いっぱい。 :2005/11/25(金) 10:46:11 ID:rz+s8TXu0
いろいろ有料のダウンローダー使ってみたけど、 ダウンロードニンジャが一番かな、 フリーソフトはダウンロードされんファイルとか多くていらつく、 ただDLニンジャも最初はどこ扱えばいいかわからず迷った、 自分としてはタイマー機能が重視なのでそこから入れるといい、
Website Explorerの時代だろ
わざわざ金を払うならoffiline explorerだと思うが、最近のninjaはそんなに良いんだろうか。
inisiaって会社の「WebCatcher」はどうなんでしょ? HPの説明見る限りでは良さそうなんだけど… 誰か使っている人います?
WebCatcherはHP丸ごと(サーバーにアップしてるホルダー構造のままに)取り込めますか?
369 :
名無しさん@お腹いっぱい。 :2005/11/30(水) 19:18:47 ID:7y4xVYEK0
どれもこれも使いにくい。 波乗野郎、シェアでもいいから 開発再開してくんないかな・・・
369が頭悪いだけに1票
371 :
名無しさん@お腹いっぱい。 :2005/12/01(木) 00:15:34 ID:dhIss9eJ0
WinHTTrackって、人気無いのか? もれはずっとこれなんだが。 マウスを重ねると画像が変わったりするページにも対応してたし。
gethtml.exe(コマンドライン版)で gethmlw.cf(とgethtmlw.bm)使えるようにしてくれ。 たのむ。
巡集 ver 1.6.0A >相対ディレクトリの判別に失敗するバグを修正 >URLフィルターに「一致したURLのみを許可」する機能を追加 こっそりバージョンうp
巡集うpキタ━━━(゚∀゚)━━━ !!!
375 :
名無しさん@お腹いっぱい。 :2005/12/08(木) 14:24:18 ID:2BWYKPug0
この手のソフトは今まで色々試してみたがろくなものがない。 その中でも一番使えるのがEirgrabber。 古いアプリで開発も止まってるけど俺は未だに愛用している。
確かに他のジャンルのソフトと比べると、ある程度の満足度にどのソフトも達していない感じですね。 もう少しがんばってほしい。どのソフトも欠点があってその欠点がかなり痛いんですよね。
毎日必要なものでもないから、あんまり関心もたれにくいしね、このジャンル。
インストールしてすぐ使えるソフトはどれですか? GetHTMLをインスコしてヘルプを見たけど難しかった(´・ω・`)
長く使ってるけどGETHTMLWがいいと思うよ。 自分なりの使い方を決めてしまえばあとは簡単。 それまでは悩む事うけあいだが。
GETHTMLW持ってますが、 一回使用するとソフトがハングして以後使用不能になるんですが・・・。
WebArchiveからうまく取り込めるソフトある?
>>380 俺の使っているバージョンもときどき落ちることがあるが実用上問題ない。
古いバージョンの方が安定しているのだが作法が悪いと指摘されてから
使用しないようにとの事なので使っていない。
もう更新はないみたいだな。作者のサイトも行方不明だし。
>>381 WebArchiveからGetHTMLWでも取り込めるが取り込んだページ上のリンクが
リンク切れになっているので当然リンクを追いかけることはできない。
GetHMTLWのProxyモードを替えながらリンク先を更にWebarchiveで再検索
して結果を見ながら手動で取得するようにしている。
Proxy1で結果を見てLocalモードでリロードすれば取得ダイアログが出るので
割と楽に操作できる。WebArchiveの一部をまるまる取り込むのは無理だろう。
それがやりたかったらWebArchiveに相談したほうがいい。
取得したページを解析する前に特定のスクリプトを実行できるようにできれば
いいのだがなぁ…。ソースの公開が無かったのが惜しまれる。
>>381 巡集でできる
URL指定にコツがいるけど1個1個手作業で落すよりマシ
うちのは1.14.1TR5だった。
>>384 順集がどんなのか知らんけどGETHTMLWは
まんまコピーするのが特徴だからな。
例えばWebArchiveの検索結果をずらずらと出して
それを追いかける事ならGETHTMLWにもできるかもしれん。
俺はそう言う必要性を感じないが。
7.14.1TR5の間違い。
388 :
381 :2005/12/10(土) 20:31:32 ID:Re+CHPMd0
GetHTMLWにしろ巡集にしろちょっとした細工で可、ということか ありがとう、自分なりにやってみるよ
389 :
369 :2005/12/11(日) 19:40:34 ID:S9Y9zkAE0
>>370 頭悪い人間でも使えるソフトが理想だと思うが。
ユーザーに慣れを要求するソフトなんか糞だよ、糞。
>>389 ふーん
もうPCやめたら?
頭使わないことだけやって生きて行け
頭使うまでもないと思うが ここまでの脳無しを初めてみたわ
IEでできるだろ?
GetHTMLWて、XPに対応してないのね・・・
そんな話訊いた事無いな。
IEが対応してれば使えるでしょ
作者はもともとネスケユーザで開発が活発だった当時は IEの事など殆どしらなかった。
397 :
名無しさん@お腹いっぱい。 :2005/12/15(木) 12:26:50 ID:mmYTo5aL0
>>389 同意
屑ソフトはヘルプ見ても意味わかんないね
人にものを伝えようって文章じゃない
要するに自己中なんだな
アフォなソフト作家のオナニーに
つき合わされている事に気付かない馬鹿→
>>390-391 しかも得意になってるしw
中二病ってやつ?
フリーソフトにそんなことを期待してる時点で厨だとわかるなぁ。
そゆ時は損ないい方するんじゃなくて 思い切りよいしょすんだよ。 そうすると丁寧に教えてくれる。 単純なやつが多いから。
見事な高二病患者だね。
な、最初から下手に出ないと こういう風に臍を曲げる人達なんだよ。 最初から仕切りなおしだな。
オーケー ┏━━━━━━━━━━━━━━━━━┓ ┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │○│●│ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │●│○│ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃└─┴─┴─┴─┴─┴─┴─┴─┘┃ ┗━━━━━━━━━━━━━━━━━┛
ふーん。 へー。 あそー。
たとえ作者が無能でジブタレソフトでも、 自分の無能さをたなにあげ、「フリーソフトだから」の一言で誤魔化せちゃうんだよな。 これですべての無能作者が天才プログラマーの仲間入りです。
と、フリーソフトのひとつも作れない無能がいっております。
オマエモナ
シェアウェアにすればいいのか? 何が言いたいの?アホですか? ああ、アホなのか。
文句垂れる前に手動で巡回せんかい!!
じぶたれって出来が悪いって意味じゃなかったっけ。
414 :
名無しさん@お腹いっぱい。 :2005/12/17(土) 13:53:43 ID:1+ZXnFgk0
GetHTMLWを使ってみたが ヘルプ画面が出てこないのですが?
ですが?なに?
Javaスクリプトはアンカータグを複雑にしたものくらいにしか思ってないんか? おめでたすぎる。
>>414 添付のマニュアルやユーザが作ったヘルプが開くようには出来たと思う。
ていうか何を開くか尋ねられるんじゃなかったっけ?
>>412 紹介ではtclとあるけど
portingされてる色々
うちのは確かフロントエンドGUI+コアがcurlだったが
このcurl素でcurl.rc無視してデフォルトオプション指定の設定読まないから
リファラ追従捏造とか
書き出しとかUA作成とか
毎回手作業になるのがメンドサくなり
結局curlにもどっちゃった。
offline explorer日本語文字化けするんだけども 日本語化パッチとかないのかな
420 :
名無しさん@お腹いっぱい。 :2005/12/18(日) 22:38:26 ID:xxTpwrZF0
俺の場合は ホームページをダウンロードした後 HDDやCD−Rに記録しておくのだけど どんなソフトが良いんでしょうか?
421 :
名無しさん@お腹いっぱい。 :2005/12/18(日) 22:45:13 ID:xxTpwrZF0
ついでに皆さんに聞きたいのですけど ダウンロードソフトを使っているのは1種類だけですか? それとも数種類に分けて使っているのですか?
巡集だけ
irvineだけ
ブルーレット奥田家
ブログは取り込みを妨害されるけど、Irvineならきちんと取り込めますか?
妨害...
webautoだけ
428 :
名無しさん@お腹いっぱい。 :2005/12/19(月) 21:56:18 ID:jsAXFo5t0
1.HPをダウンロード、 その後更新があったら再びダウンロードする 2.HPをダウンロードした後、別枠で保存しておく 3.出来ればブラウザの設定は無用 これだったらどんなソフトがあるのでしょうか? 1と2だったらそれぞれ別のソフトになるんですよね? 教えてください
ビーズレコーダかなんかにしとけ
wikiの丸ごと取り込みってできますか? オンライン見れる時間があまりないのでオフラインで見たいんですけど。
できるけどかなり迷惑
見られて迷惑なら公開しなきゃいいのに
だめだこりゃ
どういうこと? 確かに沢山の人がWikiペディアを丸ごと取り込んだら大変なことになりそうだけど、 小規模ならローカルにあった方が負荷軽減になるかもね。
その前に誰もWikipediaとは言って無いだろ? 仮におそらく強力なサーバを使っているだろうWinkipediaだとしても それをローカルで使おうとして多くの人がWikipedia全体に集中 アクセスすれば相当な迷惑だろ? 結論 どこかに落ちてるかもしれないアーカイブを捜してダウンロードしとけ。 俺はそうした。
多くの人がWikipedia全体に集中アクセスすれば相当な迷惑なら パスワード制限かなんかかけて仲間内だけでひっそりやってればいいのに。
438 :
431 :2005/12/21(水) 02:24:00 ID:kdqv9Tfm0
ごめんなさい、えらい大事になってるんですけどテキストだけが読めればよかったんです。
てゆか、ダウンできなくする方法なんていくらでもあるんだから、そうすればいいだけじゃん その知識がない人間がDLするのはおかしいとか、負担かけるなって騒ぐんだよな 馬鹿らしい
DLするのはおかしいとか→DLするなとか
このスレにいる(この手のソフト使ってる)クセに迷惑もクソもないだろ。 集中アクセスされてるか否かなんて、見る側にとっちゃ知ったこっちゃないし、 そもそも知りたくてもわからないだから。 サイト運営者がイヤなら、迷惑だからやめてくれって意思表示(対策)をすりゃいいだけ。 周りがさわいでも説得力なし。
それで散々迷惑かけられて作者に苦情が行ったりアクセス禁止されてのが現状だろ? これでは一部をダウンロードしたいだけのユーザが困る。 (`・ω・´)9m 迷惑
>>442 DLできないように対策すればいいだけなのに
なんでソフト制作者に文句をいうんだよ
なんでアクセス禁止まで話が飛ぶのかわけわからん。 UA判別して門前払いすりゃいいだけじゃねーの? 中にはセキュリティーがどうので、Win9xを門前払いするサイトもあるし UA偽装してまでやるやつなんてオタク以外いないだろうし。 それが集中するなんて、まずありえん。
ある有料サイトの動画をflashgetで落とそうとしても、どうしてもダメです。 flashgetIDとパスを入れても弾かれて、wmvファイルのアイコンだけ残ります。 馬鹿な質問ですが、どうすればよいでしょうか? 違うソフトを使ったほうがよければ教えてください。 ちなみにブラウザ(firefox)で、ファイルに保存、をすることはできます。
449 :
448 :2005/12/21(水) 20:37:22 ID:TYbTr32e0
すいません、、書き間違えました。。 ある有料サイトの動画をflashgetで落とそうとしても、どうしてもダメです。 flashgetに、IDとパスを入れても弾かれて、wmvファイルのアイコンだけ残ります。 最初にログインするとき、IDとパスだけでなく、アルファベットと数字の絵を見ながら 手入力しないとログインできないメンバーページになっています。 馬鹿な質問ですが、どうすればよいでしょうか? 違うソフトを使ったほうがよければ教えてください。 ちなみにブラウザ(firefox)で、ファイルに保存、をすることはできます。
>>442 落ちてるお金を拾うなといってもあまり意味無いと思うよ
>>444 そんなもん詳しくは作者に文句いうヤツに聴きやがれ。
まずお前のようなヤツが散々迷惑かけまくったから文句を言うんだろが?
しかもアクセス禁止にするとお前みたいなタコ野郎は
「××のホムペがダウンロードできないんでちゅけど?」
とかこのスレに書きやがるだろ?
くだらん事2度と書くんじゃ寝ぇよ。タコ。うんこ。
>>450 お前もタコ野郎だな。WikiくらいRSSリーダでも使って
更新されたらそこだけ見に行けよ。タコ。
>>448-449 とりあえず
>>445 に貼られてるスレ読んでみれ。
有料サイトのや認証物はサポート対象外だから質問は受け付けてくれなさそうだが、
ヒントくらいは見つかるはずだから。
>>ID:+hVyBhac0 >>寝ぇよ 顔真っ赤(;^ω^) まあお前が無い知恵絞っていくら叫ぼうが喚こうが怒鳴ろうが無意味 おまえみたいな偽善者が、一番(`・ω・´)9m 迷惑
ID:+hVyBhac0はアク禁のやり方を知らない厨房
あきれた奴等の巣窟になってきたな。 俺は別にWikiもサーバ運用もしていないから お前等が何をやろうが直接迷惑はかからんが。 そもそもWikiの○どりの仕方がしりたいんだろ。 じゃぁ答えてやるよ。 教えてやんねぇ。
知らないくせにw
>>457 i::::::::/'" ̄ ̄ヾi
|:::::::| ,,,,,_ ,,,,,,|
|r-==( 。);( 。)
( ヽ :::__)..:: }
,____/ヽ ー== ; ほほう それでそれで?
r'"ヽ t、 \___ !
/ 、、i ヽ__,,/
/ ヽノ j , j |ヽ
|⌒`'、__ / / /r |
{  ̄''ー-、,,_,ヘ^ |
ゝ-,,,_____)--、j
/ \__ /
| "'ー‐‐---''
こういう質問は駄目なのかな? 画像だけを集めることが出来るソフトは無いでしょうか?
あるよ
>>461 申し訳ありませんが
教えていただけるでしょうか?
例えば連番の画像を集めたりするソフトを探しています
エスパー能力を駆使して何となく2つの可能性を抽出してみたが どちらも糞質問だったので答えたくない。
画像ちゃんねる、取り込みたいんだが、何使えばいいのかな 巡集使っても余計なHPばかり取り込む
いや、画像だけほしいわけじゃないのよ できればスレッドも落としたい
できない
つーか、アク禁されたくなければやめておけ、と。
471 :
名無しさん@お腹いっぱい。 :2006/01/17(火) 18:41:17 ID:ynzlYkVD0
>252 :名無しさん@お腹いっぱい。:2005/08/06(土) 01:02:50 ID:8LmqRlh00
>>246 >この方法は試したか?
>>167 >ブラウザでDLしたいページを全て表示という手間はかかるが
>FLASHもjavaも落とせる。
>落としたページを閲覧する時はクイックサーバー機能を使えば
>FLASHからFLASHを呼び出すものも正常に再現できる。
252さんのやり方で、
ttp://www.geocities.jp/qdobp_m/1125/male_fgt_index.htm をDLしようとしたのですが、
うまくいきません; ;
キャラクターに服を着せ替えようとしたら、右上に×印が出て
キャラクターがハゲになります・・・
このHPは絶対落とせないように何かHP側で対策されてるのかな: :
472 :
hage :2006/01/22(日) 02:25:58 ID:/LJYy4gN0
473 :
hage :2006/01/22(日) 10:34:50 ID:/LJYy4gN0
>>472 自己レスです。
意外に簡単に[Reget]が使えちゃった...
>>475 ありがとうございます。
昔はあんなに使ったIrvineのリンクのインポート機能を忘れていました。
ん
479 :
名無しさん@お腹いっぱい。 :2006/01/28(土) 23:36:43 ID:BmkSJEUR0
巡集の設定のacceptって、ここで設定した拡張子のファイルだけ落ちてくるってこと?
サイトを丸ごとダウンすることが目的の巡集で 一部の拡張子だけダウンしてどーするの?
Autogetで、robot.txtを無視するのにはどうしたらいいでしょうか
482 :
名無しさん@お腹いっぱい。 :2006/02/06(月) 15:28:54 ID:hASXEvIW0
動画ファイル(ストリーミング)を保存したいんだけどダウンロードNinja3 よりいいソフト知ってる人いますか?もしあったら教えて下さい、お願いします。
何故検索しない?
>>484 高いのに使い勝手がイマイチでサポートも悪い。マニュアルも分り難い
フリーの方が速いので買って損した
486 :
名無しさん@お腹いっぱい。 :2006/02/11(土) 08:12:17 ID:Nw8HHa+o0
net transuportやFlashGetの IEの右クリックのコマンドが、 アンインストールしても消えないのは何故? これって消せないのかな? いろいろいじっても消えんのだが
IE、OSの再起動しても残ってるならレジストリを直接弄るか 右クリックメニュー編集ツールを使うとか。 ContexterかIE MenuExtあたりで。
488 :
486 :2006/02/11(土) 11:13:05 ID:c6JMha8Y0
>>487 サンキュー!IE MenuExtで消せました。
Contexterのサイトは閉鎖してたね
>>10 ┏━━━━━━━━━━━━━━━━━┓
┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃
┃│ │ │ │ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │●│ │○│ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │●│●│★│ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │●│○│●│ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │○│●│ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │●│ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │ │┃
┃└─┴─┴─┴─┴─┴─┴─┴─┘┃
┗━━━━━━━━━━━━━━━━━┛
ダウンロードNinja3パッチこないかなぁ(´・ω・`)
┏━━━━━━━━━━━━━━━━━┓ ┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │●│ │○│ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │●│●│★│ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │●│●│●│ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │●│●│ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │●│●│ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃└─┴─┴─┴─┴─┴─┴─┴─┘┃ ┗━━━━━━━━━━━━━━━━━┛
492 :
名無しさん@お腹いっぱい。 :2006/02/16(木) 17:31:31 ID:gq9hY5+m0
>>492 掲示板の宣伝か?
下の奴しか試してないが普通に取り込めるぞ???
IrvineでDLするファイル名に、あらかじめ 冒頭に連番を振ったり、指定した文字列を追加した状態で保存することはできますか?
たとえばimg20060216003[001-099].jpgをDLする場合、 冒頭に jokose_ を追加しておくとかです。
散々外出だけど、Proxomitronで画像のURLを直接得られるようにすればいい。
498 :
493 :2006/02/17(金) 19:14:01 ID:ys0LZ3sI0
>>496 宣伝じゃないとするとマニュアル持ってない割れ使いなのか?
人の良い俺が教えてやろうw
ダウンロードウィザード→アドバンストをクリック、
深さ→2、種類→JPEGのみ、サイズ→10KB〜
これで本編だけの画像が取り込める。
(10KB以上のバナー画像も取り込まれるが削除すればいいだけの話)
これだと5ページめまでの本編画像しか取り込めないから、
10ページ、20ページをブラウザで表示して同じ方法を使えば全部取り込めるだろう。
こんな簡単な方法がわからないなんて、
どう考えてもマニュアル持ってない割れ使いとしか思えないんだがな。
俺は必ずしも割れ使いを非難したりはしないけど、
最低限自分だけで使い方をマスターするだけの努力をしろよな。
もし正規の購入者ならこんなことも分からないと恥ずかしいと思うぞ。
マニュアルみればすぐ理解できる事なんだから自分で解決する努力を汁。
>>498 ありがとう、やってみます。
バナーはやっぱり手動なんですね、、といっても制限かけても
わけのわからないところを持ってきちゃうからそれでいってみます。
割れ使いっていうのがわからないけど、コピーじゃないよ。
オンライン版(楽天で買った奴)
だからマニュアルなかった。
ありがとうございました。
500 :
名無しさん@お腹いっぱい。 :2006/02/18(土) 00:33:22 ID:Nw+5V7860
500
501 :
493 :2006/02/18(土) 14:25:06 ID:P/V6hoS10
>>499 失礼なこと言ってゴメン。
ダウンロードを始めたら本編画像だけ最後まで自動で取り込みたいのは判るけど、
深さを3にしたり場所を同一サーバーや同一ドメインに変えたりしてみても、
そこの掲示板は無理みたいだね。
ところでNinjaバーをIEのツールバーに組み込んで(表示させて)使ってる?
ダウンロードNinja2はIEに組み込むとセキュリティレベルを変更しても、
実際には変更されてなくて中レベルで固定されてるのに気付かずにいてえらい目にあったけど、
Ninja3では直ってるのかな?
Irvineなんですけど、 ダウンロード履歴を残さない設定はできるんですが、 キューフォルダ名や削除履歴などやたらといろんなファイルに履歴を残すんですが、 そういう記録を一切残さないようにはできないですか?
>>485 買おうとしていたのに・・・ダメなのか・・・
誰か使ってる人いないの〜
505 :
493 :2006/02/19(日) 23:34:17 ID:6xYXWB+I0
>>499 まだ見てるかどうかわからんが、ちょっとばかり時間をかけて詳しく調べてみたよ。
ダウンロードウィザード→アドバンスト→概要タブ
URL→
ttp://i-bbs.sijex.net/imageBoard.jsp?id=pan&count=100 深さ→3、種類→JPEGのみ、サイズ→6KB〜
制限タブ→登録したURLを除外にチェック→URL登録→このディレクトリ以下をすべてにチェック
URLパターンに下のURL(バナー画像)3つを追加
ban-img.sijex.net/
affiliate.dtiserv.com/
rinrin.cc/
これで広告なしで本編画像のみ掲示板の画像全部を取り込める筈だ。
ここまでしなくても後から手動で広告を削除した方が早いような気もするが。
やさしい人だな
507 :
名無しさん@お腹いっぱい。 :2006/02/21(火) 23:34:35 ID:+J/lqP0k0
>>485 そうなんだー使いにくいの?フリーでなんかおすすめなソフト教えて下さい。!
ベクターサイトからいろいろフリーのソフト使ってみたんだけどどれもいまいちなんだー
508 :
名無しさん@お腹いっぱい。 :2006/02/21(火) 23:45:03 ID:MVsV/nxN0
ダウンロードNinja使っている方教えてください。 今まで主にエロ画像取り込みに使用していましたが、 突然、すべてのHPの画像取り込みができなくなりました。 ログを見てみると結果が11004:(サービスが見つかりません)と なっています。 IE上で欲しい画像のサムネールをクリックして その画像を表示した後に再度サムネール一覧ページに戻りNinjaで ダウンロードさせてみたら、1回表示(ダウンロード)した画像のみ 取り込まれ、他の画像はやはりだめでした。 設定が悪いのでしょうか? とくに設定を触った記憶はありません。
510 :
名無しさん@お腹いっぱい。 :2006/02/22(水) 21:57:22 ID:VbEivn1+0
>>509 そうします。
マニュアル捨てちゃったんだよね
>>508 iniファイルだけコピーして再インストールしてみたら?
512 :
名無しさん@お腹いっぱい。 :2006/02/23(木) 19:25:50 ID:Ro24FZ+70
gethtmlw ver7.13 をダウンロード出来るところを教えて下さいな。
巡集ver 1.6.1Aひとつき以上前にきてますた * 「HTMLのリンク先の書き換え」を仕様変更。 * 「%を変換しない」の設定が保存されていなかった問題を修正。
丸ごと保存 webox 0.98M WEB収集ブラウザ 巡集ver 1.6.1A gethtmlw ver7.13 さてどうするかな・・
WeBOX+巡集がおすすめ
webox 0.98M にしたけど整理しやすくていい
518 :
名無しさん@お腹いっぱい。 :2006/03/05(日) 01:01:00 ID:m+NfEGgp0
誰かドラマ「ガチバカ」のおとついやったやつとその先週のやつをうpしてください
997 :名無しさん@お腹いっぱい。:2006/03/05(日) 02:20:22 ID:TUl37VjI0 ume 998 :名無しさん@お腹いっぱい。:2006/03/05(日) 02:21:10 ID:eXjuMz/V0 ume 999 :名無しさん@お腹いっぱい。:2006/03/05(日) 02:21:28 ID:wAf218z40 ume 1000 :名無しさん@お腹いっぱい。:2006/03/05(日) 02:21:33 ID:BuN/Pp330 ∩___∩ | ノ ヽ/⌒) あばばばばばば /⌒) (゚) (゚) | .| / / ( _●_) ミ/ ∩―−、 .( ヽ |∪| / / (゚) 、_ `ヽ \ ヽノ / / ( ● (゚) |つ / / | /(入__ノ ミ あばばっあびゃばびゃばば | / 、 (_/ ノ | /\ \ \___ ノ゙ ─ー | / ) ) \ _ ∪ ( \ \ \ \_) 988までが俺ね。 この時間に1000横取りする暇人がいるとは思わなかった ちょっとびっくりさすがソフト板だなw
┏━━━━━━━━━━━━━━━━━┓ ┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │○│●│ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │●│○│ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃└─┴─┴─┴─┴─┴─┴─┴─┘┃ ┗━━━━━━━━━━━━━━━━━┛ ↓
巡集はなぜか文字化けする
日本語サイトしか巡回してないせいかもしれないけど 一度も文字化けしたことはないな
523 :
名無しさん@お腹いっぱい。 :2006/03/06(月) 10:06:02 ID:Ha6oUKGG0
┏━━━━━━━━━━━━━━━━━┓ ┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │○│●│ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │●│○│ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃└─┴─┴─┴─┴─┴─┴─┴─┘┃ ┗━━━━━━━━━━━━━━━━━┛ ↓
524 :
名無しさん@お腹いっぱい。 :2006/03/06(月) 14:02:09 ID:f7X9Gq2H0
画像、画像って何の画像を落としてるんだ? そんなに画像が必要なのか? さっさと白状してしまうんだな。 楽になるぞ!
┏━━━━━━━━━━━━━━━━━┓ ┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │●│ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │○│●│ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │●│○│ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃└─┴─┴─┴─┴─┴─┴─┴─┘┃ ┗━━━━━━━━━━━━━━━━━┛ 俺の勝ち
ダウンロードソフトの最高峰がさらに進化。回線高速機能搭載版もラインナップ!
『ダウンロードNinja 4 for Windows』『ダウンロードNinja 4 マッハ for Windows』...発売のお知らせ
http://www.ifour.co.jp/press/n2006q1/20060303d.html >●IE以外のブラウザに対応
> とり貯めたデータ(画像、URLなど)からインターネットにアクセスする時、
>これまではMicrosoft Internet Explorerしか使用出来ませんでしたが、
>今回のバージョンアップによりIE以外のお気に入りのブラウザを指定することが可能となりました。
>いちいち普段使わないブラウザを開いて、直前にコピーしたURLを貼り付けて・・こんな面倒な手間のかかる作業が解消されます。
>※各ブラウザによっていくつかの制限があります。
・・・てあるけど、↓のコレは何よw
対応ブラウザ
Internet Explorer 6.x/5.5x/5.0x
Netscape Navigator 4.7x/4.6x/4.5x
Netscape Communicator 4.7x/4.6x/4.5x
javascriptによるリンク先も保存できるソフト、ありますか? weboxはできませんでした。
つ 巡集
529 :
名無しさん@お腹いっぱい。 :2006/03/12(日) 18:39:09 ID:+TzmRTTx0
毎回決まったサイトに動画をダウンロードしにいくのがめんどくさいので、 指定サイトからいくつかの規則にしたがって、必要なファイルだけ ダウンロードするソフトがほしいんですが、ないですか? なければどなたか作っていただけませんか? 自分で作るのまんどくせ。 というか技術力なさそうなので1年くらいかかりそ。 【ダウンロード条件の例】 @ファイル名の規則性に基づく(movie[0-9]+.zipとか) A毎回動画をおいてるhtmlが違う場合でhtmlをおいてあるドメインがいつもいっしょの場合は それを自動的にたどってダウンロードできる などなど
530 :
名無しさん@お腹いっぱい。 :2006/03/12(日) 18:40:08 ID:+TzmRTTx0
>>529 作っていただける方がいらっしゃいましたら、
仕様のご提案をさせていただきます。
532 :
名無しさん@お腹いっぱい。 :2006/03/12(日) 23:08:09 ID:PiQiW6Nk0
533 :
名無しさん@お腹いっぱい。 :2006/03/14(火) 10:37:26 ID:5bVRFzlh0
サバ落ち回避のために、1枚ずつHTMLにしてある画像をイリアみたいにまとめてダウンロードできる フリーソフトないですか?
イリアでいいじゃん
>1枚ずつHTMLにしてある画像 ユトリマン丸出しだな。
536 :
名無しさん@お腹いっぱい。 :2006/03/14(火) 21:02:38 ID:GbnU6jh90
537 :
名無しさん@お腹いっぱい。 :2006/03/15(水) 18:34:34 ID:PegQU67o0
誰かしらんとですか?
ふむ、これまでの俺の経験からすると、 一番確実に全部ダウンロードできるのが、GETHTMLW+巡集の組み合わせだな。 GETHTMLWはすばらしいソフトだが、JAVAスクリプト関係とかフラッシュ周りの追跡取得に弱い。 そこで巡集を使用し、巡集のプロキシにGETHTMLWを指定してやると、自動的にGETHTMLW側に JAVAとかフラッシュを蓄える事ができ、しかもLOCALモードでも閲覧できるようになる。 ファイルが2重に出来ることになるので、巡集側のファイルは終わった後に消してOK。 まあ、巡集側でパス変換無効にして蓄えたファイルをGETHTMLWのフォルダにコピーしたのでも 似たようにできるけどね。上記のやり方は俺の趣味。 いかがかな?
ありがとうございました
ええ話や
GETHTMLWって7.14より7.13のほうがいいの?
分割DLついてるとかそんな違いだから
てst
てssy
てs
546 :
名無しさん@お腹いっぱい。 :2006/03/30(木) 19:46:25 ID:Z65LfnHV0
ninja3の体験版つかってるんだけど、数時間の ダウンロードとかするとやたらメモリ喰わない? 時間に比例してどんどんメモリ喰ってく。 この前メモリ使用量2GMB超えたとこでフリーズ・・・
それが、そのソフトに原因があると思ってるなら 大きな間違い
右クリック禁止のサイトをダウンロードして右クリック可能にすることはできますか?
スレ違い
スレ違いだけど、右クリック禁止について質問するなんて カワイイもんだw
Java、CGIまで落とせるのってないですか?
困ったときは巡集
巡集ならJava、Flashまでは対応してる。 当たり前だけど、CGIは静的な結果しか保存できない。
cgi 落とす・・・・
555 :
名無しさん@お腹いっぱい。 :2006/04/09(日) 12:48:05 ID:VchaA2+F0
>554 つ[F5アタック]
556 :
18ban :2006/04/09(日) 19:28:02 ID:osngBrCz0
オハコ板を自動収集できるソフト、もしくはやり方を教えてくれ。
いやあだよ
gethtmlw 7.9.1って鮫島事件並の扱いなんだよね それくらい危険なバージョン 以後非公開らしい みんな公開するのを恐れてどこにも無い
思えば作者が消えたのも関係ありそうだな
>>558 んなわけが…
分割DLってだけでしょ
そんなのはソフト作れない9割以上の一般利用者の間だけの話。
日本語でおk
都市伝説
GetHTMLWのreadmeにVer.7.13から同時接続数を1に制限って書いてあるけど・・・ ってことは最強はVer.7.12ってことじゃまいか?
多重DLでアク禁されてもいいならどーぞ
かつてはその仕様のせいであちこちに迷惑かけた結果、はじくところが増えたんだよ 作者が長いこと放置していたし。 コレに限らず使い方次第では嫌われて当然なジャンルだから自覚してくれよ
cgiだから無理
cgiに屈するなばか
Get web! with Image Browserってもうどこにも落とせるところない? これ以上に使い勝手いい取り込みソフトなかったんだけどHDDと一緒に消えてしまった・・・
は?
バイナリエディタでけつに0加える
>>575 うお、マジthx!!
これでgethtmlw使わなくてすむ(ノД`゚・。
GETHTMLWはJavaにもFlashにも対応してないから、 巡集の方が便利だと思うんだが、あえてGETHTMLWを使うメリットってあるの?
?
巡集はまた更新が止まっちゃったね
というか、作者がどうなったかが心配になる
波乗りおぼれすぎ 一回目と二回目では取得できるファイルとそうでないのがあるから困った 完全に取得できるソフトってないのかな
WebReaperはどうかな? くまかわ堂の日本語パッチを当てて使ってみたけど、 巡集に近い感じ。 IEのお気に入りを読み込むのが煩わしいけど。
gethtmlw 7.9.1 って何ですか?幻のソフト? その前にそんなのあるの?
WebReaperってuseragentはどうなってる? 巡集みたいに自由に設定できるの?
やっぱり保管サイトごと保存できるのが最強だよ。 HDにファイルだけ入れても何が何かわかんなくなるし その機能に、差分取得機能。 あと、いろんなwebページに対応してるのが最強だな
>>586 自由設定はできる模様。
(none)を選ぶと空欄になるので、
userAgent一覧からたとえば、
Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0;)
を入力できる。
プリセットされているのは、次の項目。
"事前に定義されたブラウザ user-agent strings(&P)" Buttonで
(none)
WebReaper
Microsoft Internet Explorer
Netscape 4.5
Opera v3.5
ちなみに、入っているもは、「Microsoft Internet Explorer」を選ぶと、
Mozilla/4.0 (compatible; MSIE 6.0; Win32)
たしかIrvineと同じものなので、弾かれる所もあると思う。
Win2kSP4を使っているので上記で設定している。
なお詳細なログが出力されるので、取り込み失敗もわかりやすい。
590 :
名無しさん@お腹いっぱい。 :2006/04/18(火) 21:07:19 ID:colwsEdr0
blogを丸ごとゲットできるソフトってあります? gethtml他色々試してみたのですがうまくいかないのです・・・。
>>590 丸ごとが通常の閲覧と同じ意味をさすなら、cgiの取り込みを出来ますか?
と聞いているようなものなんだが。
>>591 すいません、ブログ内の画像やzip等のことです。
ブログにおける"そのページ内の"だけではなく"そのサイト全体にある"というような感じの。
僕たち純真無垢のageブラザーズ! スレが盛り上がるようにageてあげるよ!  ̄ ̄∨ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ∧_∧ ∧_∧ age (・∀・∩)(∩・∀・) age (つ 丿 ( ⊂) age ( ヽノ ヽ/ ) age し(_) (_)J
>>592 リンクが貼ってあれば、大抵のソフトなら取って来るはずだけど。
外部サーバのリンクを弾いてるだけじゃないの?
ログインしなきゃ見れないサイト 巡集だとクッキー送って取得出来たけど gethtmlだとクッキー送っても出来ない・・・。 ログインしてください の画面で止まってる。
597 :
名無しさん@お腹いっぱい。 :2006/04/19(水) 19:35:00 ID:kxNXyymu0
GIGAGETはどうですか?
というか、丸ごと取り込みソフトとしてはスレ違いでは。
>>592 WEBEX、NextHttp、Isabel、画浪(free)、MzGet、MIDown、
とかダウンロードツールの範囲だね。
Irvineが一番使いやすいと思うけど。NetTransportもね。
>>599 氏の言うようスレ違いだと思う。
ダウンロードツールで目的の使いやすいものを選んでみたら?
602 :
作者 :2006/04/22(土) 14:12:21 ID:ej/0ZIgw0
いやぁ 留置場にお世話になってました、でももう釈放されたんでこれからNewVerつくります。
巡集が巡査にご厄介?
604 :
名無しさん@お腹いっぱい。 :2006/04/26(水) 07:56:22 ID:o8bSTe/60
数十万単位の画像がある大手サイトは自動でダウンロードできないところが多いな
606 :
名無しさん@お腹いっぱい。 :2006/04/30(日) 13:12:44 ID:QK3Wf2y+0
WeBoXにエクセル、マウスの動作を記録するソフト等を組み合わせたらうまくとれるようになった。 エクセルの文字列操作が使える。これでURLのテキストを作ってWeBoXで読み込む。 マウスの動作を記録するソフトは遅いが、これなら手動でとれるものなら必ず取れる。
WebReaper使ってみたけど 日本語化した後、すべてのファイルで「開くの・失敗しました」って出て まったくダウンロードの収集ができない(´・ω・`)
テキストファイルに書かれているURLのリストを読み込んで 全てダウンロードしてくれるソフトってありますか? あるいは、テキストファイルからリストを読み込んで 別々のFirefoxのタブで開けてくれるのでもいいです。
>>607 >>588 だけど、ユーザーエージェントは何を使っている?
自分は、Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0;)を
使っているけど。
試しに次のサイトを取り込んでみたけど、問題なく取り込めるよ。
取り込んだものは、ローカルファイルとして開く事ができる。
取り込み先は、C:\とは別ドライブのパーティションM:\
OutPost 2ch まとめサイト
ttp://www.geocities.jp/techtrans1999/index.html でログは次のとおり。
「2006/05/04 6:20:36: ダウンロード完成
2006/05/04 6:20:36: 654は処理されて、4862進の168 htmlをリンクします。
9は失敗しました, 0は(変わりのない)でスキップされて、
12.2Mbは44sでダウンロードされました. データ転送速度: 283Kb/sec.」
ファイアーウォールでWebReaperを遮断していない?
ブラウザやダウンロードツールと一緒だよ。
もちろんユーザーエージェントの考え方も。
それから報告するときは取り込み先の、URLを書いてくれないと、
何故取り込めなかったか解らない。OSもね。
>>608 GetHTMLW
一行目に[MultiURLSetting]と書いてある拡張子.musのテキストファイルが読み込める。
URL以外は認識しないのでコメント文も書ける。
関係ないけど、UWSCでの自動化は便利だよ。
ダウンローダー雨でも出来る
巡集ってファイル名の最後が7zで終わるファイルはダウンロード出来ない?
URLフィルタの許可リストに*.7zを設定しても駄目なんですね。 なんでだろう。
なんかサンプルのURLある? 漏れも試す
616 :
614 :2006/05/10(水) 01:21:27 ID:EKw6ZpzP0
確かにリクエストさえ送れないね。なんででしょ。
7-Zipって圧縮ファイルなのね。 はじめて知ったよ。
準集、パスの途中で「.」が頭に付くディレクトリ名が入っていてもエラーを返すな・・・・
620 :
名無しさん@お腹いっぱい。 :2006/05/10(水) 15:45:50 ID:Hg4Dg4Ty0
先頭が数字だとダメなんかな。 変数も最初数字使えないし。
>先頭が数字だとダメなんかな
駄目みたいだな。
どうやらファイルの拡張子の最初の一文字目が数字だとエラーになる模様。
既知の不具合?は他に
・ダウンロード中の待ち時間が有効にならない部分がある
・「javascript内のURL先は
http:// のみ変換」で
ローカルに保存した際にリンク先が見られなくなってしまう事がある
・パスの途中で「.」が頭に付くディレクトリ名が入っているとエラーを返す
といったところか。
GetHTMLW、URL残量50000とか出るorz ネカフェから短時間で丸ごとダウンドローは辛い。。。
ブログなんかでよくある cat_1142593.html?p=2 や 2006-04.html_p=2 とかの
urlでもちゃんとオフライン(ローカル)で見られる取り込みソフトってありますか?
個々のブログの投稿記事自体は取り込めているんですけど、
http://blog.livedoor.jp/future5/archives/cat_1142593.html?p=2 のような
最後に ?p=2 とついていると url自体はローカルパスに変換されているのですが
(file:///D:/Program%20Files/Downloader/巡集/junshu/blog.livedoor.jp/future5/archives/cat_1142586.html_p=2)
「サーバが見つかりません」となってページを表示できないんですよね。
webox、巡集とも駄目だったんで、困ってます。
これはサーバサイドにcgiなどのプログラムが動いているおかげで、
?などがつくurlが機能していて、そのためローカルにはそのようなプログラムがないため
表示できないということなのでしょうか?
これではローカルにお気に入りのブログを取り込んでも、まともに閲覧できないので
困ってます。
解決方法があれば教えてください。お願いします。
Speeeed
GetHTMLWのサイトとかBBSまだ有るの?
junshuでしかダウンロードできない画像ファイルがあるんですが URL構造を再現しない方法はありますか? もしくは他のツールで代用できませんでしょうか?
そこは考え方を変えて、巡集でダウンロードしたあと 「複数のフォルダから下層にある画像ファイルを探索して、 抜き出して一つのフォルダ下に集めるプログラム」のようなものを 使ったり使わなかったりしながら整理するというのはどうだろうか
入力したURLのページがない場合、自動的にgoogleキャッシュ等から取得して上に表示されるキャッシュされた日付等を除去して保存できるソフトないでしょうか?
自分で作れば?
Proxomitronでリダイレクトさせれば可能だな。
左にフレームがあるサイトとか junshuでDLしようとすると、DL出来ず表示されなかったり TOPに戻り、「左のフレームが表示されない場合は」のリンクがあるURLで DL始めても、リンク先が「about:blank」ってなったりするのですが フレームで区切ってある?サイトをDLするには、どうしたらいいでしょうか?
>>633 フレームサイトでもDL所もあります。
フレームのサイトで、フレームの部分だけDL出来ない所が多いんです。
URL
>>634 DLできないサイトのほうが珍しいと思うが。
フレームが通常index.htmlのはずだけど。 フレームの展開先のURLを指定してるとか?
URLを晒すと幸せになれるかもしんない。
巡集で前回のままのフィルタで除外してしまったファイルを、
フィルタを外して再試行でダウンロードしようとしてもできなかった。
しょうがないのでいったん削除して、全てダウンロードし直しますた。
>>251 >>253 過去ログをあさってたらこんなレスが。
この再試行不可なのは仕様なのかー。
640 :
名無しさん@お腹いっぱい。 :2006/06/19(月) 08:01:49 ID:dqgUGQtz0
641 :
名無しさん@お腹いっぱい。 :2006/06/22(木) 09:20:23 ID:uzO+jNTb0
(´◕ω◕`)
(´◕ω◕`)イイ!
巡集のような、webサイトを保存するようなソフトが他にあれば教えてください。
646 :
644 :2006/06/27(火) 08:37:13 ID:rom9fVjk0
>>645 巡集くらい完璧にDLしてくれるソフトはありませんでした。
幸せになったな
だったら巡集作者がバージョンアップするのを待てばいい
・GETHTMLWのユーザーエージェントを変更する ユーザーエージェントによって拒否されることもあるので、それの回避法です。 バイナリエディタで「Pockey」と検索するとユーザーエージェントの文字列が出てくるので それをお好みに書き換える。領域の長さの関係上、IE等の長いユーザーエージェントには 書き換えられない。OSのバージョンなどを削って適当に短くするかするか、 NetScape等の短いUAのものを使いましょう。 文字列の終端は 0D 0A 00 で終了させる。余ったところは0で埋める。 場所は、バージョン7.14.1だと0x63C00あたりです。 ・巡集で、「巡回が拒否されました」というエラーが出るのを回避する <META NAME=robots CONTENT="INDEX,NOFOLLOW"> などというタグがあるとそれを忠実に守って巡集が巡回を中止してしまいます。 これを回避するには、文字列を書き換えて強制的にタグにヒットしないようにします。 具体的には、バイナリエディタ等で「robots」を検索し、「robotX」などに書き換えます。 ver 1.6.1A だと、0x41C70あたりです。 この処置は非常に便利ですが、くれぐれも相手側のサーバーに負荷をかけ過ぎないように 注意してこれらのソフトを使用してください。
Javascriptで暗号化されてるから無理だね。 GETHTMLWでプロキシモードにして、ブラウザで閲覧したページを保存していくのはどうだろうか?
>>652 出来ませんでした。
ゴミファイル?みたいなのが数個DL出来ただけ・・・。
暗号化されてるから無理なのでしょうか。
654 :
sage :2006/06/29(木) 07:13:52 ID:magVV5uA0
プロキシモードで保存っていうのは、gethtmlwのマニュアルから引用すると ● 拡張 Proxy 機能(Proxy Mode 2)で、オンラインでのネットサーフィン時に 見たデータを全て保存できます。 ・まるごと Get でなく、必要なものだけ取っておきたい、場合に便利 ・もちろん、オフラインでの閲覧方法もオンライン時と同じ というもの。 これでやってみた? ただしいくつか問題があって、この方法でもJavaアプレット(Javaスクリプトではない)のように ブラウザを介さないで通信するものの場合はうまく保存できない場合がある。(例:お絵かき掲示板のリプレイなど) もうひとつは、GETHTMLWはURLにパラメーターが入ってると勝手に保存ファイル名を変えて、しかもリンクを書き換えないので パラメーターが入ってるページを保存した場合、Explorer等からHTMLを開いてブラウザで見ることはできなくなる。 そういう場合はLocalModeで見るとうまくいく。 だからそういうパラメーター入りのページはgethtmlwのディレクトリごと保存してる。見るときはブラウザのプロキシを設定を変えないと 見れないのが面倒だが、この方法はページの再現度高い。
>>650 巡集は取得設定で「HTMLのMETAタグを読まない」にチェックを入れると
全部取得できるんと違うの?
ところで「ファイルが更新されてるか確認」にチェックを入れないと
更新ファイルを取りに行かない仕様になったのはなぜでしょ。
1.5xまでは初期設定のままで更新ファイルも取ってきてくれたはず。
デフォでチェックのほうがいいとと思うんですけど。
>>654 ありがとうおございます。
やってみました。
駄目でしたね
657 :
654 :2006/06/29(木) 18:31:15 ID:magVV5uA0
とりあえず試してみたら取得できたっぽいけど・・・ まあ、もちろんProxy2モードで取得する場合、ブラウザで見たページしか保存されないけど。 どういう風にやって、どういう風に駄目なんですか?
あのね、ローカルモードで次々に取得ダイアログ出させるという方法もあるよ。 欲しいやつだけどんな風に飛ばされてるのか判るし。 GetHTMLWはURIのパースにちとバグがあってOperaみたいな標準に厳しい ブラウザだと巧く使えないのが困る。 もうメンテされてないのかな?
# GetHTMLW(標準取得)
GET /test/read.cgi/software/1085915277/ HTTP/1.1
Host: pc7.2ch.net
User-Agent: Pockey-GetHTML/4.14.1 (Win32; GUI; ix86)
Accept: */*
Connection: keep-alive
# IE6 ⇒ GetHTMLW(Proxy Mode 2)
GET /test/read.cgi/software/1085915277/ HTTP/1.1
Host: pc7.2ch.net
User-Agent: Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1)
Accept: */*
Accept-Language: ja
Accept-Encoding: gzip, deflate
Connection: keep-alive
# GetHTMLW(標準取得)⇒ Proxomitronで補完
GET /test/read.cgi/software/1085915277/ HTTP/1.1
Host: pc7.2ch.net
User-Agent: Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0)
Accept: */*
Accept-Language: ja
Accept-encoding: gzip, deflate
Connection: keep-alive
Referer:
http://pc7.2ch.net/test/read.cgi/software/1085915277/
>>657-658 ありがとうございます。
なんとか取得できました。
が、全てクリックしてブラウザで回らないと駄目なんですね・・・。
あまり実用的じゃないですね。
こーゆーサイトは、こーゆー手使うしかないのかな。
> が、全てクリックしてブラウザで回らないと駄目なんですね・・・。 それができればその結果を見ながら取得条件をそれなりに作れないか? あとは更新したときそれで回してやればいい。
巡集が久々の更新 ver 1.7 (2006/07/01) * 認証パスが正確に保存されないバグを修正。 * BASIC認証時の処理を改善。 * 追加ダウンロード機能を追加。 - 追加URLタブに入力されたURLをすでにダウンロードされたファイルと同じ フォルダ内に保存します。 * %を含むURLの判別処理を修正。
誰か準集の掲示板に
>>621 の不具合報告してくれない?
どうも書き込めなくて_| ̄|○
メールすればぁ?
665 :
名無しさん@お腹いっぱい。 :2006/07/03(月) 18:21:20 ID:JX+TxRmN0
666 :
名無しさん@お腹いっぱい。 :2006/07/03(月) 18:21:58 ID:7tfOkuGA0
┏━━━━━━━━━━━━━━━━━┓ ┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │○│●│ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │●│○│ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃├─┼─┼─┼─┼─┼─┼─┼─┤┃ ┃│ │ │ │ │ │ │ │ │┃ ┃└─┴─┴─┴─┴─┴─┴─┴─┘┃ ┗━━━━━━━━━━━━━━━━━┛ ↓
ver 1.7.1 (2006/07/03) * ファイルを指定してダウンロードを開始するとリンクを辿らないバグを修正。 * HTMLのダウンロード時の待ち時間が反映されないバグを修正。 * パスの途中で「.」が頭に付くディレクトリ名が入っているとエラーを返すバグを修正。 * ファイルの拡張子の最初の一文字目が数字だとURLエラーになるバグを修正。 スパムフィルタに引っかかって掲示板に反映されなかったけど 作者さんには届いていたみたいで修正されていました。 例によって仕事が速いっ。
www.microsoft.com/japan/technet/security/bulletin/ms06-032.mspxなどの場合、 <META HTTP-EQUIV="Refresh" CONTENT="0.1; URL=【同URL】>で同一アドレスに リフレッシュ後本体が落ちてくる。 GetHTMLWでは、「取得条件設定」→ [移動Pageの完全追跡] を黒チェックにしても [8:更新チェックを行う] を【無効】にしないとダメなので複数URL指定取得時に不便。 URL毎の条件設定では正規表現が使えないし・・・ 「Proxy Mode 2」 又は、同URLを再度取得実行すれば【有効】のままでも取得できるけど・・・ 更新チェックしながら一気に取得する方法ありませんか?
ダウンロード SPIDER 右クリ文字化けしてもたよ・・・・・
> GETHTMLW こんなクソソフトが何で取り込みツールの代表みたいにのさばってんだよ
使い方判らない人登場。
わろた
バーカ もっといいソフトがあるんだよw ベクターにも載ってないようだが つーか、ベクターでさえコイツが一番人気のソフトになってるみたいだなw
まぁたぶん使用目的が偽装されてるからだろうな
わろた
だいたいな、ページ保存してパス設定してローカルでサイトを閲覧する工程を 自動でやるソフトが 導入の時点でこんな手間かけないと使えないこと自体がおかしいわけで
いいのって何なの?
>>668 自己レス。
1回でも取得すると、その後は連続取得可能に成る事が確認できた。
先ず1つのURLを取得する。
後、そのURLを含めて「複数URL指定取得」で一気に取得する。
これでバッチリOK。
ベタなやり方だけど、これしか無いような。
Proxomitronで弄りまくったけどダメだった。
が、ログをよく見てたら「Proxy Mode 2」はブラウザの挙動そのままだった。
・・・うっ 当たり前かorz
あと、
>>668 訂正。
>[8:更新チェックを行う] を【無効】にしないとダメなので複数URL指定取得時に不便。
[8:更新チェックを行う] を【無効】にしてもダメです。
ネットを切らないと再現しない事に気付かず早とちりしてしまいました。
GetHTMLWが難しいとか面倒とか行ってるやつはIE使っとけよ。 そもそもいちいち保存しなくてもお前の欲しいのは大抵 インターねっつにあるから心配するな。
というより作者がへぼいだけだろw
初心者は馬鹿でも使える巡集を使っとけ 巡集で落ちないサイトは諦めろ
gethtmlwにあって巡集にないものとは?
JavaScriptをダウンできないとか?
ごめん間違ったよ
>>684-685 それ、逆だね。
JAVA FLASH
GETHTMLW × ×
巡集 ○ ○
687 :
名無しさん@お腹いっぱい。 :2006/07/11(火) 07:13:28 ID:HZp1e1RR0
gethtmlw糞じゃん
やはり俺が使ってる巡集は良ソフトだな
>>686 JAVAじゃなくてJavaScripだからな念のため
この二つは全然違うものだから
巡集でJavaScriptDL出来れば最強 GETHTMLWいらない。
結論は前スレで出たのに何でいまさらそんなこといってるの
692 :
名無しさん@お腹いっぱい。 :2006/07/11(火) 21:37:36 ID:FOCW558y0
昭和年月米潜水艦放魚雷本命中5本不発小破う幸運艦安川孝雄城本高輝読売孝子用紙梱包後昭和年月日北方海域米潜水艦雷撃受魚雷中沈没案現在駐輪場積極的
pixGet 直りんダウンローダー Website Explorer 巡集 これだけ揃えてもまだちょっと やはり巡集にjavascript対応すればなぁ
日本語でおk
s = "
http:// ";
s = s + "abc.htm";
こんなスクリプトも書けるのにどうやってURLを見つけろというのか
バックグラウンドでGeckoやIEエンジンにHTMLを描画させて そこからURLを抽出する方法があるかな
全てのスクリプトに対応するのは無理だとしても よく使われてるやつくらいは普通にDLできるようにしてほしい
>>698 とりあえずBBSはログイン必須のようなので、ユーザー認証の設定が必要。
あとBBSのDLは普通に無理。
>>699 ありがとうございます。
BBSのDLは出来ない仕様だったんですね。
BBSもDL出来るようになるといいな。
某サイトを巡集で半日。 残りファイル数200万。 今もドンドン増え続けてる。 諦めるか。
>>700 BBSがDL出来ない理由。
BBSは書き込みデータをスクリプトでhtmlに変換して表示している。
スクリプトには表示条件を渡す必要がある。
表示ページだけの保存は出来るけれど、オフラインでオンラインと同じ閲覧は無理。
ローカルにサーバー立てて再現すれば… まあ、あまり意味ないけど。
704 :
名無しさん@お腹いっぱい。 :2006/07/12(水) 18:38:41 ID:eG0zoUk50
>>701 そこまでして保存したいサイトが知りたい
300万超えちゃった。 いつになったら終わるんだろう。
>>702 ありがとう。
自分でhtmlで保存して、リンク書き換えて使います。
>>705 不要な外部サイトはフィルタリングしたら?
それとも1つのサイトだけで、そんなにファイルがあるの?
>>707 一つのサイト
残りファイル増えるばっかりだから、終了させた。
オンラインでいいや。
動的なページだと解析がうまく行かずにリンクが無限増殖するかもね。 同じページなのに「?」以降が微妙に違って別リンクと読んじゃうとか
>>697 > 全てのスクリプトに対応するのは無理だとしても
> よく使われてるやつくらいは普通にDLできるようにしてほしい
さっぱりわからん…。
>>697 してほしいならその「よくつかわれてるやつ」のパターンを作者に伝えるぐらいの努力はしないとな
要望出しても対応してくれないことが多いよ
Javascript使ってるサイトは少なくないんだから DLできるようにしてほしいと思ってるやつは多いはずなんだけどねえ
スクリプトってなんだよ
715 :
名無しさん@お腹いっぱい。 :2006/07/13(木) 18:50:51 ID:M8TScjQx0
>>693 これの中で一番使えるの何?
今は準集使ってるけど
>>715 どれが一番ではなくそれぞれ特化してるところを使ってるだけ
1個で全部やろうなんて考えない方がいいかと
あくまで画像HTML収集に使ってるものだけど他のファイルも収集できるかも?
私がわかっているのはこんなところ
よさげなDLツール集
http://www7.ocn.ne.jp/~otoku/free-s-download.htm Website Explorer
指定URLの外部以外のファイルを詳しく解析し丸ごとダウンロード
metaタグ(ロボット避け)で不能になる
直りんダウンローダー
URL指定Webページに直接リンクされたファイルを一括ダウンロード
他にも同じようのソフトあるけどこれが楽だから
(GetFiles・NextHttp・まいダウン・CompleteGetter)
DCさくらある人なら不要かとただIE使わなきゃいけないけど
pixGet
?img?で埋め込み画像・直リン画像・リンク先html→埋め込み画像など(拡張子指定でいろいろ)一括ダウンロード
他のIrvineなどのソフトのように驚異的なサーバー負担がないそうです
巡集
広告を取り除いてサイトを丸ごとダウンロード
metaタグ(ロボット避け)無効にできるなどなど
ある意味すれ違いな内容ですいません
>>668 ,679再自己レス www.microsoft.comの件。
スクリプト(UWSC)で完全自動化できました。
1.Proxy Modeに切り替えて小さなGIFをウインドウ非表示のIEで読み込む
2.IEを閉じ、Local Modeへ戻す
3.URLリストファイルをGetHTMLWに読み込ませて複数URL取得
4.完了
弄ってて気付いたんだけど「1」の応用。
Proxy Mode 2にしてIEを操作する・・・もちろんウインドウ非表示。
文を解釈するのは当然ながらIEなのでJavaScriptの問題が解決できるかも。
しかし複数のIEを同時に起動することになるのでメモリ消費が・・・
今の所必要性を感じないのでやる気は無いけど、そのうち(ry
あ、「拡張子/文字列フィルタ」「許容URLの設定」の他にgethtml.mcfの
設定も活用した方がいいですよね。あとはProxomitronも必須ですよ。
GetHTMLWって難しいな 使いこなせればすごく便利そうなんだけど
慣れればなんともねぇよ。
721 :
名無しさん@お腹いっぱい。 :2006/07/15(土) 11:32:58 ID:qEvRUBYL0
さっきコミックをダウンロードして 早速DVDーRに落とそうとしたのですが容量が大きいんです。 それで圧縮したまま落としたんですが今度は コミックの画像をめくろうとしてもめくれなくなりました。 (すべて展開したときはめくれました) そこでDVD-Rにコミックを上手に落とすやり方を教えてください。
>>719 巡集で十分だから
使いこなす必要ないけど。
html取り込んだときの、ページに挿入された画像なんかのパスは
どうなるの?
紙っていうソフトは取り込んだページの入ったフォルダを
別のディレクトリに置くと画像を表示できないんだけど
>>716 のソフトだとどうなの?
どのソフトでもファイルを移動したら画像は見れないと思うが
いや、保存したページの入ってるフォルダのディレクトリの位置を変更した場合
普通は相対パスで記述されるから関係ないが、 紙ってのは、絶対パスで記録されてるの?
いんや相対パスもおk
有料版のkamicopiだけじゃないか? 紙2001の場合フォルダ位置変更したら悲惨 紙のようにすばやく取り込めてフォルダ移動しても画像が表示できるソフト ないもんかな
紙はスクラップソフトで、丸ごとDLがメインのソフトじゃないからなあ スレ違いのような気がする
730 :
716 :2006/07/15(土) 23:47:53 ID:F7aEEzWq0
>>723 紙がどうかは知りませんが
meta入りでなければ
Website Explorer
meta入りなら巡集
どちらもフォルダを丸ごとダウンロードなので画像&htmlなども一緒にダウンロードし
パスを表示するように変えていた気がします
>>730 サンクス
HPを丸ごと保存したい時は便利なんだけど
ちょこっと取り込みたい時に相対パスにしたい場合は
やはり有料版を使うしかないのかなぁ…
gethtmlw 7.9.1>>>>直りんダウンローダー>>巡集>>>>>>>>>>>>>>>>>>>>>>>>>>>>gethtmlw
>731 相対パスな気がするけど違った?
>>733 ひそかに無料版は絶対パスなんですよ…
酪西さんもせめて絶対パスくらいは無料版に入れておいてほしい…
質問掲示板にタマだかポチだか変なのがいるし
巡集より優秀なのないの?
シェアソフトならいくらでも
巡集 最近よくエラーで終了する。 また、最初からやり直し・・・。 サイトのファイル数が多いとよくなる。
ああああああああああ GetHTMLWの使い方忘れてもうた
だめだ。 チョット前に、やっとこさ使い方覚えたのに。
ウェブサイトエクスプローラーで取り込んだら ページ内のリンクのパスが元のままで クリックしても取り込んだリンク先のページに飛ばないんだけど ブログとか。 やっぱり準州のほうがいいのだろうか 何が原因なのか教えてくださいm( __ __ )m
巡集で落としてみればいいじゃん
スレ違い 他で聞け
745 :
743 :2006/07/22(土) 10:09:03 ID:qiY1LIfY0
なぜスレ違い? 巡集じゃ駄目だから聞いたのだけど。
ここはサイトを丸ごとDLするスレで 動画をDLしたいならそういうスレがあるうだろうと
747 :
743 :2006/07/22(土) 11:56:59 ID:qiY1LIfY0
そのサイトに
>>743 の動画が埋め込まれていたのと
丸ごと取り込み が括弧なのと
他にスレが見当たらないので
ここで質問したのですが、スレ違いでしたか。
申し訳ないです。
スレ見つからないのですが、どこいけばいいですか?
いまだにバージョン1.56の巡集を使ってる 最新バージョンはいろいろ機能が増えてるんだろうなあ そろそろ切り替えようかな
使い分けすれば良いじゃん
基本的にバグ修正だから、機能以前に新しいのにした方がいいよ。
wiki系DL出来るソフトってないですか? 巡集リンク辿ってくれないです。
>>749 使い分けする必要はないだろ?
最新版だけで充分
最新版はURLフィルタの登録が面倒なので1.55.5aと使い分けてるな。 UIも古いので慣れてるし。
オサーソだな
巡集1.56までは巡回禁止サイトでも落とせるんじゃなかった? 最新版でも落とせるの?
> ver 1.57 (2004/10/27) > * コマンドラインに -start と入れることで自動的にダウンロード開始。 > * 保存フォルダが参照されていないバグ修正。 > * 巡回が禁止されているサイトは辿れない仕様に変更。 巡回禁止サイトとか見ることないから、気にしてなかったが。
METAタグを読まないで回避できるけど、 最近のサイトの作りだと無視したら弊害の方が大きそうだな。 >650の方法で、実行ファイルを弄ってやれば回避は出来た。
自分で書き換えするしかないのか。
巡集作者の株式投資は順調なのか??
と思ったら途中で終了した。 出来てなかった。 残念。 書き換えてみた。 どうなるかな。
結果同じ。
あん?書き換えてもだめだったのか?
wiki系をDL出来るソフト教えてください。
766 :
名無しさん@お腹いっぱい。 :2006/07/29(土) 10:54:34 ID:wTKM0Z7g0
age
HDDにどれだけ余裕があるんだ
インターネッツを使えばHDDはそんなに必要ありません。
インターネッツを一つください!
770 :
名無しさん@お腹いっぱい。 :2006/08/03(木) 06:36:46 ID:RjdRlgty0
gethtmlw 8.0
773 :
名無しさん@お腹いっぱい。 :2006/08/05(土) 06:39:27 ID:TO5G5TVH0
774 :
名無しさん@お腹いっぱい。 :2006/08/06(日) 06:46:27 ID:KP+Wbf4R0
775 :
名無しさん@お腹いっぱい。 :2006/08/06(日) 22:08:30 ID:60rmuwXp0
動画やネットラジオ保存ソフトのMPX2 Extreme Editionは使い勝手は 良いでしょうか? 保存の初心者なので市販ソフトのほうが無難だと思い、検索したらこの ソフトしか見つけられなかったもので…。 宜しくお願いします。
777 :
名無しさん@お腹いっぱい。 :2006/08/12(土) 10:17:02 ID:aDABj0Tt0
とりあえずそのエラーを全部コピーして ダウンロードリストに貼りつけたら行けたよ 全部落したわけじゃないけど 多分ローカルでのリンクが少しおかしくなるから その辺はSpeeeedとかで上手くやればいいと主 「?」の位置が変なところにあるから解析に漏れてんのかな よくわからん。
巡集だとふたばの画像が拾えない
ふたばは専用のソフトがあったような
双助 やよネな
787 :
名無しさん@お腹いっぱい。 :2006/08/27(日) 22:54:37 ID:/HV2MXu10
掲示板の書き込みが消されたりする記録をのこしたいのですが 波乗り野郎 だと更新された(削除された)掲示板の情報が上書きされてしまいます 何かよいソフトはないでしょうか?
掲示板の書き込みが削除されるログの記録を残したいのですが 波乗り野郎 だと更新された(削除された)掲示板の情報が上書きされてしまい 消えてしまいます。 何かよいソフトないでしょうか
790 :
名無しさん@お腹いっぱい。 :2006/08/29(火) 19:03:24 ID:zGeMnRIr0
ダウンロードした動画をメディアにコピーするにはどうしたらいいの?
>>790 copy 動画 メディア [enter]
海外のモデルの画像のページなんですが flashを使用して作られているページを丸ごとダウンロードしたいんですが おすすめソフトありますか?
巡集
ベクターからDLしてるのに IrvineにCnsMinがくっついてくるのはなぜー
Irvineの作者がJWordと提携してるから
ありがと 勉強してきます
>>796 そうだったのか
今まで知らずに使ってたとは恐ろしす・・・
801 :
名無しさん@お腹いっぱい。 :2006/09/10(日) 13:26:10 ID:7oFMcAHG0
教えてください ど素人な質問だと思いますが・・ 動画のデモをダウンロードする時 メディアプレーヤーでダウンロード する場合と、何も画面は変わらなくて 左下にダウンロード中と出る時があります。 後の場合の動画ををiriaやイメージダウン ローダーで回収に行ってもオブジェクトが 移動しましたと出てうまくいきません・・・ 巡集も試しましたが。 諦めるしかないのでしょうか。 よろしくお願いいたします
URLださないと。
Refererを設定すればいけるんじゃないの と適当に答えてみる
804 :
名無しさん@お腹いっぱい。 :2006/09/13(水) 02:59:30 ID:wJvEZSj40
level: ?精? 体力: 2515 / 2709 魅力: 2436 / 7582 エロ本屋行った方がいいと思う。
807 :
名無しさん@お腹いっぱい。 :2006/09/13(水) 12:43:40 ID:wJvEZSj40
>>806 ありがとうございます。ですが、だめでした…orz
他のアプリケーションによるダウンロードが始まると 自分が行っているダウンロードを一時停止して、 他のアプリケーションによるダウンロードが終わると ダウンロードを再開するような機能を持つ ダウンローダーはありませんか?
ない
810 :
名無しさん@お腹いっぱい。 :2006/09/29(金) 12:30:07 ID:e0Al5cww0
ストリーミング配信って、落すたびに違うファイルになるの? getasfstreamとnettransportdで同じ物落としたんだけど、 ファイルサイズとかデータが違っているんだけど。 聞いてみたら、どっちも一応流れる内容は同じっぽいけど。
>>810 スレ違い。
GASは独自にIndexを付加するので、他のDLソフトとは若干ファイルの中身が変わる。
812 :
名無しさん@お腹いっぱい。 :2006/09/29(金) 13:06:32 ID:e0Al5cww0
なるほど、そうなのか。 どもありがとです。
813 :
名無しさん@お腹いっぱい。 :2006/10/05(木) 00:36:15 ID:AcBVrZo80
画像のリンク先が別鯖になってるページを一括DLする方法を教えてください 今はそのページを表示し右クリックでIrvineにすべてのURLを送る方法でやってるんですが 画像が置かれてる鯖がばらばらでファイル名を連番でリスト化する事ができません Gethtmlだと設定を甘くしないと落とせず、そのため無関係のファイルが1000以上もかかって DLが止まらず強制終了する羽目になりました
>>813 2:.(jpe?g|gif|png)
0:*
815 :
813 :2006/10/05(木) 17:30:57 ID:AcBVrZo80
>>814 出来ました。ありがとうございましたm(_ _)m
サイトを丸ごと取り込みたいのですが、フォルダに保存しておく方法が分かりません。 WEBOXの中に取り込むことは出来たのですが…。 圧縮でも何でも良いので保存する方法をご教授お願いします。ちなみに 何故か巡集は蹴られてしまったので…。
サイトを丸ごと取り込みたいのですが、フォルダに保存しておく方法が分かりません。 WEBOXの中に取り込むことは出来たのですが…。 圧縮でも何でも良いので保存する方法をご教授お願いします。ちなみに 何故か巡集は蹴られてしまったので…。
連続投稿すいませんorz
ラピッドを落とせるダウンロードマネージャーは存在しますか。
824 :
名無しさん@お腹いっぱい。 :2006/11/19(日) 12:39:07 ID:il3hCipT0
DLorderってアプリ持ってる人いませんか? ブラウザで表示された画像をD&Dで保存(ファイル名重複時にはリネーム)するアプリなんですけど。。。 作者HPは閉鎖されてしまっててどこにも残ってないのです・・・
825 :
名無しさん@お腹いっぱい。 :2006/11/19(日) 12:55:04 ID:IHPQ5hD70
ophcrackってファイルそのまんまんをCDに焼くだけにいいわけ? 誰か詳細知っているやついない?
827 :
名無しさん@お腹いっぱい。 :2006/11/20(月) 13:53:18 ID:2UIInUv/0
GetHTMLWで久しぶりに更新・ダウンロードすると 404になってたりする事が有る。これだとせっかく取得した 古いページがエラーページに上書きされるので困る。 こんなときに便利に使えるシンプル更新チェックソフトないですか? GetHTMLWの右クリック→指定のアプリで開くから起動できるヤツで コマンドラインで URL指定すると1レベルくらいのリンク更新日時と 簡単な内容だけをリストアップしてくれるような サイズの小さいツール教えてください。
ここは更新チェックソフトを探すスレではない
829 :
名無しさん@お腹いっぱい。 :2006/11/20(月) 21:52:37 ID:2UIInUv/0
なんだこのやろう
830 :
名無しさん@お腹いっぱい。 :2006/11/20(月) 21:56:13 ID:64Z4n45l0
〜〜〜〜 / ヽ / >~~~~~~~~/ | ∠ \ / | | √ ⌒ <⌒ | / ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ (6 ≡ \| | 元気ですかー! ≡ ┌ __「| < \ \_( | | 1,2,3、ダー! \ ー | | \___| \_____________
ここは更新チェックソフトを探すスレではない
832 :
名無しさん@お腹いっぱい。 :2006/11/21(火) 00:10:34 ID:qe3Ting+0
googleのイメージ検索で出てきた画像を根こそぎ落とすダウンローダってない? 画像自動収集機なるものを使ってみたがうまくいかないので
JSを使ってないほうのURLを指定すれば委員では?
>>835 さま
親切かつ丁寧なレス、ありがとうございます。
教えていただいた通りの手順でソースを見たら、ありました・・・アドレス 初心者には、
かなり感激ものでした。今日は休みなので、ゆっくり楽しみながら落としてゆこうと
思っています。改めて、ありがとうございました m(._.)m
巡集消えたーーー
更新手続き忘れて消されちゃったとか?
839 :
名無しさん@お腹いっぱい。 :2006/11/28(火) 21:00:22 ID:tJI1N2Xs0
そこは巡集でダウンしてあるからいいんだけど サイトと作者さんに何かあったのか気になる
巡集一時消えてるのか これがこのまま公開停止になっちゃったりすると大事だな ちょっと心配だ 話しきり変えて、やっぱりここでは巡集の人気が高い? 上の方ではGETHTMLWの話がぽつぽつ出てきてたけど 俺の使ってるソフトは腕は確かだとは思うんだが知名度が無くてちょっと肩身が狭いよ。
自分が使いやすいと思うソフトならそれでいいじゃないか 巡集は初心者向けで設定が簡単なことと javascriptに対応してるのが受けているんだと思うよ
何の目的で使ってるのかも定かでないので比較議論は隔靴掻痒
844 :
名無しさん@お腹いっぱい。 :2006/11/29(水) 20:57:15 ID:k76zH++W0
ヤフオクでオフィスソフトやデザインソフトの○○が無料!?っていうダウンロードソフトがあったんだがこれってなんていうソフト? 詳細希ボーン
WinnyかShareじゃないの
846 :
名無しさん@お腹いっぱい。 :2006/12/03(日) 15:31:40 ID:wQPPCqQZ0
cgiファイルそのまま落とせるソフトってない? FTPのパス忘れちゃって
原理的にない。
CLIのgethtml.exeを使っていて、 はじめに1プロセス起動して、urlを指定して取得させている。 このプロセスに後から取得urlを追加することは可能?
849 :
名無しさん@お腹いっぱい。 :2006/12/04(月) 01:17:08 ID:IhiZsqd50
無理だろ。残念ながら。
ども。流石に無理っぽいな。ドキュメント読んでも触れていないし。
851 :
名無しさん@お腹いっぱい。 :2006/12/04(月) 20:38:50 ID:IhiZsqd50
ソースなり資料を公開してくれたら 俺が完全サーバ版作っても良かったんだが。 gethtmlももう古いよな。xml対応して欲しい。
自分用WebArchive作れるダウンローダあればなー NTFSとか先進的なファイルシステムならリンク張れるし。
gethtml.とか巡集とか俺の使ってない(知らない)ソフトの話が多いな 世界は広い
めっきり丸ごと取り込む(取り込める)サイトの数も減ったな このジャンルも先細りかな
俺の保存サイトは増える一方ですが
856 :
名無しさん@お腹いっぱい。 :2006/12/08(金) 02:59:14 ID:6h62aRT60
> NTFSとか先進的なファイルシステムならリンク張れるし。 大昔のunixもリンク晴れますよ。
>>852 > 自分用WebArchive作(ry
機会あれば試してみたいが(入れて直ぐ消した)
Heritrix
>>839 他、Web Archiveの中の人乙
なんだけど使ってる方いらっしゃいますか?
日本語不備なんですか。さいですかってのが
結構お約束なのか。これもそうだけど
rubyやperlの〜みたく
マニュアル関連ドキュメントが展開されて
膨らんで100Mぐらい逝く気がして萎え('A`
と思って消したけど
使えば便利なんだろうか?
858 :
名無しさん@お腹いっぱい。 :2006/12/08(金) 20:43:26 ID:6h62aRT60
↑ 何の話しですか?
>>859 ごめん。そう
ドキュメントはhtml(が多い)だからgzで圧縮して
読めるブラウザでならいいかなとか今更思惑も無いけど
本体は小さいみたいな例ね。20Mぐらいのドキュメントと1Mの...とか
Heritrixもjavaの本体は小さい気がする
関連付けとかペルプから動かないじゃんとか
あるけど100Mぐらいなら1/5ぐらいまで縮まれば、まぁいいのか
躊躇して消して後で思ったんだけどね。
だから使い込んでなかったりするんだけど
すごく難解な日本語です><
>>848-
>>851 ・・・キューリスト作ればいいだけだと思うが
そりゃそうなんだが、機能としてあるならそっち使った方が怠惰じゃん。 倉ex使いだからちょっと脳を捻れば出来ると思う。まあ、いよいよ面倒くさくなったらな…
864 :
名無しさん@お腹いっぱい。 :2006/12/11(月) 02:47:03 ID:Bz14SF9T0
ずっとgethtml/gethtmlWに依存してきたのに更新されなくなったので困っている。 なんとかtext/html以外でもリンクを追いかけるようにできないものか? 以前作者の掲示板にmimeタイプに依存しないでもリンクを追えるようにしてくれと 書いたらあっさり蹴られたんだが、更新止まるならそん時強く押しておけば良かった。
Orbitって一通りできるし初心者には結構いいと思うんだけど
867 :
名無しさん@お腹いっぱい。 :2006/12/16(土) 16:02:14 ID:HidMI2kW0
age
巡集復活しても作者たんが死にそうだなw > 自分のフリーソフト「巡集」をヤフオクで売ります。 > ソースコードと著作権、誰か買って下さい。 > 一週間後くらいに出品します。 その前のブログはもっと悲惨だorz
著作権売ったら不具合も修正できなくなったりしそうな・・・・
おお、↓が誰にも落札されないようにしてくれるらしい
何はともあれ 復活おめ!
>>870 ネタだと思って見てみたらorz
漏れが1000円で落札出来たらみんなに公表しますw
巡集の作者氏以前も体壊して死に掛けてたような
そこに痺れる憧れるぅっ
ソース欲しいって人居るのかな・・・。 欲しいと思う人なら、自分で作っちゃいそうだけど。 寄付って形にした方が、金入りそうだけどなぁ。 精々数千円がいいとこでしょ? 他にもソフト作ってるんだし。 長い目で見れば、焦ってオクになんかださないで寄付にした方がいいよ。 巡集以外にも、多くのユーザーが使いそうなソフト作ったりさ。
オークションじゃ1人しか入金できない そんなに値が付くような気もしないし寄付募った方がいいかもね
1000円までなら出す そのかわりに巡回禁止サイト設定を解除してくれ
>>879 だよね。
中の人、このスレ見てんのかな。
巡集の中の人人生\(^o^)/オワタって感じだな
ソースあっても俺には何もいじれないんだけど額によってはお金出すかな…
いまだに巡集はどのバージョンのどこを書き換えたものが一番使い良いのか分からないや
>>869 の紹介にあった中では
WinHTTrackとTeleport Proが高速に取得できるようで良かった
取り込み系ソフトって、中の人が終了してしまうのがほとんどだなw
ウェブを取りこもうとしたものは ウェブから取りこまれるってニーチェも言ってたな
Danbooru is down Some maintenance stuff. Will probably be back in half an hour. おまいが無茶するから…
>>887 有難う御座います。
そちらに移動します。
巡集、売るのはやっぱりやめます。 だってさ
よかった イキロ
7000円のしぇあうぇあにしまつ
巡集の人、絵も描けるんだな。 なんか、絵の練習するとか言ってるし 同人でも始めるのか。
駅前でやってるやつじゃあないだろうか
894 :
名無しさん@お腹いっぱい。 :2007/01/04(木) 23:43:46 ID:zTrw122r0
結局色々なものに手を出してみたけど
準集にかなうものはなかったという印象かなあ
>>869 の下の2つもよかったけどお金を出してまで使うかといったらちょっと・・・
やはり多くのコンテンツを確実に取得できるのと接続数が1のために返って
ほかの作業に支障が出ないというのも思わぬ利点と見えるようになった。
>>869 のソフトは基本的に大量の接続を張ってガーッっと根こそぎやるタイプで
速度的には確かに速いんだけどどうしても細かいところで落としやすい
両者のいいところ取りみたいなソフトは出ないものかなあ・・・できる人は自作してる?
>>883 貧弱環境のサイト管理者からグチグチネチネチ言われるらしいね。
「お前んとこのソフトのせいでうちの回線がどうのこうの」とか。んでVerUP意欲削がれてあぼんぬ。
今残っている丸ごと取り込みソフトの人、これから作ろうって人には、そういうのに負けずがんばってもらいたい。
896 :
名無しさん@お腹いっぱい。 :2007/01/05(金) 12:10:41 ID:Bp9GhSGT0
ますます叩かれる。
Website Explorer このソフトかなりいいと思うよ。壁紙配布サイトで試してみたらローカルにサイトのコピーができた。
UserAgentを変えられれば どのソフト使ってるかなんてわからないんじゃ?
ヘッダーリクエストの中身である程度分かるかもね ブラウザならいろいろやり取りするけど ダウンローダーだと結構簡略化されてたりする
900 :
名無しさん@お腹いっぱい。 :2007/01/05(金) 20:18:35 ID:Bp9GhSGT0
> どのソフト使ってるかなんてわからないんじゃ? ますます叩かれる。
UserAgent可変のソフトにした時点で金子氏同様悪意ありと認定されまつ
変えられるソフトのほうが多くないですか?
903 :
名無しさん@お腹いっぱい。 :2007/01/07(日) 21:34:17 ID:vM5clYoU0
ブログ1人分のをまとめて引っこ抜けるいいソフトはないかなあ 巡集なんかだとヤプログとか場所によっては全然うまくいかない
ヤプログは普通に落とせるんじゃないかな。 URLフィルタで「以下の文字列に一致するそのURLを許可」と 「以下の文字列に一致するURLを除外」を設定すれば 必要なものだけ落として余計なものは落とさないようにできるし。
うーんFlashが貼られてたりすると取りこぼしますねえ サイトの構成も狂ってしまうし 巡集以外のソフトも上に紹介されているので試してみます あとageてしまっててすいません
>>869 のだとOffline Explorer以外の3つならデフォルトの設定でほぼ再現できるように取得できます
巡集は
>>904 さんの通りに従ってFlashは取得できたもののブログの真ん中になぜか空白ができてしまう…
もう少し設定勉強してみますね
生きてた! GetHTMLW 7.14.3 (December 24, 2006)
サイト運営者からしてみればこの手のソフト迷惑極まりないんだが
>>908 サイト構造そのままで固めたZipと、
サイトで使用しているエロ画像だけのZipを
トップからダウンロード可能にするんだ!
まあでもしゃかりきになって落とす気になるHPが減ったという事実… HPを正確に取り込めるソフトより2chの過去ログ取れる●にお金を突っ込んだ方が割にあったりしてねw ●はそれ以外にも一定の効果もあるし。
自鯖
913 :
名無しさん@お腹いっぱい。 :2007/01/09(火) 22:24:51 ID:iGrGXHaQ0
面白いのみつけたからはっとく
http://72.14.235.104/search?q=cache:fl_Zch6sTuoJ:web.poporo.net/forum.cgi%3Fselect%3D%252Fuser%252F8773+webox+%E6%8B%92%E5%90%A6&hl=ja&gl=jp&ct=clnk&cd=36 みき (ゲスト)
04年7月21日 水曜日,午後 10:03分
一番の目的は、最初から書いていると思うのですが、
ダウンローダで一括ダウンロードされることを防ぐことです。
ただ、私の少ない知識の中では、
ダウンローダで一括ダウンロードされることを防ぐ方法が思いつかなく、
しかも、ダウンローダからのアクセスを拒否する方法があるだなんて、
思ってもいなく、では、どうすればダウンロードする気をなくすことができるかと思ったときに、
オフライン閲覧を禁止することが一番なのではないかと思ったのです。
オフラインで閲覧できなければダウンロードする意味がなくなる、
ということになると思ったのですが、ここが矛盾しているのでしょうか?
こういう対策をしようと思った理由は、
一括ダウンロードをされて困っている事実があるから、ただそれだけです。
理由もなくオフラインでの閲覧を禁止したいと思うわけはないですよね?
yurakuさんは、一体何がおっしゃりたいのですか?
何故こんなトゲのある書き方をされるのか、私には理解できません。
結局100%防ぐ方法はないのですね?
でしたら、そんな方法はない、ということで結構です。
最適と思う方法を教えてもらうまでに、
こんなに不愉快な会話を交わすのかと思うとうんざりです。
色々と知恵を絞ってくださった、皆様、勝手で申し訳ありませんが、
この話はもう終わりにしてください。
もう少し自分で調べてみます。
色々とありがとうございました。
逆切れする様子が痛々しいなw
「ありがとうございました」という文字を見ると 「どう見ても精〜」が勝手に補完される説
917 :
名無しさん@お腹いっぱい。 :2007/01/10(水) 00:38:45 ID:m1vZCqlZ0
準州対策なら javaスクリプトで動的にリンク先作るとか いくらでも対処方法ある
無理w
921 :
名無しさん@お腹いっぱい。 :2007/01/10(水) 13:40:03 ID:9VsjYOkP0
ajax/sjaxで取得するファイルをDL出来るのは GetHTMLWの拡張 Proxy 機能(Proxy Mode 2)だけ?
世界中に公開してるのにダウンロードされるのが厭って一体何故??
一気にがーっと持って行かれるのがサーバ資源に厳しいって事でしょ。 古いGetHTMLで4thread/Serverとかやっている香具師は猛省汁、ってことかと。
925 :
名無しさん@お腹いっぱい。 :2007/01/10(水) 20:25:45 ID:7KmhOcX70
超亀だけども METAタグで巡回拒否は proxomitronでフィルター作ればいいんじゃまいか
このジャンル 海外にも結構色々なものがあるのね どちらかというと多数のダウンロード一斉に始めるサーバには優しそうにないタイプ しかも一部のソフトが99ドルとか400ドルとかめちゃめちゃ高かったりするw
928 :
名無しさん@お腹いっぱい。 :2007/01/11(木) 02:43:08 ID:WqkycWkF0
>>918 ベクタの書庫じゃなくて作者の釣ってんろだ。
日本語でおk
ない
readmeくらい読めよ。ひょっとしてなんのファイルか判ってない?
この数日で色々な取り込みソフトを使った 昔は分からなかったGETHTMLWのUserAgentの書き換えも今になってようやく分かった 自分の操作が下手なだけかもしれないけど結局これ一つでどんなサイトも全てOKってソフトはなかった 性能がいいソフトをいくつか場合で使い分けるのが一番なのかな 最後に 実験台にして何度も何度も丸ごとダウンロードしてしまったサイトの中の方どうもすみませんでしたw
実験は嫌いなサイトでやってますw
好きとか嫌いとかは微妙ですがお世話になったのは細かくダウンロードの結果に差が出るサイトですね リンクが繋がるか繋がらないか、画像が取得できてもちゃんとgifが動くように取り込めているかなどです
で、真におすすめのソフトは何か?謎は残されたばかり… 使い手のWebの知識にも寄るんでしょう できれば初心者がデフォルトに近い設定でも確実にもりもり落とせるソフトを期待してたけど そんな都合の良いものはものはなかったw 今でもHDDには6個ソフトが入っています 全てを使い切れるかはともかく
「初心者」は巡集で落とせw これで落とせないサイトは諦めろw
938 :
名無しさん@お腹いっぱい。 :2007/01/12(金) 11:25:07 ID:u28sfBGs0
おお、こんなスレあったのか。WEBOXだけかとおもってた。
>>897 俺も最初WEBEXがよさげと思ってたんだが、
ttp://cooly.h.fc2.com/top1.html ↑ここのトップ絵がなぜか保存できないんだよな。
ソース見る限り別にダウンロード対策なんてしてないように見えるんだが、
こんなシンプルなサイトも落とせないのはどうかと思って、いろいろ他のを探している所。
942 :
938 :2007/01/13(土) 00:51:28 ID:wSs76BRr0
>>940 >>941 うお。Weboxいけるな(゜∀゜)
WebEXだとなぜかダメだったのに。(他の画像は全部落ちたけどtop絵だけ無視された)
おれの使い方が悪かったのかな。
ここで今の俺のHDDの中に残されている丸ごと取り込みソフトを印象を交えながら 空気をよまず紹介。 ・巡集 とりあえずこれにかけてみて、駄目だったら別のソフト探すかさっさと諦めたら? といわれたほどの逸品。作者は人生\(^o^)/オワタ状態だけどまた立ち直って 開発に着手する…なんて夢を見てる。解析をかなり綿密にやってくれるのと 接続数が1に絞られているという点が意外にも落としているPC二も優しかったりして ・GETHTMLW 正直何となく入れた、過去ログを読む上ではかなり時代を担ったソフトのようだが ついさっきから使った俺には有難味はよく分からなかった。とりあえず UserAgentの回避と同時接続数の問題は回避できるようになったっぽい。 ・_gu 微妙な名前のソフトだがGetYou!の作者が後継と目して作ったソフトのようだ。 サポートはHTTPのみ、リジューム負荷、リンクの書き換えは行なわないなど 不便な仕様が目立つ中以外にもサイトを忠実に反映でいる力あり。 メモリの消費が激しいともあるがCPU関係でいうと重くなったりすることはなく むしろ軽い部類ではないかと。入手製が一番の難問という説あり。 ・WinHTTrack 洋物のソフトだが使ってみると完全日本語。手に入れるまでが面倒なのを除けば 設定は細かく作れるしサイトの解析も優秀でかなり正確に再現してくれる。 ただし解析中にスレッドが詰まるとスキップも効かず挙げ句の果てには終了も PCの片コア食い尽くしたままタスクマネジャーからの強制終了を要求される お行儀の悪いソフト。悪くはないが作りが粗い…そんなイメージ。
そしておまけ、が一番長い罠w ・Teleport Ultra これも洋物のソフト。その上完全英語で有料。そういうわけで現時点では 自分がこれを使えるの今月いっぱいくらいなのだが、このソフトが今までのに比べて リンク解析の賢さとダウンロードのスレッドの回転のバランスが一番良いんじゃないかと 思う次第で…でも金出して買う気にはなれるかと言われるといまいち微妙だ。 毎日毎日どこかのサイトを落としているわけではないので… いつでもヘビーにやらかしている人は一度導入して実力を見てみるのはありかもしれない。 それと、最初のウィザードでサイトのディレクトリ構成を維持するにチェックを入れないと 1つのフォルダにページの必要なデータが全て丸投げされてしまうので注意。 そこから必要なデータだけ抜き出すという用途が意図されたセッティングと推察される。 ちなみに今回使ってみた上位クラスUltraは150ドル、下位のProは40ドル。 超おすすめなんだけど流行はしないんだろうなあ…個人的にはProの購入はちょっと考えてます。
巡集の作者は、もう株にドップリ使ってるようだがな・・・。
株式会社巡集つくってしまえばよいのに
株は一度はまると怖いぞー
949 :
名無しさん@お腹いっぱい。 :2007/01/14(日) 22:26:34 ID:TMgxZHyJ0
180万儲かった
話はループするけど やっぱり確実に取り込むなら巡集が一番だな 他のソフトは接続数を大量に張るとかして高速さを実現しているけど 最終的には完全な形でダウンロードしたいという目的からではどこかに取りこぼしがあって巡集に敵わない 一気にガツガツ取りに行って取りっぱぐれがないというのが最高かもしれないけど そういう虫のいいソフトはやはりないものだね
何より、巡集には一呼吸つける優しさがあったよ GUIのセンスとか、ソフト自体の作りとかに。 GetHTMLとかいろんな意味で怖いもんな〜
接続数1に限定されていることで相手の鯖だけじゃなく自分のPCにも優しいという思わぬ副作用 ここで紹介されていた外国ものの容赦ないダウンローダで接続数30とか本気で動かしたら PCがハングしましたw そりゃページの管理人としてはたまったものじゃないはずで
回線が細いナローバンド者はそういう無謀なことはしないだろうが 光にやられたらキツイわな
955 :
名無しさん@お腹いっぱい。 :2007/01/17(水) 08:21:22 ID:S82f2gQ50
GetHTMLWの新しいのを使ってみるか…。 作者の様子が伺えないのが残念だが。
956 :
名無しさん@お腹いっぱい。 :2007/01/17(水) 08:38:08 ID:S82f2gQ50
コマンドライン版がない…。 古いのでいいや。
しょこたんブログの画像だけを集められるソフトは何がいいだろう・・・
これが、後に伝説となる名器「しょこだうん」の誕生であった。
マジでw
特定時間間隔ごとに特定のページを保存するツールってないかな? 1時間くらいで全てのログが流れてしまうCGIチャットをずっと見てるのつらくて 誰か知っていたら教えてくださると嬉しいです
963 :
名無しさん@お腹いっぱい。 :2007/01/27(土) 15:01:28 ID:vRB77lWm0
964 :
名無しさん@お腹いっぱい。 :2007/01/29(月) 11:14:16 ID:RysyN8+60
ずいぶん奥まったところの一ページじゃねぇか。
ソフトは各種取りそろえたものの丸ごと落としたいようなサイトがなかなか現れないので 宝の持ち腐れ感あり
967 :
名無しさん@お腹いっぱい。 :2007/02/02(金) 08:04:42 ID:LNgh8v/Q0
age
968 :
名無しさん@お腹いっぱい。 :2007/02/02(金) 21:59:48 ID:LNgh8v/Q0
age
ageられてたので何か書くと 色々なソフトを巡り歩いたけど結局 User-Agentなどを弄った巡集で確実に User-Agentや同時スレッド数を弄ったGetHTMLWで根こそぎ この2つで大まか何とかなってきたな 動画のストリーミングのように新手の防御策が次々出てくるなんてことがないので ソフトの入れ替わりも少なかったかな、と思う
970 :
名無しさん@お腹いっぱい。 :2007/02/03(土) 17:11:29 ID:G8+n1hE30
a
971 :
名無しさん@お腹いっぱい。 :2007/02/04(日) 23:54:47 ID:6h8zr2mx0
age
a
a
a
a
a
a
a
a
a
話題ないよね 今までスレに上がったソフトでもおさらいする?
983 :
名無しさん@お腹いっぱい。 :2007/02/05(月) 20:53:52 ID:kEx7DrwV0
ココログでBLOGやってます。 当面は他のサービスに移管する予定もないのですが、自分のエントリをローカルに保存しておきたいと思います。 どんなソフトがいいでしょうか? 写真も一緒に保存できれば最高ですが、テキストだけでもいいです。 よろしくお願いします。
心具にはログ保存オプションないのか? はてなにはあるぞ
986 :
名無しさん@お腹いっぱい。 :2007/02/05(月) 21:11:38 ID:kEx7DrwV0
>>984 ,985
あ、あった、ボケててすまんでした。
987 :
名無しさん@お腹いっぱい。 :2007/02/05(月) 21:33:30 ID:kEx7DrwV0
>>985 983です、やってみたのですが、テキストだけ保存できればいいのですが、
HTML形式そのまま保存されてしまうのですよ。
こんな感じ・・・
AUTHOR: tomoTITLE: 準備中STATUS: PublishALLOW COMMENTS: 1CONVERT BREAKS: 0ALLOW PINGS: 1
CATEGORY: 日々の記録
これでは読むのも大変です。
DATE: 02/12/200
>>986 つーか他スレで書いてたんだから誘導されて来た旨を記せよ
989 :
名無しさん@お腹いっぱい。 :2007/02/05(月) 21:54:43 ID:kEx7DrwV0
めんご、誘導されてきました。
HTMLで保存してテキスト化ソフトに掛ければ?
h
h
1