909 :
907:03/12/03 03:26 ID:gl8p+uen
>>908 レスぬりがとー
wgetでの連番指定は色々方法はあるけど、
zshを使うと(zshが連番の処理してくれるので)楽にできたり。
でも連番に関してはcurlのほうがお手軽かも。
910 :
905:03/12/05 00:46 ID:TC5Qnl1J
>>906 出来た!サンクスコ!
一度これかとも思ったけどリファレンスみたら
引数がstring型だったから違うかと思った。
マジ感謝!
連番とかいうのは正規表現に対応したダウンローダがあれば解決なのか?
CocoaWgetでえぇやん
913 :
名称未設定:03/12/12 21:38 ID:A0K7NOb4
i桜使ってるんですが、これで闇のファイル落としたいんですが、設定どう変えればいいんですかね?
闇ってどこのこと?
どこかわかったら試してみるけど。
915 :
名称未設定:03/12/12 22:24 ID:A0K7NOb4
アップローダ研究です。よろしくお願いします!
Lemonアップデートキタ━━━━━━(゚∀゚)━━━━━━ !!!!!
まだクラシク版だけどもうれすぃ
うp研はどうせイッコずつだし評価もあるからブラウザで十分だと思うんだけどナー。
>>913,915
sageようぜ。
>>916 おー!めでたい。
しかし、いったんOSXにうつってからLemonも起動しなくなったなあ。。
URLコレクターとMacGetばっかりだ。
つーか2chに貼り付いてる率が高くなったからあんまりややこしいURL抽出とかしないし。
URLコレクターは2chブラウザからドラッグ&ドロップでttpで始まるURLを解釈してくれるのが便利なんだよな。
複数のファイルに一度でDLフォルダを設定できるし、しかもそのマルチDLウインドウを複数開けるし。
連番の展開も簡単。
でもリファとかエージェントとかタイムアウトとかリトライとか同時DL数とかの設定に融通が利かないから重いファイルは落とせない。
だからMacGetをはずせない。
ほんま誰かMacGetのOSX版作ってくれんやろか。
なんか本家サイトの方は寂れてきてるけどなんとかMacGetOSX版の開発をしてもらいたい
省機能高性能の見本のようなツールだし
誰かspeed Download 2、使ってる人いる?
サーバーリストとかなんなの?ってかんじで、
まったくもって全機能を使い切れてないような気がする。
猫波さんの所、ツールへのリンクがなくなっちゃったね。
山田さんの所も閉鎖っぽいし・・・
このままフェードアウトしちゃうのかなぁ、寂しいなー。
923 :
921:03/12/14 12:23 ID:juR5pFzB
移転してたのか・・・
教えてくれてありがとう
924 :
名称未設定:03/12/16 13:45 ID:u9o+/Fk+
パンサに移行してからもダウンローダは愛桜を使い続けています。
urlコレクターじゃ、すぐに切断してしまうような鯖でも、かなりしつこく
食い下がってくれるんで重宝するんですよね。
転送速度も微妙に速い気がするし・・・・
osx用で愛桜くらい根性のあるダウンローダがあればいいんだが・・・・
>>924 僕もです。毎度iSAKURAの為だけにクラシック起動してます。
質問スレにも書いたんですが、レスが貰えなかったのでこちらに
書かせて下さい。
iGetterで闇のファイルをDLしたいのですが、
環境設定のログインの所で、「サーバ/パス」の所には何を入れたら
いいのでしょうか?
DLするファイルのリンク先のURLを入れてみたんですが、DLできませんでした。
ご存知の方がいましたら教えて下さい。
よろしくお願いします。
>>929 メニューバーの編集→環境設定→ログインの所の「新規」のボタンを
押すと出てきます。
932 :
928:03/12/21 17:37 ID:B8kxB0Gn
>>930 ISDNなので時間がかかるんです・・・。
933 :
928:03/12/21 17:40 ID:B8kxB0Gn
とゆうか、ブラウザでDLすると最後までDLできないんです。
>928
アクセスするのに、認証の必要なサーバなのでつか?
935 :
928:03/12/21 20:56 ID:B8kxB0Gn
>>934 はい、そうです。
ログインIDとパスワード入れないといけないです。
ならばi桜じゃだめ?
ちなみに俺は使ってDLしてますって話しなんだけど。
俺下駄使った事ないんだよね。
937 :
928:03/12/21 22:46 ID:B8kxB0Gn
>>936 あ、それでもいいです。
さっそくDLしてきます。
938 :
928:03/12/21 23:17 ID:B8kxB0Gn
すみません、iGetterでDLできました!
「サーバ/パス」の所には「www.upken.jp」と入力するとDLできます。
みなさん、ありがとうございました。
愛桜でDLに最大何kでやがるか教えてちょ。
ちなみに、10.2.8+Classic9.2+愛桜ver.0.00dev-f3.2.3で大体250k
説明書を読む限りやっぱ250kが限度らしいけど、これ以上でないもんかね?
猫波さんのHPまじで休止中なのは…OSX移行準備と考えたい!
>>928=938
GJ! 俺もここで2度も質問したが、ヒントすら出なかったよ
全くここのスレの香具師は使えねぇな〜
ブラウザ使えだのトボケた事しかほざけないバカもいるしな(´_ゝ`)
941 :
928:03/12/22 17:12 ID:41aOu8i8
iGetterで闇のファイルDL開始したんですが、全然進みません。
1Kくらいしか出なくて、まだDL終わってません。
そこで、iSAKURAで試してみたんですが、IDとパスをいれても
なぜかエラーになってDLできません。
なぜなんでしょうか?
iSAKURA dev-f323 使ってます。
942 :
939:03/12/22 17:16 ID:zpnvsWxb
>>941 928
最後が数字のURLで落とそうとしてるんじゃないのか?
最後が拡張子のURLじゃないと落ちてこんとおもうが
943 :
928:03/12/22 17:41 ID:41aOu8i8
>>942 レスありがとうございます!
その通りでした!最後が数字のURLで落とそうとしてました・・・。
一度、リンク先をiGetterで取り込んで、ファイル名を出してから
iSAKURAでやるとDLできました。
944 :
928:03/12/22 17:53 ID:41aOu8i8
>>940 どうもです。
私も前にも質問した事あるんですけど、誰も教えてくれませんでした。
やっとDLできて嬉しかったんですが、全然DLが進まなくて・・・。
iSAKURAのほうが全然速いです。(私の場合)
940さんはちゃんとDLできましたか?
945 :
939:03/12/22 17:55 ID:zpnvsWxb
ブラウザで最高1Mでるから、闇は愛桜を使うメリットが薄いから、250k以上にならんもんかなと思って質問したんだけど…
947 :
939:03/12/22 19:58 ID:zpnvsWxb
なるほど…どうもです
948 :
名称未設定:03/12/26 00:03 ID:R2dSyyLO
URL Rip&DL使っているけど、最後が01.jpg〜50.jpgの拡張子なら連番機能でダウソできるが、
たまに01.html~50.htmlの拡張子でJpeg画像が貼付けてある連番ファイルって
みんなどうやって落としてます?ホントわからんので誰か教えてください。
張付けてある画像のurlから連番リスト作ったらいいだろ
>>948 過去スレ読め 例えば、
6 名前:1 メェル:sage 投稿日:03/02/10 17:51 ID:w2y5kybF
■ソフト名:URLコレクター♪
URL:
ttp://hccweb1.bai.ne.jp/ili/index.shtml 対応:OSX
特徴:X用のフリーウェアで唯一の分割ダウンローダ。
リンク抽出からDLまでバランスがとれており、機能の割にシンプル。
この「リンク抽出」という機能があるソフトで階層を設定して使う。
俺は「う」は殆どこれで落としてる。
951 :
名称未設定:03/12/26 20:19 ID:R2dSyyLO
>>949、950
出来たよマジありがと♪
一杯画像の貼付けてあるプレビューのページから一生懸命URL ripしてた。
まず最初の01.jpegまで行ってから連番指定するのね。
フィルタリングまでしてるのになぜ?って真剣に考えたよ。
そりゃそっからripしても.htmlしかこないわな。
でもこれ便利ね。10ケ20ケなら手でヌいた方がはやいけど、
50以上あると気が滅入るからね。マジさんくすでしたー!!
↑まとまった量のネタがあるようなページ場合、
具体的に何とは書かないが連番じゃないのも混じってる場合もありんす。
表紙とかカバーとか...
htmlと違うファイル名とか別のサーバーに別けてあるといった場合もありんす。
そんな時には抽出機能があるダウンローダでサグリを入れると、
まるっと全部お見通しだっ!!
954 :
名称未設定:03/12/28 23:29 ID:MQGMz7Ae
1000!
そういう連番になってんのはいいんだが、html張り付けの上
0005,0008,0009,0015,photo0027,20031225_32,
とかダウソツールでの一気落としを防止してると思われる様な
名付けしてる様なとこは皆どしてるよ?
しかもダウソツールだとどのソフトでもどんな設定でも反応しないとか。
俺はブラウザで手作業で落としてるが何かいい方法ある?
Lemon起動
↓
画像貼付けhtmlを取り込む
↓
それをLemonのブックマークへ
↓
Analizeウィンドウでsrcタグ抽出モードにしてAutoPilotボタンを押す
↓
画像のURLが抽出される
↓
(゚д゚)ウマー
957 :
名称未設定:03/12/29 12:36 ID:Sfw59DOo
1000!
958 :
名称未設定:
>955
956で作ったリストをURL Editorに放り込んでhtml形式で保存
そいつをIEのウインドウにドロップしる
オプションキー押しながらクリック連打
ウマ〜〜
IEの初期設定でダウンロ−ド先のフォルダ指定しておかないと
デスクトップがエロ画像で溢れるから注意。