お勧めダウンロード(丸ごと取り込み)ソフト3

このエントリーをはてなブックマークに追加
550名無しさん@お腹いっぱい。:2013/03/25(月) 03:05:59.46 ID:f95fsGFY0
atroposってprntscrnキーを設定することはできないの?
551名無しさん@お腹いっぱい。:2013/05/12(日) 06:29:55.05 ID:homI4KHO0
gethtmlwで全く取得できないサイトに出会った
割と弾かれてるんだな
余裕で乗り越えたけど
552名無しさん@お腹いっぱい。:2013/05/14(火) 19:02:11.80 ID:yDZ7TQI70
サイトのダウンロードソフトについてなんですが、そっくりそのまま保存してオフラインでも見れるようにしたいんです。
そのサイトはJavaScriptや動画も置いてあるんですが、そっくりすのまま保存することはできますでしょうか?
OSはwindows7です。
有料、無料どちらでも構いません。
553名無しさん@お腹いっぱい。:2013/05/26(日) 23:57:36.73 ID:og6d6/gf0
報告
ダウンロード・スパイダー使っていたら、IEのWEBページの保存が出来なくなった
554名無しさん@お腹いっぱい。:2013/05/31(金) 21:55:18.53 ID:uZUQOv7m0
GetHTMLWがCRCか出力先が〜と表示が出て正常に解凍・DL出来ないのですが、どうすればいいのでしょうか。
OSはwindows vistaです。
555名無しさん@お腹いっぱい。:2013/09/14(土) 22:13:24.97 ID:CXBwsMJ/0
555 get !
556名無しさん@お腹いっぱい。:2013/10/14(月) 14:28:53.91 ID:kSUr/BCk0
ウェブページをJavascriptごと保存して、さらに更新有無に関係なく
チェックした時ごと(1日ごと、12時間ごと)に履歴を保存してくれるのってありますか?
今はHTTrackを使っていますが差分を履歴と確認したくて…
557名無しさん@お腹いっぱい。:2014/01/17(金) 21:27:59.74 ID:4BAKXmKO0
保守
558名無しさん@お腹いっぱい。:2014/02/28(金) 04:38:18.23 ID:PtzNWAqB0
ATWIKIのサイトを取り込むコツないかな?
559名無しさん@お腹いっぱい。:2014/02/28(金) 12:57:50.30 ID:QvnC3EMh0
>>558
HTTrackなら↓みたいな感じで
@wikiメニューのリンク拾って除外登録していけば無駄な取り込みはなくなるはず

-www00.atwiki.jp/hogehoge/new
-www00.atwiki.jp/hogehoge/editx/*.html
-www00.atwiki.jp/hogehoge/diffx/*.html

最大階層最小で試して不要なリンク洗い出すといいよ
wikiの取り込みは鯖に負荷掛かると思うんで設定は気をつけてね
560名無しさん@お腹いっぱい。:2014/04/12(土) 00:01:33.91 ID:piRO/wAX0
フォレストの携帯サイトを取り込めるダウンローダー知らないですか(つД`)
巡集はアドレス長くて書き込みエラー
weboxも何故かエラー
スクラップブックはリンクが70までしか辿れなくて断念
getHTMLは取り込めたけど取りこぼし大量に出た
他のダウンローダーも.html形式じゃないからか失敗するよー
561560:2014/04/14(月) 17:58:54.73 ID:r8sCxR980
すみませんgethtmwでフィルタ細かく設定したら携帯サイトも取り込めました
取り込む速度も瞬殺でこのソフトすげえ
562名無しさん@お腹いっぱい。:2014/05/08(木) 05:15:50.10 ID:S+GF45Tc0
アップローダにあげられた物が落とせないのですが
httrackで落とす場合はどう設定すれば良いのでしょうか
表面のページのみで中身が一切落とせないです。

ttp://yukkuri-futaba.sakura.ne.jp/kariloader/ssanko.html
563名無しさん@お腹いっぱい。:2014/05/08(木) 19:02:13.75 ID:Ejo0hQ3D0
>>562
試してみたがHTTrackじゃ無理っぽい
Cookie設定すればそのページ自体は拾えるけど
各投稿の相対リンクが?で始まってるせいかリンク先を拾ってくれないね

それにリンク先拾えてもflash経由でテキスト表示してるから
flashの解析も出来るツールじゃないとアップロードされたテキストは取って来れないと思う
564名無しさん@お腹いっぱい。:2014/05/10(土) 10:48:33.83 ID:Ne1h6I/L0
ネット小説を保存するのには
どんなソフトを使ったらいいでしょうか?
565名無しさん@お腹いっぱい。:2014/05/10(土) 21:00:37.39 ID:FkoA4TlM0
>>564
IEでおk
566名無しさん@お腹いっぱい。:2014/05/12(月) 23:45:03.04 ID:i13e208b0
wget以外でパス付きのサイトダウンロードするソフトない?
567名無しさん@お腹いっぱい。:2014/06/05(木) 00:11:41.72 ID:qF77yrzL0
>>561
マジ?教えてお願い。
フォレスト何年もあきらめてたorz
GetHTMLWで出来たってこと?
568名無しさん@お腹いっぱい。:2014/06/05(木) 07:15:01.12 ID:UBg0CeAy0
古いVer.だとなお速いぞ
569名無しさん@お腹いっぱい。:2014/06/05(木) 08:02:02.37 ID:0/gSZuHj0
Ver 8から同一ホストからの同時DLが1に制限されてるから、Ver 7.12.0をWebArchiveとかから拾ってくれば同時DL4まで可能。
相手方の負担を考えなければ実に快適だな。
570名無しさん@お腹いっぱい。:2014/06/06(金) 00:00:03.18 ID:EiBQjR9Q0
うちのも7.12.0だな
571名無しさん@お腹いっぱい。:2014/06/06(金) 09:16:33.67 ID:BP3ACk690
おれ使ってるのは7.11.5だった
572名無しさん@お腹いっぱい。:2014/06/06(金) 10:55:15.35 ID:zlKKgRCS0
IrvineでURL解析にてダウンロードするべきURLを選んでDLするのも手ではある
robots.txtを弾いてUAも偽装して、それでもGetHTMLWでDLできない場合の最終手段
573名無しさん@お腹いっぱい。:2014/06/15(日) 09:25:01.74 ID:hsbulYYi0
>>567
スレ離れてて遅レスになったけどもうできた?
574名無しさん@お腹いっぱい。:2014/06/16(月) 23:00:28.10 ID:m0YS9fWe0
>>573
できてないよorz
GetHTMLWでいいの?
フォレストとりこめたなんてすごいよ
よくわかったね
575名無しさん@お腹いっぱい。:2014/06/17(火) 06:39:41.44 ID:B5QBqdwa0
atwikiを保存してほかのwikiにコピーして存続させたいんだがうまく取れるソフトはないかね絵…
576名無しさん@お腹いっぱい。:2014/06/17(火) 09:10:09.25 ID:x5D8mRI50
wikiを別に移したいのなら
htmlソースを取り込んでも意味無いんじゃないか
577名無しさん@お腹いっぱい。:2014/06/17(火) 12:33:19.19 ID:B5QBqdwa0
構造ごとぶっこ抜けるソフトってありませんかね
wikiの運営には詳しくないものでデータだけでも集められれば作り直すのも不可能ではないと思いまして
578名無しさん@お腹いっぱい。:2014/06/17(火) 12:51:38.14 ID:x5D8mRI50
管理者じゃない限り、手作業で1個ずつwikiのソースをコピーするしかないよ
579名無しさん@お腹いっぱい。:2014/06/17(火) 13:55:07.26 ID:W7OE9+f10
>>574
追跡ページ制限気にしないならscrapbookでも取り込める(確か90ページくらい)
gethtmlw使うなら取得条件>フィルタ編集を同梱のgethtmlw.txtを見ながら編集
自分の場合
1:サイトの共通URL
0:\.*
で取り込めたと思うたぶん
580名無しさん@お腹いっぱい。:2014/06/17(火) 15:11:46.11 ID:6Cl5a3940
φ(.. )メモメモ
581名無しさん@お腹いっぱい。:2014/06/17(火) 21:18:13.55 ID:n2xsu56C0
>>579
レスありがと
やってみるよ
できたら報告にきます
報告なければできなかったということで
あいつアホだったかとでも思っててくださいw
582名無しさん@お腹いっぱい。:2014/08/17(日) 15:30:32.21 ID:ir6+HsPe0
会員登録が必要なサイトをまるごと取り込みしたいのですが、
weboxを使って、まるごと取り込みしようとすると
ログインしてください、というログインできていないエラーメッセージのhtmlファイルがダウンロードされてしまいます。

それぞれのページを、ページ取り込みすると、
問題なくログインされた状態でのページのhtmlファイルを保存することができます。

数千ページもあるので一つ一つ開いて保存していくのが面倒なので
一括保存したいと考えています。

これはIEで一度開いたことでログインされた状態でのhtmlファイルがキャッシュフォルダに保存されることによるものなのか
どうかを知りたいのですが、
リンクを右クリックしてURLからページをダウンロードすることってできないのでしょうか?
要はIEで一度でもページを開いていれば、一括取り込みで正常な方が取り込まれるのかどうかを知りたいのですが
どうすれば良いでしょうか?
583名無しさん@お腹いっぱい。:2014/09/18(木) 14:15:22.01 ID:ttWc5ZOa0
m9
584名無しさん@お腹いっぱい。:2014/11/13(木) 11:21:59.28 ID:BOi0pnCs0
585名無しさん@お腹いっぱい。:2014/12/07(日) 19:49:42.73 ID:c2gBrHWI0
ようつべ
586名無しさん@お腹いっぱい。:2014/12/26(金) 16:15:32.96 ID:7VvUAsKm0
    /:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::://ヽ:::::::::::::::|
    l:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::// ヽ::::::::::::::l
    l:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::/:::「'ヽ::::::::::://   ヽ:::::::::::|
    |::::::::::::::::::::::::::::::::::::::::::::::::::::::::::ノl:::ノ l:::::::/      ヽ::::::::|
   ノ:::::::::::::::::::::::::::::::::::::::::::::::::::::/ ゙゙  ノ:::/ ,,;;;;;;,,    ,,,,ヽ:::::l
   ):::::::::::::::::::::::::::::::::::::::::::::::/    ノ/ __,'''i: ('''__):::l  
  )::::::::::::::::::::::::::::::::::::::::::::::::::/         ̄ ̄ン:. :「 ̄`ヾ   
 1:::::::::::::::::::::::「 `┤l:::::::::::::::::l          ̄   ,  ヽ ̄ l   
  `l:::::::::::::::::::::ヽ  :l li:::::::::::::/        ヽ  /´   `l  |
  ヽ::::::::::::::::::::::\_」 lヽ::::/         .l  !:-●,__ ノ  /      
  ノ:::::::::::::::::::::::::::ノ | l `゙゙           i ,,;;;;;;;;;;;;;;;;;;;;,  /ヽ       
,/ ヽ::::::::::::::::::::::(  l l::::::::..         /.:''/´ ̄_ソ  /  `ヽ
     ヽ:::::::::::::::ヽ | l:::::::::::...      /::// ̄ ̄_ソ  /    \   ヴッ!!
        ヽ:::::::\| l::::::::::::::::...    / :::.ゝ` ̄ ̄/ /       ヽ
           ヽ:::l l:::::::::::::::::::..      ̄ ̄;;'' /         ヽ
              l l;;;;;;:::::::::::::::.....;;;;............;;;;;;''ノ            l
              l l '''''''''''''''''''''''''''''''''''''' ̄l |             |

http://www.youtube.com/watch?v=z2qK2lhk9O0
587名無しさん@お腹いっぱい。:2015/02/02(月) 14:02:34.40 ID:JkiDLaz40
588名無しさん@お腹いっぱい。:2015/02/11(水) 13:24:59.59 ID:EIUIF3gW0
wgetを使いこなせば、 javascriptによるリンクや、phpなどによる動的なurlを柔軟に処理できますか?
589名無しさん@お腹いっぱい。:2015/02/11(水) 16:20:02.81 ID:A3iM2ZFo0
はい
590名無しさん@お腹いっぱい。:2015/02/22(日) 02:36:04.73 ID:w+6nav8q0
http://xenobladedata.web.fc2.com/
このサイトを巡集やらいろんなソフト使って保存してもレイアウトが崩れてしまいます
どなたか助けてください(´;ω;`)
591名無しさん@お腹いっぱい。:2015/02/22(日) 07:44:19.56 ID:VhCspjFi0
>>590
ソース見るとCSSをJavaScriptで切り替えてるから拾えてないだけかな
CSSの直リンも追加して取り込めばいけると思うが
http://xenobladedata.web.fc2.com/ie.css
http://xenobladedata.web.fc2.com/ff.css
http://xenobladedata.web.fc2.com/op.css
http://xenobladedata.web.fc2.com/gc.css
http://xenobladedata.web.fc2.com/nml.css
592名無しさん@お腹いっぱい。:2015/02/22(日) 09:34:46.89 ID:w+6nav8q0
初心者でさっぱりなんですが、CSSの直リンってどこ見ればわかるのでしょうか??
後そのCSSの中身をコピーして、落としたhtmlに貼りつけていくって事なのですか??
593名無しさん@お腹いっぱい。:2015/02/22(日) 09:44:28.45 ID:w+6nav8q0
あ、CSSファイルを外部から読み込むのか・・・
すいません今から少し勉強してみますw
594名無しさん@お腹いっぱい。:2015/02/22(日) 10:07:10.81 ID:OvZIuqnD0
動的にcssを読み込んでたりとか、
cssの中でさらに別のcssを読んでたりは対応しないから
一度取り込んだ後に追加URLでcssを読み込ませる必要がある
595名無しさん@お腹いっぱい。:2015/02/22(日) 11:29:20.03 ID:w+6nav8q0
一応できましたw
>>591さんと>>594さん本当にありがとうございました
追加するのがめんどくさいので、まとめて追加するソフトでも探してきますw
596名無しさん@お腹いっぱい。:2015/02/22(日) 22:33:22.35 ID:VhCspjFi0
>>595
うまくいったみたいで何より

CSSのURLはソース見て追いかけるしかないかなあ

フォルダ構成が変わるから注意だけど
巡集なら詳細設定 > 取得設定 > HPタイトル(ログ用) > URLから生成 or 直接入力
にすればまとめて保存できると思う
597名無しさん@お腹いっぱい。:2015/02/23(月) 01:42:25.02 ID:Lupf5rXn0
??
HPタイトル(ログ用)ってフォルダ名を変えるだけですよね?
デフォルト設定で何か問題あるのですか??
598名無しさん@お腹いっぱい。:2015/02/23(月) 07:28:24.10 ID:WGiI2GdA0
>>597
デフォだとHPタイトルごとにフォルダが作られるけど
596の設定だとURLごとに作られるから

取得URLに↓を書けばxenobladedata.web.fc2.comのフォルダが出来てまとまるってこと
http://xenobladedata.web.fc2.com/
http://xenobladedata.web.fc2.com/ie.css
http://xenobladedata.web.fc2.com/ff.css
http://xenobladedata.web.fc2.com/op.css
http://xenobladedata.web.fc2.com/gc.css
http://xenobladedata.web.fc2.com/nml.css
599名無しさん@お腹いっぱい。
こんな便利な方法があったのかww
自分website explore使ってたので、バナー消したりcssのリンク追加したりしてましたよw
すいません何度も助けていただいてありがとうございます